P. 1
Libro Completo Algebra

Libro Completo Algebra

|Views: 2.465|Likes:

More info:

Published by: Juan Jose Herrera Sequera on Mar 21, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

06/23/2013

pdf

text

original

Álgebra

R.Criado y A.Gallinari 2003

2

Álgebra

Introducción
En sus orígenes, el álgebra clásica era el arte de resolver ecuaciones (la palabra álgebra proviene de un vocablo árabe que signica reducción). El álgebra moderna está caracterizada por el estudio de ciertas estructuras abstractas que tienen en común una gran variedad de objetos matemáticos. El calicativo abstracto se reere al resultado de realizar el proceso de abstracción sobre las propiedades observables de ciertos objetos matemáticos, es decir, el proceso consistente en separar la forma del contenido. La estructura principal objeto de estudio en esta publicación es la de espacio vectorial. Las aplicaciones de esta estructura incluyen virtualmente todas las áreas de la ciencia. Se incluye una aplicación de los espacios vectoriales relacionada estrechamente con el mundo de la informática y las telecomunicaciones, en concreto a la teoría de códigos y se estudian varias técnicas y herramientas de interés para otras aplicaciones. Este volumen viene acompañado por un libro de Prácticas y Problemas con el sistema Maple V, disponible en versión digital, que contiene una ampliación y completa la descripción de los conceptos teóricos. Las prácticas permiten el desarrollo y la experimentación con los aspectos más numéricos y están diseñada para potenciar el empleo de la notable capacidad de visualización gráca que ofrece el programa Maple V. A cada tema teórico y práctico hemos añadido ejercicios resueltos y ejercicios propuestos. Los principales objetivos didácticos que intentamos conseguir son que el lector:

• aprenda y utilize correctamente técnicas y métodos propios del álgebra lineal. • vea la descripción de algunas aplicaciones a la Informática. • comprenda y aplique algunos métodos numéricos de resolución de sistemas de ecuaciones lineales y de aproximación de autovalores y autovectores. • aprenda a utilizar el programa Maple V (como ejemplo de sistema de computación simbólica) en sus aplicaciones al álgebra lineal.
Algunos apartados de esta publicación (sobre todo en la parte de ejercicios) son una adaptación del material contenido (unas veces sin modicarlo, otras proponiendo variaciones de ello) en la bibliografía incluida.

Álgebra

3

Agradecimientos
Queremos agradecer al profesor Luis E. Solá Conde por su participación en la corrección de estas notas y la elaboración de los enunciados de varios ejercicios propuestos en este libro. Gracias también a los profesores Alejandro J. García del Amo Jiménez y Begoña Jiménez Martín por la elaboración de los enunciados de varios ejercicios propuestos y a los alumnos que han señalado erratas y errores en versiones previas de esta publicación.

4

Álgebra

Índice General
1 Sistemas de ecuaciones lineales, matrices y estructuras algebraicas 9
1.1 Sistemas de ecuaciones lineales, matrices y eliminación gaussiana 1.1.1 Introducción a los sistemas de ecuaciones lineales . . . 1.1.2 Sistemas homogéneos . . . . . . . . . . . . . . . . . . . 1.1.3 Transformaciones elementales por las. Introducción al método de Gauss-Jordan . . . . . . . . 1.1.4 Sistemas equivalentes . . . . . . . . . . . . . . . . . . . 1.1.5 Estrategia para la aplicación del método de eliminación gaussiana . . . . . . . . . . . . . . . . . 1.1.6 Método de Gauss-Jordan . . . . . . . . . . . . . . . . . Matrices y operaciones con matrices . . . . . . . . . . . . . . . 1.2.1 Suma de matrices . . . . . . . . . . . . . . . . . . . . . 1.2.2 Producto de matrices . . . . . . . . . . . . . . . . . . . 1.2.3 Propiedades del producto de matrices . . . . . . . . . . 1.2.4 El producto de una matriz por un escalar . . . . . . . . 1.2.5 El anillo de matrices cuadradas Mn (K) . . . . . . . . . 1.2.6 Matrices invertibles . . . . . . . . . . . . . . . . . . . . 1.2.7 Matrices elementales y un método para hallar A−1 . . . Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . 1.3.1 El concepto de operación . . . . . . . . . . . . . . . . . 1.3.2 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.3 Anillos y cuerpos . . . . . . . . . . . . . . . . . . . . . 1.3.4 Introducción a los Tipos Abstractos de Datos . . . . . Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 1.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 5

10 10 13 14 18

1.2

1.3

1.4

22 24 26 29 31 33 37 39 40 43 47 47 50 52 57 60 60 64

6

Álgebra

2 Espacios vectoriales
2.1

Vectores en el plano y en el espacio . . . . . . . . . . . . . . . 2.1.1 Producto vectorial y producto mixto . . . . . . . . . . 2.1.2 Rectas en le plano . . . . . . . . . . . . . . . . . . . . 2.1.3 Planos en el espacio tridimensional . . . . . . . . . . . 2.1.4 Rectas en el espacio tridimensional . . . . . . . . . . . 2.2 Espacios vectoriales sobre un cuerpo K . . . . . . . . . . . . . 2.2.1 Propiedades de vectores . . . . . . . . . . . . . . . . . 2.2.2 Producto cartesiano de espacios vectoriales . . . . . . . 2.2.3 Funciones con codominio en un espacio vectorial . . . . 2.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 2.4 Dependencia e independencia lineal . . . . . . . . . . . . . . . 2.5 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . 2.5.1 Sistemas generadores y bases . . . . . . . . . . . . . . 2.5.2 Equipotencia de bases . . . . . . . . . . . . . . . . . . 2.6 Subespacios vectoriales y dimensión . . . . . . . . . . . . . . . 2.7 Rango de un sistema de vectores y de una matriz . . . . . . . 2.8 El teorema de Rouché-Fröbenius . . . . . . . . . . . . . . . . . 2.9 Método de Gauss y rango . . . . . . . . . . . . . . . . . . . . 2.9.1 Transformaciones elementales por columnas y matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . 2.9.2 Método de Gauss para calcular el rango de una matriz 2.9.3 Algoritmo de extensión de una base . . . . . . . . . . . 2.9.4 Rango y espacio la de una matriz . . . . . . . . . . . 2.10 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.10.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 2.10.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 3.1 3.2 3.3 3.4 3.5 Funciones lineales . . . . . . . . . . . . . . . . . . . . . . . . Propiedades de funciones lineales . . . . . . . . . . . . . . . Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . Funciones lineales en espacios vectoriales de dimensión nita 3.5.1 Determinación de funciones lineales en espacios vectoriales de dimensión nita . . . . . . . . . . . . . . . . 3.5.2 Dimensiones del núcleo y de la imagen . . . . . . . . 3.5.3 Matriz asociada a una función lineal . . . . . . . . . . . . . .

73 81 83 85 87 89 92 93 96 100 104 112 112 116 120 122 123 130 130 132 138 139 141 141 146

71

3 Funciones lineales

153

154 158 161 165 167

. 167 . 172 . 174

Álgebra 3.5.4 3.5.5 3.5.6 3.5.7

7 Algoritmo para hallar una base del núcleo y de la imagen178 Matriz asociada a la composición de funciones lineales . 179 Matrices semejantes y cambios de base . . . . . . . . . 183 Ecuaciones paramétricas e implícitas de un subespacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . 185 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 3.6.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 190 3.6.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 193 Producto escalar . . . . . . . . . . . . . . . . . . . Longitud o norma euclídea de un vector . . . . . . 4.2.1 Propiedades de la norma euclídea . . . . . . Método de ortogonalización de Gram-Schmidt . . . 4.3.1 Descomposición QR de una matriz . . . . . Proyecciones ortogonales . . . . . . . . . . . . . . . 4.4.1 Método para hallar una proyección ortogonal 4.4.2 Aproximación óptima de un vector. . . . . . Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.5.1 Ejercicios resueltos . . . . . . . . . . . . . . 4.5.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3.6

4 Espacios vectoriales euclídeos
4.1 4.2 4.3 4.4 4.5

197

197 200 200 204 209 211 214 215 217 217 217 219 222 223 224 225 228 229 232 235 235 236

5 Códigos lineales
5.1 5.2 5.3

5.4

Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . Distancia de Hamming, detección y corrección de errores . . . 5.2.1 Código de paridad: detección de errores simples . . . . 5.2.2 Código de repetición: corrección de errores simples . . Códigos lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Paso de una matriz de control a una matriz generadora 5.3.2 Paso de una matriz generadora a una matriz de control 5.3.3 Detección y corrección de errores . . . . . . . . . . . . Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 5.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . .

219

6 Autovalores y autovectores
6.1 6.2

Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . 241

239

8 6.3 6.4

Álgebra Funciones complejas de variable real . . . . . . . . . . . . . 6.3.1 La exponencial compleja . . . . . . . . . . . . . . . . Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . 6.4.1 La ecuación de primer orden . . . . . . . . . . . . . . 6.4.2 La ecuación de orden n . . . . . . . . . . . . . . . . . 6.4.3 Sistemas de ecuaciones diferenciales . . . . . . . . . . La semejanza de matrices y los sistemas de ecuaciones . . . . 6.5.1 Sistemas diagonales . . . . . . . . . . . . . . . . . . . 6.5.2 Sistemas triangulares . . . . . . . . . . . . . . . . . . Diagonalización y triangulación de matrices . . . . . . . . . 6.6.1 El polinomio característico de una matriz . . . . . . . 6.6.2 Matrices diagonalizables . . . . . . . . . . . . . . . . 6.6.3 Triangulación de matrices . . . . . . . . . . . . . . . 6.6.4 Resolución de sistemas de ecuaciones diferenciales por triangulación . . . . . . . . . . . . . . . . . . . . . . Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . 6.7.1 Relaciones de primer orden . . . . . . . . . . . . . . . 6.7.2 Sistemas de relaciones de recurrencia . . . . . . . . . Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . 6.8.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . Soluciones de los ejercicios del capítulo 1 . . . . . . . Soluciones de los ejercicios del capítulo 2 . . . . . . . Soluciones de los ejercicios del capítulo 3 . . . . . . . Soluciones de los ejercicios del capítulo 4 . . . . . . . Soluciones de los ejercicios del capítulo 5 . . . . . . . Soluciones de los ejercicios del capítulo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 244 246 246 249 251 253 255 256 259 259 263 268 271 279 281 286 290 290 291

6.5 6.6

6.7 6.8

7 Soluciones de los ejercicios
7.1 7.2 7.3 7.4 7.5 7.6

293
. . . . . . . . . . . . . . . . . . . . 293 . . . . . . . . . . . . . . . . . . . . 307 . . . . . . . . . . . . . . . . . . . . 321 . . . . . . . . . . . . . . . . . . . . 331 . . . . . . . . . . . . . . . . . . . . 332 . . . . . . . . . . . . . . . . . . . . 335

A Nuevo método de triangulación por semejanza

343

Capítulo 1 Sistemas de ecuaciones lineales, matrices y estructuras algebraicas
Este primer capítulo comienza con el estudio de los sistemas de ecuaciones lineales, de las matrices y de las operaciones con matrices. Estos conceptos están en la base del álgebra lineal, y se asume que ya se ha tenido un contacto previo con ellos en cursos anteriores. Es conveniente señalar que en este nivel no sólo es importante entender los métodos de cálculo de las soluciones de los problemas que se estudiarán, sino también el porqué dichos métodos funcionan. Hablaremos de sistemas de n ecuaciones con m variables, donde n y m en general no son iguales, y de un algoritmo de cálculo, el método de eliminación gaussiana, que nos permitirá resolver sistemas de ecuaciones lineales generales. En la segunda parte del capítulo, una vez establecidas las propiedades que satisfacen las matrices respecto de la suma y producto, se introducen las estructuras algebraicas de grupo, anillo y cuerpo con el objeto de reunir, bajo una estructura algebraica abstracta, las propiedades que tienen en común, por ejemplo, los números enteros, reales y complejos, las matrices y los polinomios, y destacar aquellas propiedades que no comparten. En ese sentido, la denición de una estructura algebraica (por ejemplo, la denición de grupo) responderá a la abstracción de ciertas propiedades comunes a los objetos anteriores, entendiendo por abstracción el proceso de separar la forma del contenido. Como colofón del capítulo y aplicación de los conceptos previamente introducidos veremos una introducción a los tipos abstractos de datos. 9

10

Álgebra

1.1 Sistemas de ecuaciones lineales, matrices y eliminación gaussiana
Al aplicar la teoría de ecuaciones lineales, entre otras disciplinas, a la informática, aparecen ecuaciones lineales con coecientes enteros, binarios (0 ó 1), reales o incluso complejos. La denición de la estructura algebraica de cuerpo se introducirá más tarde. Cómo en la mayor parte de los resultados referentes a la teoría de ecuaciones lineales no hace falta hacer distinción entre los casos en los que los coecientes son elementos del cuerpo R de los números reales o del cuerpo C de los números complejos, a lo largo del capítulo se considerará que los coecientes de las ecuaciones pertenecen a un cuerpo genérico K, donde K = R ó C, aunque en algunos casos en los que se dirá explícitamente, se consideraran también coecientes binarios, es decir, del cuerpo Z2 = {0, 1} de los números enteros módulo 2. Se asume que el estudiante ha trabajado en cursos anteriores con elementos de R2 y R3 , a los que se denominan pares ordenados y ternas. Ambos conceptos son casos particulares del concepto de n − tupla o elemento del producto cartesiano de n copias de R, Rn , donde n es un número natural, o en general de Kn . Así

Kn = {(x1 , ..., xn ) | ∀i ∈ {1, ..., n}

xi ∈ K}

De este modo, un par ordenado es una 2 − tupla (un elemento de K2 ) y una terna es una 3 − tupla (un elemento de K3 ).

1.1.1 Introducción a los sistemas de ecuaciones lineales
es una expresión de la forma

Denición 1.1.1 Una ecuación lineal en las variables (o incógnitas) x1 , ..., xn
a1 x1 + ... + an xn = b

A a1 , ..., an ∈ K se les denomina coecientes de la ecuación, y a b ∈ K término independiente.

Observación 1 Habitualmente, los coecientes a1 , ..., an y el término inde-

pendiente b serán elementos de un cuerpo K (con K = R ó C). En tal caso se dice que la ecuación anterior es una ecuación lineal con coecientes en K.

Álgebra

11

Observación 2 Cuando n ≤ 3 es usual utilizar las variables x, y y z en
lugar de x1 , x2 y x3

Ejemplo 1.1.2 Si n = 2 y a1 , a2 ∈ R, la ecuación lineal
a1 x + a2 y = b (I)

representa una recta en el plano R2 , es decir, el conjunto de pares (x, y) que satisfacen la ecuación (I) constituyen una recta. Por ejemplo, la ecuación y − 2x = 2 representa la recta

T
2 & & & &-1 0

&

& & E

&

&

Figura 1.1: La recta y=2x+2 Es importante observar que las operaciones que afectan a las variables que intervienen en las ecuaciones lineales se reducen a multiplicarlas por los coecientes y sumarlas. Así por ejemplo,

3x + 4y = 24 √ x1 − x2 + 5x3 − ( 2)x4 = 1 (e2 )x1 − 3x2 + x3 − x4 = 0
son ecuaciones lineales. Sin embargo NO son ecuaciones lineales

3x2 + 4y = 24 √ x1 − x2 + 5x3 − 2 x4 = 1 e2x1 − 3x2 + x3 − x4 = 0

12

Álgebra

Denición 1.1.3 Se dice que (α1 , ..., αn ) ∈ Kn es solución de la ecuación
a1 x1 + ... + an xn = b
si

a1 α1 + ... + an αn = b.

Ejemplo 1.1.4 (x, y, z) = (3, 2, −1) es solución de x + y + z = 4. Por otra
parte (x, y, z) = (4, 0, 0) también es solución de dicha ecuación.
Un sistema de ecuaciones lineales es una sucesión nita de ecuaciones lineales. Es usual representar los sistemas de ecuaciones lineales verticalmente (i.e., colocando la sucesión de ecuaciones lineales en columna). Así, un sistema de m ecuaciones lineales con n incógnitas se representaría por   a11 x1 + ... + a1n xn = b1  . . .   a x + ... + a x = b m1 1 mn n m

Ejemplo 1.1.5 El sistema

  x2 + x3 = 1 2x1 − x3 = 2  x2 + x3 = 4

es un sistema de 3 ecuaciones con 3 incógnitas.

Denición 1.1.6 Se dice que (α1 , ..., αn ) ∈ Kn es solución del sistema de
ecuaciones

  a11 x1 + ... + a1n xn = b1  . . .   a x + ... + a x = b m1 1 mn n m ∀i ∈ {1, ..., m} ai1 α1 + ... + ain αn = bi

si o, lo que es lo mismo,

  a11 α1 + ... + a1n αn = b1  . . .   a α + ... + a α = b m1 1 mn n m

Álgebra

13

Es importante tener presente que los sistemas de ecuaciones lineales pueden no tener soluciones, o tener más de una. Por ejemplo, el sistema de ecuaciones lineales con coecientes en R

x1 − x2 = 1 x1 − x2 = 4
no tiene solución, ya que contiene las ecuaciones de dos rectas distintas y paralelas. Los sistemas de ecuaciones lineales que no tienen solución, como el del ejemplo anterior, se denominan sistemas incompatibles. Los que tienen al menos una solución, esto es, los sistemas compatibles, pueden tener una única solución, en cuyo caso se denominan compatibles determinados, o más de una solución, en cuyo caso, si los coecientes del sistema son números reales o complejos, el sistema tiene innitas soluciones (como se verá por el teorema 1.2.14), y los sistemas correspondientes se denominan compatibles indeterminados.

cientes en R con dos incógnitas, uno compatible determinado, otro compatible indeterminado y un tercero incompatible y representar el conjunto solución de cada una de las dos ecuaciones lineales que lo forman en el plano R2 . Extraer conclusiones.

Ejercicio 1.1.1 Encontrar tres sistemas de dos ecuaciones lineales con coe-

1.1.2 Sistemas homogéneos
Denición 1.1.7 Se dice que un sistema de ecuaciones lineales es homogéneo si los términos independientes de todas las ecuaciones que lo constituyen son iguales a 0.

Ejemplo 1.1.8

x1 + x3 = 0 2x1 − x2 + x3 = 0

es un sistema homogéneo de 2 ecuaciones con 3 incógnitas.

Observación 3 Cualquier sistema de ecuaciones lineales homogéneo
  a11 x1 + ... + a1n xn = 0  . . .   a x + ... + a x = 0 m1 1 mn n

14

Álgebra

es compatible, puesto que (0, ..., 0) ∈ Kn es siempre una solución de dicho sistema. A esta solución se la conoce como solución trivial. Si un sistema homogéneo tiene soluciones distintas de la trivial, a cualquiera de dichas soluciones la denominaremos solución no trivial.
En el capítulo 2 demostraremos que un sistema homogéneo de ecuaciones lineales con coecientes en R ó C satisface exactamente una de las siguientes proposiciones:

• El sistema homogéneo sólo tiene la solución trivial. • El sistema homogéneo tiene innitas soluciones además de la trivial.
En particular, demostraremos que todo sistema homogéneo con coecientes en R ó C que tenga más incógnitas que ecuaciones tiene innitas soluciones. Se pueden comprender e interiorizar los resultados anteriores a través de la resolución de los siguientes ejercicios:

Ejercicio 1.1.2 Comprobar que el sistema homogéneo
x1 + x3 = 0 2x1 − x2 + x3 = 0
tiene innitas soluciones en ∈ R3 , despejando las variables x1 y x2 en función de x3 , y obtener una solución del sistema para cada valor de x3 considerado.

Ejercicio 1.1.3 Vericar que el sistema
x1 + x2 = 0 2x1 − x2 = 0
sólo tiene la solución trivial.

1.1.3 Transformaciones elementales por las. Introducción al método de Gauss-Jordan
En esta sección haremos una primera descripción del método de GaussJordan para encontrar las soluciones (si es que existen) de un sistema de ecuaciones lineales. La justicación del método y su descripción precisa se

Álgebra

15

realizará en las dos siguientes secciones. En esta sección también daremos una primera justicación de la denición del producto de matrices (i.e., de porqué el producto de matrices se dene tal y como se dene). Al proceso de cálculo de las soluciones de un sistema de ecuaciones compatible se le denomina resolución del sistema. Si consideramos el sistema de ecuaciones lineales:   x1 − x2 + x3 = 1 2x1 + x2 − x3 = 2  x1 + 2x2 + x3 = 4 podemos resolverlo eliminando sucesívamente una de las incógnitas de dos de las ecuaciones, después otra de las restantes y así sucesivamente hasta conocer el valor de una incógnita, y a partir de ella el de las demás. En este caso, multiplicando la primera ecuación por 2 y restándosela a la segunda, y restando la primera ecuación a la tercera, obtenemos:   x1 − x2 + x3 = 1 3x2 − 3x3 = 0  3x2 = 3. A partir de aquí, de la tercera ecuación se obtiene x2 = 1. Sustituyendo hacia atrás vamos obteniendo sucesívamente el valor del resto de las incógnitas. En este caso, de la segunda ecuación obtenemos que x3 = 1, y, conocidos los valores de x2 y x3 , de la primera ecuación obtenemos que x1 = 1. El método descrito, consistente en ir eliminando las incógnitas de las ecuaciones una a una mediante el proceso de sumar a una ecuación otra multiplicada por un número, para, una vez obtenido el valor de una de las variables, ir sustituyendo hacia atrás, se conoce como eliminación gaussia-

na.

Si una vez obtenido el valor de una de las variables, en lugar de sustituir hacia atrás, seguimos sumando a una ecuación otra multiplicada por un número, multiplicando ambos miembros de la ecuación por números adecuados e intercambiando ecuaciones con el objeto de obtener un sistema de ecuaciones escalonado en el que en cada ecuación aparezca únicamente una incógnita, estaremos aplicando el método conocido como método de Gauss-Jordan. Una forma de representar sistemas de ecuaciones lineales consiste en utilizar matrices, esto es, tablas de coecientes ordenadas según un número determinado de las y columnas. De hecho, el método de Gauss-Jordan se

16

Álgebra

aplica más fácilmente sobre la que se denomina matriz ampliada asociada al sistema que sobre el propio sistema. La matriz asociada al sistema   x1 − x2 + x3 = 1 2x1 + x2 − x3 = 2  x1 + 2x2 + x3 = 4 es por denición la matriz

 1 −1 1  2 1 −1  1 2 1 
y la matriz ampliada asociada a dicho  1 −1 1  2 1 −1 1 2 1

sistema es
 1 2  4

La aplicación del método de Gauss-Jordan sobre dicha matriz para obtener la solución del sistema de ecuaciones que representa nos daría sucesívamente:     1 −1 1 1 1 −1 1 1  2 1 −1 2  F2 = F2 − 2F1 →  0 3 −3 0  F2 ↔ F3 → F3 = F3 − F1 0 3 0 3 1 2 1 4

   1 −1 1 1 1 −1 1 1  0 3 0 3  F2 = 1 F2 →  0 1 0 1  F3 = F3 − 3F2 → 3 0 3 −3 0 0 3 −3 0    1 −1 1 1 1 −1 1 1  0 1 0 1  F3 = − 1 F3 →  0 1 0 1  F1 = F1 − F3 → 3 0 0 1 1 0 0 −3 −3      1 −1 0 0 1 0 0 1  0 1 0 1  F1 = F1 + F2 →  0 1 0 1  0 0 1 1 0 0 1 1

Álgebra

17

La última matriz representa, obviamente, que x1 = 1, x2 = 1 y x3 = 1. En la resolución del sistema anterior hemos aplicado sobre la matriz ampliada del sistema lo que se denominan transformaciones elementales por las. Estas son las siguientes: 1. Sumar a una la otra multiplicada por un número: Fi = Fi + λFj 2. Multiplicar una la por un número distinto de cero: Fi = λFi 3. Intercambiar dos las: Fi ↔ Fj En cualquier caso, no todos los sistemas de ecuaciones lineales tienen solución. Por ejemplo, si consideramos el sistema

x1 − x2 = 1 2x1 − 2x2 = 4
la aplicación de las transformaciones elementales correspondientes sobre la matriz ampliada asociada al sistema nos lleva a

1 −1 1 2 −2 4

F2 = F2 − 2F1 →

1 −1 1 0 0 2

es decir, 0x1 + 0x2 = 2. Así pues, el sistema anterior es un sistema incompatible. Un ejemplo de sistema compatible indeterminado sería el siguiente:   x1 − x2 + x3 = 1 2x1 + x2 − x3 = 2  2x1 − 2x2 + 2x3 = 2 Al resolverlo por el método de Gauss-Jordan obtenemos:

 1 −1 1 1  2 1 −1 2  F2 = F2 − 2F1 F3 = F3 − 2F1 2 −2 2 2   1 −1 1 1  0 1 −1 0  F1 = F1 + F2 0 0 0 0

 1 −1 1 1 →  0 3 −3 0  F2 = 1 F2 → 3 0 0 0 0   1 0 0 1 →  0 1 −1 0  0 0 0 0

es decir, x1 = 1 y x2 − x3 = 0, o lo que es lo mismo, x2 = x3 , con lo que, si escribimos x3 = t, para cada valor de t tenemos una solución del sistema. Sería solución del sistema (1, 1, 1), (1, 2, 2), ... en total tendríamos innitas soluciones, tantas como posibles valores del parámetro t; esto ocurre porque estamos trabajando sobre el cuerpo de los números reales, luego t toma valores en R, que es innito.

18

Álgebra

1.1.4 Sistemas equivalentes
La aplicación sucesiva de transformaciones elementales por las sobre un sistema de ecuaciones lineales (o sobre su matriz ampliada) permite pasar de un sistema de ecuaciones lineales a otro que, teniendo las mismas soluciones que el planteado, es más sencillo de resolver. En esta sección demostraremos con todo detalle que esto es efectivamente así. Por otra parte, las transformaciones elementales son reversibles, es decir, si realizando transformaciones elementales sobre un sistema de ecuaciones lineales S obtenemos un sistema de ecuaciones lineales S , podemos recuperar S a partir de S realizando las transformaciones elementales “inversas” en el orden adecuado (el orden inverso del que se ha seguido para pasar de S a S ). TRASFORMACIÓN Fi = Fi + λFj TRANSFORMACIÓN INVERSA Fi = Fi − λFj 1 Fi = Fi λ Fi ↔ Fj

Fi = λFi (λ = 0) Fi ↔ Fj

Ejercicio 1.1.4 Realizar las transformaciones F3 = F3 − F1 , F3 ↔ F1 ,
1 F2 = F2 sobre la matriz ampliada asociada al sistema. 2   x1 − x2 + x3 = 1 2x1 + 2x2 − 2x3 = 2  x1 + 2x2 + x3 = 4

para obtener la matriz A . Realizar sobre A las transformaciones inversas de las anteriores en el orden adecuado y comprobar que se obtiene la matriz ampliada asociada al sistema dado.

Denición 1.1.9 Se dice que dos sistemas de m ecuaciones lineales con n
incógnitas son equivalentes si uno de ellos puede obtenerse a partir del otro realizando sobre el primero una sucesión nita de transformaciones elementales por las.

Observación 4 Como ya hemos señalado, habitualmente representaremos a
un sistema de ecuaciones lineales   α11 x1 + ... + α1n xn = β1  . . .   α x + ... + α x = β m1 1 mn n m

Álgebra

19

por su matriz ampliada: 

 α11 ... α1n β1  . . . ∈M . .  Am =  . m×(n+1) (K), . . . αm1 ... αmn βm

con lo que las transformaciones elementales se realizan sobre las las de esta matriz.
A la vista de la observación anterior tiene sentido establecer la siguiente denición:

Denición 1.1.10 Si una matriz A se obtiene realizando transformaciones elementales por las sobre una matriz A, diremos que las matrices A y A son equivalentes por las. Observación 5 A las transformaciones elementales por las, realizadas, bien
directamente sobre las ecuaciones del sistema, bien sobre las las de su matriz ampliada las denotaremos del mismo modo.

Ejercicio 1.1.5 Vericar que la relación de equivalencia de matrices en

Mm×n (K) es una relación binaria reexiva, simétrica y transitiva (es decir, es una relación de equivalencia en el sentido general).
tienen exactamente las mismas soluciones. En otras palabras, si S y S son equivalentes,

Teorema 1.1.11 Si dos sistemas de ecuaciones son equivalentes, entonces

(α1 , ..., αn ) es soluci´n de S ⇔ (α1 , ..., αn ) es soluci´n de S . o o

Demostración Para demostrar el teorema, es suciente con estudiar el
caso en el que un sistema se obtiene a partir de otro mediante la aplicación de una única transformación elemental por las. Supongamos que el sistema considerado es   α11 x1 + ... + α1n xn = β1    α21 x1 + ... + α2n xn = β2 S≡ . .  .    α x + ... + α x = β m1 1 mn n m

20

Álgebra

Es obvio que el intercambio de lugar entre dos ecuaciones del sistema no altera el conjunto solución del mismo. Por consiguiente la aplicación de una transformación del tipo Fi ↔ Fj no altera el conjunto solución. Además, teniendo esto presente, podemos restringir el estudio al caso en el que las transformaciones elementales se aplican únicamente sobre la primera y la segunda ecuación, dejando el resto inalteradas. Sea λ = 0, y supongamos que   λα11 x1 + ... + λα1n xn = λβ1    α21 x1 + ... + α2n xn = β2 S ≡ . .  .    α x + ... + α x = β
m1 1 mn n m

Veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S . o o Si (s1 , ..., sn ) es solución de S, tendremos que

  α11 s1 + ... + α1n sn = β1    α21 s1 + ... + α2n sn = β2 . .  .    α s + ... + α s = β m1 1 mn n m
con lo que, multiplicando ambos miembros de la primera igualdad por λ, obtenemos que   λα11 s1 + ... + λα1n sn = λβ1    α21 s1 + ... + α2n sn = β2 . .  .    α s + ... + α s = β
m1 1 mn n m

es decir, que (s1 , ..., sn ) es solución de S . Veamos ahora el recíproco, i.e., que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S. o o Si (s1 , ..., sn ) es solución de S , tendremos que

  λα11 s1 + ... + λα1n sn = λβ1    α21 s1 + ... + α2n sn = β2 . .  .    α s + ... + α s = β
m1 1 mn n m

Álgebra con lo que, multiplicando ambos miembros de la primera igualdad por obtenemos que    α11 s1 + ... + α1n sn = β1   α21 s1 + ... + α2n sn = β2 . .  .    α s + ... + α s = β
m1 1 mn n m

21
1 , λ

es decir, que (s1 , ..., sn ) es solución de S. Supongamos ahora que   α11 x1 + ... + α1n xn = β1    (α21 + µα11 )x1 + ... + (α2n + µα1n )xn = (β2 + µβ1 ) S ≡ . .  .    α x + ... + α x = β
m1 1 mn n m

Veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n de S . o o Si (s1 , ..., sn ) es solución de S, tendremos que   α11 s1 + ... + α1n sn = β1    α21 s1 + ... + α2n sn = β2 . .  .    α s + ... + α s = β
m1 1 mn n m

con lo que, multiplicando los dos miembros de la primera ecuación por µ, y sumando miembro a miembro la primera ecuación a la segunda obtendremos   α11 s1 + ... + α1n sn = β1    (α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 ) . .  .    α s + ... + α s = β
m1 1 mn n m

Recíprocamente, veamos que (s1 , ..., sn ) soluci´n de S ⇒ (s1 , ..., sn ) soluci´n o o de S. Si (s1 , ..., sn ) es solución de S , tendremos que   α11 s1 + ... + α1n sn = β1    (α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 ) . .  .    α s + ... + α s = β
m1 1 mn n m

22

Álgebra

Multiplicando la primera igualdad por µ y restándosela a la segunda obtenemos que   α11 s1 + ... + α1n sn = β1    α21 s1 + ... + α2n sn = β2 . .  .    α s + ... + α s = β
m1 1 mn n m

con lo que (s1 , ..., sn ) es solución de S. Esto completa la demostración del teorema. 2

1.1.5 Estrategia para la aplicación del método de eliminación gaussiana
1. Reordenar las ecuaciones para que en la primera ecuación la primera variable x1 tenga un coeciente no nulo, y multiplicar ambos miembros de dicha ecuación para que el coeciente de dicha variable sea 1. 2. Restar la primera ecuación multiplicada por un escalar adecuado a las demás ecuaciones con el objeto de que la primera variable aparezca solamente en la primera ecuación. 3. En el caso de que sea posible, reordenar las ecuaciones de la segunda en adelante con el objeto de que la segunda variable x2 aparezca con un coeciente no nulo y multiplicar ambos miembros de dicha ecuación para que el coeciente de dicha variable sea 1. Si la variable x2 no aparece más que en la primera ecuación, hacer la operación anterior con la variable x3 o con la primera variable que aparezca con un coeciente no nulo en alguna de las ecuaciones restantes (todas salvo la primera). 4. Restar la segunda ecuación multiplicada por un escalar adecuado a las ecuaciones situadas bajo la misma con el objeto de que la segunda variable (o la que corresponda) no aparezca en ninguna ecuación situada por debajo de la segunda. 5. Operando análogamente con el resto de las ecuaciones, el sistema así obtenido será un sistema escalonado, es decir, un sistema que se ajusta a la siguiente denición.

Denición 1.1.12 Se dice que un sistema de ecuaciones es escalonado si

Álgebra

23

(E.1)

(E.2)

La primera variable de cada ecuación tiene 1 como coeciente (a esta variable la denominaremos variable principal de dicha ecuación). La variable principal de cualquier ecuación siempre aparece situada a la derecha de las variables principales de las ecuaciones previas, y todas las ecuaciones sin variable principal aparecen colocadas al nal.

La última frase de (E.2) puede parecer algo misteriosa. Sin embargo, al llevar a cabo la estrategia anterior sobre un sistema concreto, podríamos obtener una ecuación de la forma

0x1 + ... + 0xn = k
con k = 0 o k = 0 (en este último caso el sistema es incompatible). Este tipo de ecuaciones deberán aparecer siempre en las últimas las del sistema.

Ejemplo 1.1.13 Los siguientes sistemas de ecuaciones son escalonados:
  x1 + x2 + 3x3 = 9 x2 + 6x3 = 24  x3 = −4 x1 + x2 + x3 − 5x4 = 4 x3 − 2x4 = 6.
Las matrices ampliadas asociadas a estos  1 1 3  0 1 6 0 0 1 y 1 1 1 0 0 1 sistemas son  9 24  −4

−5 4 −2 6

El conjunto de soluciones de un sistema escalonado es razonablemente sencillo de obtener. Un sistema de ecuaciones escalonado será compatible en todos los casos en los que no aparezca una ecuación de la forma

0x1 + ... + 0xn = k,

con

k = 0.

24

Álgebra

Suponiendo que el sistema es compatible, a cualquier variable que no sea la variable principal de una ecuación la denominaremos variable libre. Si una variable es variable principal de un sistema de ecuaciones escalonado, diremos que dicha variable no es libre (o también que está determinada). El siguiente proceso, conocido como sustitución hacia atrás o remonte, obtiene todas las soluciones del sistema asignando parámetros a las variables libres.

Sustitución hacia atrás en el método de eliminación gaussiana
Suponiendo que no aparece ninguna ecuación de la forma

0x1 + ... + 0xn = k
con k = 0 en el sistema escalonado obtenido, comenzamos con la última ecuación del sistema asignado un parámetro diferente a cada variable libre y expresando la variable determinada por la última ecuación en términos de estos parámetros. Después, operaremos análogamente con la penúltima ecuación, asignando diferentes parámetros a cada una de las nuevas variables libres, y obteniendo el valor de la variable determinada por la penúltima ecuación. Realizando las mismas operaciones con el resto de las ecuaciones hasta llegar a la primera, al nal del proceso todas las variables libres tendrán asignado un parámetro diferente, y todas las variables determinadas estarán expresadas en términos de estos parámetros.

Ejercicio 1.1.6 Resolver los siguientes sistemas de ecuaciones lineales por
el método de eliminación gaussiana.:   2x1 + x2 + 3x3 = 9 5x1 + 4x2 + 6x3 = 24  x1 + 3x2 − 2x3 = 4

3x1 + x2 + x3 − 5x4 = 4 5x1 + 2x2 + 4x3 − 2x4 = 6

1.1.6 Método de Gauss-Jordan
El método de Gauss-Jordan es una extensión del método de eliminación gaussiana, que consiste en eliminar la variable principal de la ecuación correspondiente no solamente en las ecuaciones que aparecen situadas por debajo de

Álgebra

25

la misma, sino en todas las ecuaciones del sistema. Por ello, la estrategia es la misma que la del método de eliminación de Gauss, con la adición de las siguientes instrucciones en el lugar correspondiente: 4. Sustraer además la segunda ecuación multiplicada por un escalar adecuado de la primera ecuación, con el objeto de eliminar la segunda variable de la primera ecuación. 5. En cada paso sustraer la ecuación correspondiente multiplicada por un escalar adecuado tanto de las ecuaciones situadas por debajo de la misma como de las situadas por encima, con el objeto de que la variable principal de cada ecuación aparezca únicamente en la ecuación de la que es variable principal. Los sistemas de ecuaciones que resultan de la aplicación del método de Gauss-Jordan se dice que tienen forma escalonada reducida, es decir:

Denición 1.1.14 Se dice que un sistema de ecuaciones está en forma escalonada reducida si La primera variable de cada ecuación tiene 1 como coeciente (a esta variable la denominaremos variable (E.R.1) principal de dicha ecuación). La variable principal de cualquier ecuación siempre aparece situada a la derecha de las variables (E.R.2) principales de las ecuaciones previas, y todas las ecuaciones sin variable principal aparecen colocadas al nal. La variable principal de cada ecuación aparece solamente (E.R.3) en la ecuación de la que es variable principal.

Ejemplo 1.1.15 Vamos a resolver el siguiente sistema de ecuaciones por el
método de Gauss Jordan, es decir, obteniendo una forma escalonada reducida de dicho sistema   x1 − 4x2 + x3 = 2 −x1 + 3x2 − x3 = 1  x1 + 2x3 = 3
Para ello, trabajamos directamente sobre la matriz ampliada asociada al sistema, teniendo presente en todo momento qué es lo que representan los coecientes de dicha matriz:   1 −4 1 2  −1 3 −1 1  F2 = F2 + F1 → F3 = F3 − F1 1 0 2 3

26

Álgebra

 1 −4 1 2 F2 = (−1)F2  0 −1 0 3  F1 = F1 + 4F2 → 0 4 1 1 F3 = F3 − 4F2     1 0 1 −10 1 0 0 −23  0 1 0 −3  F1 = F1 − F3 →  0 1 0 −3  . 0 0 1 13 0 0 1 13
La última matriz ampliada representa el sistema en forma escalonada reducida. El sistema es, por tanto, compatible determinado y su solución es (−23, −3, 13).

Ejercicio 1.1.7 Resolver los siguientes sistemas de ecuaciones lineales por
el método de Gauss-Jordan:  

x1 − x2 − x3 + x4 = 5 x2 − x3 + 2x4 = 8  2x1 − x2 − 3x3 + 4x4 = 18   x1 + 5x2 − 2x3 = 0 x1 − 3x2 + x3 = 0  x1 + 5x2 − x3 = 0

1.2 Matrices y operaciones con matrices
Al realizar una primera lectura de los epígrafes siguientes, hasta completar la totalidad del capítulo, se puede pensar que K = R ó C aunque los resultados obtenidos serán válidos para cualquier cuerpo K. Como hemos visto en la sección anterior, las matrices permiten representar sistemas de ecuaciones lineales. Veamos una denición precisa de lo que es una matriz:

Denición 1.2.1 Una matriz de orden m × n con coecientes en un cuerpo
K (por ejemplo K = R ó C) es una función: A : {1, ..., m} × {1, ..., n} −→ K (i, j) ; A(i, j)
Se dice entonces que A es una matriz con m las y n columnas. Es usual representar el coeciente A(i, j) de la matriz A por su correspondiente

Álgebra

27

minúscula con dos subíndices, en este caso aij , y a la matriz completa A por una tabla en la que en la la `“i” y en la columna “j” aparece el elemento aij :   a11 ··· a1n      . . . .  A= . aij .   .   am1 ··· anm Así por ejemplo, la matriz A de dos las y dos columnas determinada por

A(1, 1) = 0, A(1, 2) = 1, A(2, 1) = −1, A(2, 2) = 4
se representará por

0 1 . −1 4 Al conjunto de matrices de m las y n columnas con coecientes en K lo denotaremos por Mm×n (K).

iguales si son iguales como funciones, es decir, si son del mismo orden (i.e.,

Es obvio que de la denición anterior se sigue que dos matrices A, B son

si tienen el mismo número de las y de columnas, o lo que es lo mismo A, B ∈ Mm×n (K) para algún m y n) y ∀(i, j) ∈ {1, ..., m}×{1, ..., n} A(i, j) = B(i, j).

funcional:

Ejemplo 1.2.2 Veamos algunos ejemplos de matrices denidas con notación
1. A ∈ M3×3 (K) denida por (A(i, i) = 1, ∀i = 1, 2, 3) ∧ (A(i, j) = 0, ∀i, j ∈ {1, 2, 3}, i = j) es la matriz:   1 0 0  0 1 0  0 0 1 2. Podemos utilizar también congruencias módulo un número entero sobre i y j para denir la matriz; por ejemplo B ∈ M3×3 (R) dada por (A(i, j) = 1 ⇔ i + j ≡ 1 mod 2) ∧ (A(i, j) = 0 ⇔ i + j ≡ 0 mod 2) se representa por   0 1 0  1 0 1  0 1 0

28

Álgebra

3. Otro ejemplo es la matriz C ∈ M3×3 (R) dada por (A(i, j) = 2i−1 3j−1 ), que es   1 3 9  2 6 18  4 12 36
Recordemos ahora algunas deniciones y veamos otras nuevas:

• Si A ∈ Mm×n (K) se dice que A es una matriz de orden m×n. Si m = n, en lugar de escribir Mn×n (K), escribiremos Mn (K), y si A ∈ Mn (K) diremos que A es una matriz cuadrada de orden n. • Si A ∈ Mm×n (K), utilizaremos indistintamente la notación usual aij o la funcional A(i, j) para referirnos al elemento de la matriz A situado en la la i − esima y en la columna j − esima. Por ello escribiremos en ´ ´ ocasiones A = (aij ) ∈ Mm×n (K) para referirnos a una matriz genérica de orden m × n. (Obsérvese que a es la minúscula de A). • Si A ∈ Mm×1 (K) se dice que A es una matriz columna (de m las). • Si A ∈ M1×n (K) se dice que A es una matriz la (de n columnas). • Si A ∈ Mm×n (K), ∀i ∈ {1, ..., m} llamaremos la i-ésima de A a la matriz la de n columnas Ai = (ai1 ... ain ).
Análogamente, llamaremos columna j-ésima de A a la matriz columna de m las   a1j  .  Aj =  .  . . amj

• Una matriz de particular interés es la matriz identidad a la que denotaremos por In (hay una para cada valor natural de n). Así por ejemplo,     1 0 0 0 1 0 0   1 0  0 1 0  e I4 =  0 1 0 0  . I2 = , I3 =  0 0 1 0  0 1 0 0 1 0 0 0 1

Álgebra

29

En general la matriz In = (aij ) ∈ Mn (K) se dene por la condición ∀i, j ∈ {1, ...n}, aii = 1 ∧ (i = j ⇒ aij = 0). Utilizando la notación funcional, In ∈ Mn (K) quedaría determinada por las condiciones: (∀i ∈ {1, ..., n} In (i, i) = 1) ∧ (∀i, j ∈ {1, ..., n} (i = j ⇒ In (i, j) = 0)).

• Si A ∈ Mm×n (K) se denomina matriz traspuesta de A a la matriz t A ∈ Mn×m (K) tal que ∀(i, j) ∈ {1, ..., n} × {1, ..., m}
t

A(i, j) = A(j, i)

(empleando la notación no funcional, si t A = (bij ), entonces

∀(i, j) ∈ {1, ..., n} × {1, ..., m}
Así por ejemplo, si

bij = aji ).

 1 2 A =  2 0  ∈ M3×2 (R), 3 −1
su traspuesta es
t

A=

1 2 3 2 0 −1

∈ M2×3 (R).

Un método sistemático para obtener la matriz traspuesta de una matriz dada consiste en ir leyendo los coecientes por las para sistemáticamente escribirlos por columnas.

1.2.1 Suma de matrices
La denición de suma de matrices es muy natural:

Denición 1.2.3 Si A, B ∈ Mm×n (K), la suma de A y B es la matriz
A + B ∈ Mm×n (K) denida por las condiciones ∀(i, j) ∈ {1, ..., m} × {1, ..., n} (A + B)(i, j) = A(i, j) + B(i, j)       1 −1 1 3 2 2 Ejemplo 1.2.4  3 0  +  2 0  =  5 0  1 2 0 −2 1 0

30

Álgebra

Observación 6 De la denición anterior se sigue que para que dos matrices
se puedan sumar deben ser del mismo orden.
Se denomina matriz nula de orden m × n a la matriz (0) ∈ Mm×n (K) denida por las condiciones

∀(i, j) ∈ {1, ..., m} × {1, ..., n}
Así por ejemplo,

(0)(i, j) = 0

(0) ∈ M2×3 (C) es la matriz

0 0 0 0 0 0

.

Observación 7 En lo sucesivo también escribiremos (0) ∈ Mm×n (K) para
representar a la matriz nula de orden m × n.

Denición 1.2.5 Si A ∈ Mm×n (K) se denomina matriz opuesta de A a la
matriz (−A) ∈ Mm×n (K) denida por las condiciones

∀(i, j) ∈ {1, ..., m} × {1, ..., n}
Así por ejemplo,

(−A)(i, j) = −A(i, j) ∈ K

   −1 1 1 −1 −  3 0  =  −3 0  −1 −2 1 2 
y

2 −1 0 1 1 3

=

−2 1 0 −1 −1 −3

.

Proposición 1.2.6 Si A, B, C ∈ Mm×n (K), se verica que:
1. 2. 3. 4.

A + B = B + A (propiedad conmutativa de la suma de matrices) A + (B + C) = (A + B) + C (propiedad asociativa) A + (0) = A, (0) + A = A ((0) es el elemento neutro para +) A + (−A) = (0), (−A) + A = (0) ((−A) es la opuesta de A)

Álgebra

31

Demostración Se trata de comprobar, en cada caso, que las matrices situadas a ambos lados de la igualdad son efectivamente iguales. Demostraremos la primera propiedad y el resto se propone como ejercicio. Hay que comprobar que

∀(i, j) ∈ {1, ..., m} × {1, ..., n}

(A + B)(i, j) = (B + A)(i, j)

Sea (i, j) ∈ {1, ..., m} × {1, ..., n}. (A + B)(i, j)= (por denición)= =A(i, j) + B(i, j)=(puesto que la suma de números reales o complejos y, en general, de los elementos de un cuerpo, satisface la propiedad conmutativa) =B(i, j) + A(i, j)= (por denición) =(B + A)(i, j). 2 Por satisfacer las 4 propiedades de la proposición anterior se dice que las matrices de orden m × n con coecientes en K tienen estructura de grupo abeliano respecto de la suma. De la matriz (0) se dice que es el elemento neutro del grupo abeliano, y de la matriz (−A) se dice que es la matriz opuesta de A.

1.2.2 Producto de matrices
En capítulos venideros veremos que la siguiente denición del producto de matrices permitirá representar la actuación de una función lineal sobre un elemento como un producto de matrices, hecho que a su vez tendrá como consecuencia el que la composición de funciones lineales se exprese como un producto de matrices. Si consideramos una ecuación lineal, por ejemplo

2x1 + x2 + 6x3 = 3,
es posible considerar la parte izquierda de la igualdad como el producto de la matriz de coecientes (2 1 6) por la matriz de incógnitas

 x1  x2  x3  

y escribir

 x1 (2 1 6) ·  x2  = (3) x3

32

Álgebra

Si la ecuación anterior forma parte de un sistema, por ejemplo del sistema   2x1 + x2 + 6x3 = 3 5x1 + 4x2 + 6x3 = 24  x1 + 3x2 − 2x3 = 4 teniendo en cuenta que de la denición de matriz se sigue que dos matrices son iguales si tienen el mismo número de las y de columnas y los mismos coecientes en cada la y columna, resulta que, utilizando la denición de producto de matrices anterior, podemos representar el sistema de ecuaciones mediante un producto de matrices, esto es:       x1 3 2 1 6  5 4 6  ·  x2  =  24  . x3 4 1 3 −2 En general, el sistema de ecuaciones   a11 x1 + ... + a1n xn = b1  . . .   a x + ... + a x = b m1 1 mn n m puede representarse mediante el producto denido por la expresión:     x1 b1  .   .  A ·  .  =  . . . . xn bm Claro está que podemos considerar sistemas de ecuaciones con la misma matriz de coecientes y distinto término independiente. Por ejemplo:    2x1 + x2 + 6x3 = 3  2x1 + x2 + 6x3 = 1 5x1 + 4x2 + 6x3 = 24 y 5x1 + 4x2 + 6x3 = 1 .   x1 + 3x2 − 2x3 = 4 x1 + 3x2 − 2x3 = 1 En ese caso, teniendo en cuenta, por una parte, que las soluciones de uno no tienen porqué coincidir con las del otro, por lo que denotamos por y1 , y2 e y3 a las incógnitas del segundo sistema, y por otra, cuando dos matrices son iguales, podemos representarlos matricialmente de forma simultánea, mediante la expresión:       2 1 6 3 1 x1 y 1  5 4 6  ·  x2 y2  =  24 1  . x3 y 3 1 3 −2 4 1

Álgebra

33

Esto nos lleva a la denición de producto de dos matrices. Como observación previa a la denición, nótese que en los ejemplos anteriores, para poder multiplicar la matriz de coecientes por la de incógnitas, era preciso que el número de las de la matriz de coecientes coincidiese con el número de columnas de la matriz de incógnitas.

Denición 1.2.7 Dadas las matrices A ∈ Mm×n (K) y B ∈ Mn×p (K) se denomina matriz producto de A y B , y se denota por A · B a la matriz
A · B ∈ Mm×p (K) tal que
n

∀(i, j) ∈ {1, ..., m} × {1, ..., p} A · B(i, j) =
k=1

A(i, k) · B(k, j)

1 2  1 2 Ejemplo 1.2.8 Dadas las matrices  1 1 0 4 M3×2 (R), su producto es la matriz      1 2 0 1 −1   1 2 −1   · 3 0 =   1 1 0  1 2 0 4 3

   0 1 −1  −1  ∈ M4×3 (R) y  3 0  ∈ 0  1 2 3  7 −1 6 −3   ∈ M4×2 (R) 4 −1  15 6

1.2.3 Propiedades del producto de matrices
El producto de matrices no es conmutativo, pues por ejemplo

1 1 1 1
y sin embargo

·

1 −1 1 −1 1 1 1 1

=

2 −2 2 −2 0 0 0 0

1 −1 1 −1

·

=

.

dades:

Proposición 1.2.9 El producto de matrices satisface las siguientes propie-

34

Álgebra

1. Es asociativo: ∀A ∈ Mm×n (K), B ∈ Mn×p (K) y C ∈ Mp×q (K),

(A · B) · C = A · (B · C)
(y por tanto podemos omitir los paréntesis para denotar cualquiera de estos productos y escribir A · B · C ).

2. Es distributivo respecto de la suma:

∀A ∈ Mm×n (K), ∀B, C ∈ Mn×p (K)

A · (B + C) = A · B + A · C

∀A ∈ Mm×n (K), ∀B, C ∈ Mp×n (K)

(B + C) · A = B · A + C · A

3.

∀A ∈ Mm×n (K),

A · (0) = A y

(0) · A = (0)

Demostración Antes de dar la demostración debemos señalar que es usual
emplear el símbolo sumatorio
n

que tiene sentido puesto que la suma considerada es asociativa.

i=1

ai en lugar de la expresión a1 + ... + an , lo

1. Sean A ∈ Mm×n (K) ,B ∈ Mn×p (K) y C ∈ Mp×q (K). Las dos matrices A·(B ·C) y (A·B)·C tienen el mismo orden, ya que ambas pertenecen a Mm×q (K). Veamos que ∀(i, j) ∈ {1, ..., m}×{1, ..., q} (A·(B ·C))(i, j) = ((A · B) · C)(i, j) :

Álgebra

35

n

(A · (B · C))(i, j) =
k=1 n

A(i, k) · (B · C) (k, j) =
p

=
k=1 n
(prop. distributiva en K)

A(i, k) ·
s=1 p

B(k, s) · C(s, j)

= = =

=
k=1 n s=1 p

A(i, k) · (B(k, s) · C(s, j)) (A(i, k) · B(k, s)) · C(s, j)
k=1 p s=1 n

(prop. asociativa en K)

= =
s=1 p k=1

(prop. distributiva en K)

A(i, k) · B(k, s) (A · B) (i, s) · C(s, j) =
s=1

· C(s, j) =

=

= ((A · B) · C)(i, j)
2. Se demuestra razonando de forma similar al apartado anterior. 3. Ejercicio.

2

Observación 8 Demostraciones como la anterior se incluyen para que

puedan ser consultadas por los alumnos interesados. En cualquier caso, es conveniente conocer algunos hechos relativos a la notación, y a los resultados derivados del uso de la misma. Por ejemplo, en la proposición anterior hemos utilizado la igualdad
n p p n

A(i, k) · B(k, s) · C(s, j)
k=1 s=1

=
s=1 k=1

A(i, k) · B(k, s)

· C(s, j)

que intuitivamente es evidente, puesto que tanto el producto de números reales como el de números complejos es conmutativo y distributivo respecto de la suma. La demostración de que esta igualdad es válida es consecuencia de las siguientes propiedades relacionadas con el símbolo sumatorio, cuya demostración también se puede hacer por inducción:

36

Álgebra

• Si {ai }i∈{1,...,n} y {bj }j∈{1,...,p} son dos familias de números reales o complejos, se verica que ∀n ∈ N, ∀p ∈ N,
n p n p

ai · bj
i=1 j=1

=
i=1

ai ·
j=1

bj

Es decir, que
n i=1

(ai b1 + · · · + ai bp ) =

= (a1 b1 + · · · + a1 bp ) + · · · + (an b1 + · · · + an bp ) = = a1 (b1 + · · · + bp ) + · · · + an (b1 + · · · + bp ) .
Para demostrar la identidad anterior, razonamos por inducción sobre “n”. Base de inducción: hay que probar que si n = 1,
1 p 1 p

∀p ∈ N
i=1 j=1

ai · bj

=
i=1

ai ·
j=1

bj

o lo que es lo mismo, que
p p

∀p ∈ N
j=1

a 1 · bj

= a1 ·
j=1

bj

.

Esta propiedad se demuestra razonando por inducción sobre “p” : si

p = 1 es obvio que
entonces cierto que
p+1

p

a1 · bj
j=1 p

= a1 · b1 = a1 ·
p

1 j=1

bj

. Suponiendo

a1 · bj
j=1 p

= a1 ·
j=1

bj

, resulta que

a1 · bj
j=1

=
j=1

a 1 · bj

+ a1 · bp+1 =

= (por hip´tesis de inducci´n) = o o
p

= a1 ·
j=1 p+1

bj bj
j=1

+ a1 · bp+1 = .

= a1 ·

Álgebra

37

La demostración del paso de inducción sobre “n” se propone como ejercicio para todo aquel alumno interesado en hacerla.

• Si {aik }(i,k)∈{1,...,n}×{1,...,p} es una familia de números reales o complejos,
se verica que
n p p

aik
k=1

=
k=1

n

aik

i=1

i=1

o, lo que es lo mismo,

(a11 + · · · + a1p ) + · · · + (an1 + · · · + anp ) = (a11 + · · · + a1n ) + · · · + (a1p + · · · + anp ) .
La demostración es similar a la del punto anterior.

Ejercicio 1.2.1 Demostrar que la trasposición de matrices satisface las siguientes propiedades: 1. ∀A ∈ Mm×n (K)
t t

( A) = A
t

2. ∀A, B ∈ Mm×n (K)

(A + B) =t A +t B
t

3. ∀A ∈ Mm×n (K), ∀B ∈ Mn×p (K),

(A · B) =t B ·t A

Ejercicio 1.2.2 Demostrar que ∀A ∈ Mm×n (K) y ∀B ∈ Mn×m (K)
A · In = A ∧ In · B = B
(es decir, In deja invariante por el producto a cualquier matriz por la que se pueda multiplicar, sea o no cuadrada).

1.2.4 El producto de una matriz por un escalar
Denición 1.2.10 Si α ∈ K y A ∈ Mm×n (K) se dene la matriz αA por las siguientes condiciones
∀(i, j) ∈ {1, ..., m} × {1, ..., n}  (αA)(i, j) = αA(i, j)    1 2 −3 −6 Ejemplo 1.2.11 (−3)  2 0  =  −6 0  3 −1 −9 3

38

Álgebra

Ejemplo 1.2.12 Siendo α ∈ K
    (αIn ) =    α 0 0 ··· 0 0 α 0 ··· 0 0 0 α ··· 0 . . . .. . . . . . . . . . . 0 0 0 ··· α      ∈ Mn (K)  

Proposición 1.2.13 ∀α, β ∈ K ∀A ∈ Mm×n (K) se verica que
1.∀B ∈ Mn×p (K) A · (αB) = (αA) · B = α(A · B) 2.∀B ∈ Mm×n (K) α(A + B) = αA + αB 3. (−α)(A) = (α)(−A) = −(αA) 4. (α + β)A = αA + βA 5. (αβ)A = α(βA)

Demostración Ejercicio.

2

Teorema 1.2.14 Todo sistema de ecuaciones lineales con coecientes reales
o complejos o bien no tiene soluciones, o bien tiene exactamente una solución o bien tiene una innidad de soluciones.

una solución, entonces tiene innitas soluciones. Sea AX = B el sistema dado y s1 , s2 dos soluciones distintas (s1 = s2 ). Entonces,

Demostración Necesitamos comprobar que si un sistema tiene más que

As1 = B = As2

y As1 − As2 = A(s1 − s2 ) = (0).

Se sigue que s1 − s2 es solución del sistema homogéneo AX = 0 y que para todo λ ∈ K, s3 ≡ s1 + λ(s1 − s2 ) es solución de AX = B :

As3 = A(s1 + λ(s1 − s2 )) = As1 + A(λ(s1 − s2 )) = = As1 + λA(s1 − s2 ) = As1 = B.
Hemos hallado tantas soluciones como elementos en K. Como K es, por hipótesis, R o C (que son innitos), obtenemos innitas soluciones. 2

Álgebra

39

1.2.5 El anillo de matrices cuadradas Mn (K)
Según hemos visto, el conjunto Mm×n (K) de las matrices de m las y n columnas sobre un cuerpo K tiene estructura de grupo abeliano respecto de la suma habitual de matrices. En este apartado vamos a estudiar la estructura algebraica que tiene el conjunto de las matrices cuadradas, Mn×n (K), respecto de las operaciones de suma y producto, ya que el producto de matrices es una operación en Mn×n (K) (el producto de dos matrices cuadradas de dimensión n es una matriz cuadrada de dimensión n).

Propiedades del producto en Mn (K) Proposición 1.2.15 Si A, B, C ∈ Mn (K), se verica que:
1. A · (B · C) = (A · B) · C (propiedad asociativa del producto de matrices) 2. A · (B + C) = A · B + A · C (propiedad distributiva de + respecto de ·) 3. A · In = A, In · A = A (la matriz In es elemento neutro para ·).

Demostración La demostración de las propiedades 1 y 2 se ha hecho en un

caso más general. La demostración de la propiedad 3 se deja como ejercicio (se trata de ver que las matrices A · In y A son iguales y lo mismo con la otra igualdad). 2

de la suma de matrices y satisfacer las propiedades de la proposición anterior se dice que el conjunto de matrices cuadradas de orden n, Mn (K), tiene estructura de anillo unitario respecto de la suma y producto de matrices habituales y elemento unidad la matriz In .
La operación de producto en Mn (K) permite denir potencias enteras no negativas de una matriz cuadrada:

Observación 9 Por tener Mn (K) estructura de grupo conmutativo respecto

Denición 1.2.16 Si A es una matriz cuadrada, A ∈ Mn (K), se dene
∀m ∈ N Am = (Am−1 ) · A
donde, por convenio de notación, se asume que A0 = In .

40

Álgebra

Observación 10 No es difícil comprobar que ∀m, r ∈ N ∀A ∈ Mn (K) se
satisfacen las siguientes propiedades: 1. Am+r = Am · Ar 2. (Am )r = Amr

Observación 11 Nótese que como consecuencia de la no conmutatividad del
producto de matrices, si A, B ∈ Mn (K) en general tendremos que

(A + B)2 = A2 + B 2 + A · B + B · A = A2 + B 2 + 2A · B
Sin embargo, si A y B conmutan para el producto, es decir, si A·B = B·A, entonces es obvio que (A + B)2 = A2 + B 2 + 2A · B y, en general, asumiendo por convenio de notación que A0 = B 0 = In , se verica que ∀m ∈ N

(A + B)m =

m 0

Am · B 0 +

m 1

Am−1 · B + ... +

m m

A0 · B m .

Teniendo ahora en cuenta que,  α 0  0 α   (αIn ) =  0 0  . .  . . . . 0 0

siendo α ∈ K  0 ··· 0 0 ··· 0   α · · · 0  ∈ Mn (K)  . .. .  . . .  . . 0 ··· α

y que toda matriz conmuta con la identidad, podemos obtener la siguiente fórmula, válida ∀A ∈ Mn (K), ∀m ∈ N :

(A + αIn )m =

m 0

Am +

m 1

(αIn ) Am−1 + ... +

m m

(αIn )m

1.2.6 Matrices invertibles
Denición 1.2.17 Se dice que A ∈ Mn (K) es invertible si ∃B ∈ Mn (K) tal
que

A · B = In ∧ B · A = In .
Obviamente, si B y B satisfacen las condiciones de la denición anterior, es decir, si A · B = In ∧ B · A = In

Álgebra y

41

A · B = In ∧ B · A = In
resulta que

B = B · In = B · (A · B ) = (B · A) · B = In · B = B
por lo que dada A ∈ Mn (K) a lo sumo hay una matriz B que satisface las condiciones de la denición anterior.

Denición 1.2.18 Si A ∈ Mn (K) es invertible, y
A · B = In ∧ B · A = In .
se dice que B es la matriz inversa de A y a dicha matriz la denotaremos por A−1 .

Observación 12 En la denición de matriz invertible, imponemos que el

producto de A por un cierta matriz B , por ambos lados, sea el elemento neutro. Hemos de hacerlo así porque el producto de matrices no es conmutativo. Sin embargo, veremos en el teorema 1.2.22 que es suciente comprobarlo por uno sólo de los dos lados.

Ejemplo 1.2.19 La matriz inversa de la matriz A =
triz A−1 =

2 1/2 2 1

es la ma-

1 −1/2 −2 2

.

Proposición 1.2.20 Sean A, B, A1 , · · · , Ap ∈ Mn (K). Se verica que :
1. si A, B ∈ Mn (K) son invertibles, entonces A · B es invertible y

(A · B)−1 = B −1 · A−1 ,
2. si A1 , · · · , Ap son invertibles, entonces el producto A1 · A2 · · · · Ap es invertible y (A1 · A2 · · · · Ap )−1 = Ap −1 · · · A2 −1 A1 −1 , 3. si A ∈ Mn (K) es invertible, entonces (−A) ∈ Mn (K) es invertible y (−A)−1 = −(A−1 ),

42

Álgebra

4. si A ∈ Mn (K) es invertible, entonces
t

(A) ∈ Mn (K)
−1

es invertible y

t

(A−1 ) = (t A)
−1

.

Corolario 1.2.21 Si A ∈ Mn (K) es una matriz invertible, se verica que
1. A−1 es invertible y (A−1 ) = A 2. ∀m ∈ N Am es invertible y (Am )−1 = (A−1 )m 3. ∀α ∈ K, α = 0 se verica que αA es invertible, y (αA)−1 = α−1 A−1
El siguiente teorema arma que si una matriz cuadrada tiene una matriz inversa a la derecha o a la izquierda, entonces es invertible:

Teorema 1.2.22 Si A, B ∈ Mn (K) se verica que:
1. A · B = In ⇒ B = A−1 . 2. B · A = In ⇒ B = A−1 .

Demostración Probemos 2: suponemos que B · A = In , y debemos probar

que A · B = In . Si B · A = In , todo sistema que tenga como matriz asociada A tiene una única solución: dado un sistema A · X = C , donde C es una matriz columna, multiplicando a ambos lados de la igualdad por B se obtiene:

B · (A · X) = B · C
Por la asociatividad del producto de matrices

(B · A) · X = B · C
Y usando nuestra hipótesis inicial

X = In · X = B · C
Es decir, que si X verica la ecuación A · X = C , necesariamente X = B · C . j En concreto, denotando con In la columna j -ésima de In , el sistema A · j j X = In tiene una única solución B · In , que es la columna j -esima de B , que denotamos B j , para cada j ∈ {1, . . . , n}. Es decir, hemos obtenido que j A·B j = In para cada j ∈ {1, . . . , n}. Entonces también A·B = In y podemos escribir B = A−1 . Para probar 1 suponemos que A · B = In . Aplicamos 2 a la matriz B y obtenemos que B · A = In . 2

Álgebra

43

1.2.7 Matrices elementales y un método para hallar A−1
Denición 1.2.23 Se dice que una matriz A ∈ Mn (K) es una matriz elemental si es el resultado de realizar una única transformación elemental por las sobre la matriz In .

Ejemplo 1.2.24

1 0 0 −2

es una matriz elemental, pues

1 0 F2 = (−2)F2 1 0 0 1 −→ 0 −2     1 0 0 0 1 0 5  0 0 0 1    0 1 0  son matrices elementales, pues Igualmente   0 0 1 0 y 0 0 1 0 1 0 0     1 0 0 0 1 0 0 0  0 1 0 0  F2 ↔ F4  0 0 0 1       0 0 1 0   0 0 1 0  −→ 0 0 0 1 0 1 0 0     1 0 0 1 0 5  0 1 0  F1 = F1 + 5F3  0 1 0  . −→ 0 0 1 0 0 1 Es obvio que si A es una matriz elemental de orden n, la matriz In se puede obtener realizando una única transformación elemental sobre la matriz A (la transformación elemental inversa).
El siguiente resultado quedará sucientemente vericado tras la realización de la práctica 2 en el aula informática:

Teorema 1.2.25 Si E es la matriz elemental de orden m que se obtiene al

realizar la transformación elemental t sobre las las de Im , y A ∈ Mm×n (K), entonces la matriz resultante de realizar la transformación t sobre las las de A es la matriz producto E · A.

elemental F3 = F3 + 3F1 sobre la matriz   −1 4 6  0 2 1 . 0 0 1

Ejercicio 1.2.3 Vericar el resultado anterior realizando la transformación

44

Álgebra

Teniendo ahora en cuenta que, según hemos visto, cualquier transformación elemental es reversible, y que la inversa de una transformación elemental es una transformación elemental, según el cuadro que ya establecimos en su momento TRANSFORMACIÓN Fi = Fi + λFj TRANSFORMACIÓN INVERSA Fi = Fi − λFj 1 Fi = Fi λ Fi ↔ Fj

Fi = λFi (λ = 0) Fi ↔ Fj

resulta que, si denotamos por Pi (λ) a la matriz elemental asociada a la transformación Fi = λFi (λ = 0), por Sij (λ) a la matriz elemental asociada a la transformación Fi = Fi + λFj y por Eij a la matriz elemental asociada a la transformación Fi ↔ Fj , tenemos el siguiente corolario del teorema anterior:

Corolario 1.2.26 Toda matriz elemental es invertible, y su inversa también es una matriz elemental. Concretamente,
(Sij (λ))−1 = Sij (−λ) 1 (Pi (λ))−1 = Pi ( ) λ −1 (Eij ) = Eji

Ejercicio 1.2.4 Verifíquese el resultado recogido en el corolario anterior,
multiplicando las matrices

P2 (−5) = 

 1 0 4 S13 (4) =  0 1 0  0 0 1
y

1 0 0 −5

E24

1  0 =  0 0

0 0 0 1

0 0 1 0

 0 1   0  0

por sus correspondientes inversas y observando que en cada caso el resultado es la matriz identidad del orden correspondiente.

Álgebra

45

Teorema 1.2.27 Si A ∈ Mn (K) las siguientes proposiciones son equivalentes: 1. A es invertible 2. La ecuación A · X = (0) sólo tiene la solución trivial 3. A es equivalente por las a la matriz In , es decir, su forma escalonada reducida es la matriz identidad In 4. El sistema A · X = b es compatible determinado para toda matriz columna b ∈ Mn×1 (K) y su única solución es X = A−1 · B.

Ejemplo 1.2.28 Si A ∈ Mn (K) y b ∈ Mn×1 (K), entonces el sistema A ·
X = b es compatible determinado para toda matriz columna si y solo si A es invertible. Si A no es invertible o si A no es una matriz cuadrada, podemos todavía determinar condiciones sobre la matriz b tales que el sistema A·X = b sea consistente. Por ejemplo, aplicando el método de Gauss-Jordan a la matriz ampliada del sistema se obtiene que  x1 + x2 + 2x3 = b1 x1 + x3 = b2  2x1 + x2 + 3x3 = b3     1 1 2 b1 F2 = F2 − F1 1 1 2 b1  1 0 1 b2  F3 = F3 − F1  0 −1 −1 b2 − b1  2 1 3 b3 → 2 1 3 b3 − 2b1  F1 = F1 + F2  1 0 1 b2 F3 = F3 − F2  0 1 1 −b2 + b1  . F2 = −F2 0 0 0 b3 − b2 − b1 → Si b3 − b2 − b1 = 0 el sistema no es compatible y si b3 − b2 − b1 = 0 el x1 = −x3 + b2 , que tiene innitas sistema es equivalente al sistema x2 = −x3 − b2 + b1 soluciones de la forma {(−t + b2 , −t − b2 + b1 , t) : t ∈ R} .

Método para determinar la matriz inversa
El teorema anterior permite establecer un método para determinar la inversa de una matriz invertible. Pues si A es invertible, A es equivalente por las a la matriz In y existen m matrices elementales E1 , E2 , · · · , Em tales que

Em · Em−1 · ... · E1 · A = In .
Se sigue que, por el teorema 1.2.22,

46

Álgebra

Em · Em−1 · · · · · E1 = A−1 .
es decir, recogiendo las dos igualdades anteriores,

A

In −1

= Em · Em−1 · ... · E1 · A = Em · Em−1 · ... · E1 · In

En otras palabras, la sucesión de transformaciones elementales que transforma la matriz A en la matriz In , también transforma la matriz In en la matriz A−1 , con lo que, siendo t1 , ..., tm las transformaciones elementales por las que permiten obtener In a partir de A, el esquema

A In → t1 , ..., tm → In

A−1

nos da un método para la obtención de la inversa de una matriz invertible A por transformaciones elementales .

 −1 −1 0 Ejemplo 1.2.29 Para calcular la inversa de la matriz  2 1 0  pro2 1 1 cederíamos del siguiente modo −1 −1 0 2 1 0 2 1 1 −1 −1 0 0 −1 0 0 −1 1 1 0 0 0 1 0 0 0 1 1 0 0 2 1 0 2 0 1 → F2 = F2 + 2F1 → F3 = F3 + 2F1 = F1 − F2 = F3 − F2 → = (−1)F1 = (−1)F2

F1 F → 3 F1 F2

1 0 0 0 1 0 0 0 1  −1 −1 1 obteniendo, por tanto que  2 2 1

1 1 0 −2 −1 0 0 −1 1 −1   0 1 1 0 0  =  −2 −1 0  . 1 0 −1 1

Álgebra

47

Observación 13 Nótese  teniendo  cuenta el resultado obtenido en que, en

−1 −1 0 1 0  invertible, el sistema homogéneo el teorema 1.2.27, al ser  2 2 1 1   −x − y = 0 2x + y = 0 sólo tiene la solución trivial.  2x + y + z = 0

1.3

Estructuras algebraicas

El álgebra moderna está caracterizada por el estudio de ciertas estructuras abstractas que tienen en común una gran variedad de objetos matemáticos, entendiendo por abstracción el proceso de separar la forma del contenido. Lo importante del estudio de estas estructuras es que, una vez establecidas las propiedades que satisfacen, dichas propiedades son satisfechas por todos los objetos que comparten dicha estructura. En este apartado estudiaremos algunas de estas estructuras, en particular las de grupo, anillo y cuerpo, como paso previo al estudio de la principal estructura sobre la que trabajaremos este curso, la estructura de espacio vectorial, y echaremos una breve mirada hacia las algebras multigénero o tipos abstractos de datos. Este tipo de álgebras serán objeto de estudio con mayor nivel de profundidad en la asignatura de segundo curso Estructuras de datos y de la información.

1.3.1 El concepto de operación
Hablando de manera aproximada, se puede decir que el origen del álgebra se encuentra en el arte de sumar, multiplicar y elevar a potencias números enteros. La sustitución de números por letras y de las operaciones aritméticas por el concepto más general de operación permite operar con reglas análogas a las vistas para los números enteros en el contexto de objetos matemáticos más generales, como por ejemplo las matrices. Bajo la envoltura abstracta de la mayoría de las teorías axiomáticas del álgebra (grupos, anillos, cuerpos, espacios vectoriales, módulos, ...) se ocultan problemas concretos cuya resolución dió lugar a dichas deniciones abstractas, y algunas generalizaciones de gran aplicación. Entre estas aplicaciones se encuentran dos de los pilares básicos de la ingeniería de software: las técnicas

48 de especicación formal y de vericación de programas.

Álgebra

Denición 1.3.1 Siendo A un conjunto no vacío, llamaremos operación o
ley de composición interna sobre A a cualquier función

∗ : A × A −→ A . (x, y) ; ∗(x, y)
La imagen ∗(a, b) representa el resultado de operar a con b” en ese orden. Nótese, pues, que lo que es fundamental en la denición anterior es que a cada par de objetos de A se le asigna un unico elemento de A : dicho elemento es ´ el resultado que se obtiene al operar dichos objetos.

Observación 14 Para denotar operaciones normalmente se emplean símbo-

los no alfabéticos del estilo de +, ·, ∗, ±, ⊕, ⊗, , 2, ÷,etc..., y se utiliza con ellos notación inja, es decir:
notacion funcional notacion infija

+(a, b) ·(a, b) ∗(a, b)

a+b a·b a∗b

Así, en lugar de escribir, por ejemplo, +(a, +(a, b)) escribiremos a+(a+b). Es importante insistir de nuevo en que para poder realizar el producto de matrices A · B, el número de columnas de A debe coincidir con el número de las de B. Por consiguiente, para poder realizar los dos productos A · B y B · A, donde A ∈ Mm×n (K) y B ∈ Mq×p (K), el número de columnas de A debe coincidir con el de las de B y recíprocamente, esto es, para poder realizar el producto A · B, n = q, y para poder realizar el producto B · A, p = m, es decir, A ∈ Mm×n (K) y B ∈ Mn×m (K). Si queremos además que el producto sea una operación en el sentido de la denición anterior, sólo tendrá sentido hablar del producto de matrices como operación cuando consideramos matrices en Mn×n (K).

Denición 1.3.2 Siendo ∗ : A × A → A una operación, diremos que:
• ∗ es asociativa si ∀x, y, z ∈ A x ∗ (y ∗ z) = (x ∗ y) ∗ z

Álgebra

49

• ∗ es conmutativa si ∀x, y ∈ A

x∗y =y∗x

• e ∈ A es un elemento neutro de la operación ∗ si ∀x ∈ A x ∗ e = x ∧ e ∗ x = x • a ∈ A es un elemento idempotente de la operación ∗ si a ∗ a = a
Es evidente que si e, e ∈ A son elementos neutros de A para la operación ∗, entonces e = e (es decir, si una operación tiene elemento neutro, éste es único), pues: e ∗ e = e, por ser e elemento neutro y e ∗ e = e por ser e un elemento neutro, de donde e = e . Por otra parte también es evidente que si e es el elemento neutro de una operación ∗, e es idempotente, puesto que e ∗ e = e por ser e elemento neutro de ∗.

Denición 1.3.3 Si ∗ : A × A → A es una operación con elemento neutro e, diremos que a es un elemento simétrico de a si
a∗a =e ∧ a ∗a=e

Proposición 1.3.4 Siendo ∗ : A × A → A una operación asociativa y con
elemento neutro e, si a, a , a ∈ A son tales que a y a son simétricos de a entonces a = a .

Demostración Si a y a son elementos simétricos de a, entonces se verica
que a = e ∗ a = (a ∗ a) ∗ a = a ∗ (a ∗ a ) = a ∗ e = a

2

de X, es decir, el conjunto cuyos elementos son las operaciones ∪ : P (X) × P (X) −→ (A, B) ; y ∩ : P (X) × P (X) −→ (A, B) ;

Ejemplo 1.3.5 Si X es un conjunto, y P (X) es el conjunto de las partes
P (X) A∪B P (X) A∩B

todos los subconjuntos de X,

50

Álgebra

satisfacen las propiedades asociativa y conmutativa. El conjunto vacìo ∅ es el elemento neutro de la operación ∪ , y X es el elemento neutro de la operación ∩ . Obsérvese que para ninguna de estas dos operaciones existe el elemento simétrico de un elemento dado.

1.3.2 Grupos
Denición 1.3.6 Sea G = ∅ y ∗ : G × G −→ G una operación. Diremos
que G tiene estructura de grupo respecto de ∗, o también que el par (G, ∗) es un grupo, si se verica que: 1. ∗ es asociativa 2. ∃e ∈ G que es elemento neutro para ∗ 3. Todo elemento a ∈ G tiene simétrico respecto de la operación ∗.
Si además ∗ satisface la propiedad conmutativa, entonces se dice que (G, ∗) es un grupo abeliano. De G se dice que es el conjunto subyacente del grupo (G, ∗).

uno de estos conjuntos, los siguientes pares son grupos abelianos:(R, +), (R− {0}, ·), (C, +), (C − {0}, ·), (R+ , ·), (Z, +), (Q − {0}, ·) y (Q, +) donde R+ = {x ∈ R |x > 0 }, Z es el conjunto de los números enteros y Q es el conjunto de los números racionales.

Ejemplo 1.3.7 Si consideramos la suma y producto habituales sobre cada

Ejemplo 1.3.8 Otro ejemplo de interés especial para nosotros es el grupo
(Z2 , +), donde Z2 = {0, 1} y la operación + se dene mediante la tabla: + 0 1 0 1 0 1 1 0

es decir, 0 + 0 = 0, 1 + 0 = 1, 0 + 1 = 1, 1 + 1 = 0. Es obvio que el elemento neutro es el 0, y que el opuesto de 1 es el propio 1, y que el grupo es abeliano, pues 1 + 0 = 1 = 0 + 1.

Ejemplo 1.3.9 El conjunto de matrices invertibles de orden n con coe-

cientes en K tiene estructura de grupo (no abeliano en general) respecto del producto usual de matrices. A dicho grupo se le denomina grupo lineal de orden n con coecientes en K.

Álgebra

51

Ejemplo 1.3.10 Los conjuntos (R, ·),(C, ·),(Q, ·), (Z − {0}, ·),(N, +), y
(Mn (K) − {0}, ·) no son grupos.

Propiedades de los grupos.
Si (G, ∗) es un grupo se verica que: 1. Se puede simplicar a derecha e izquierda, es decir:

∀a, x, y ∈ G (x ∗ a = y ∗ a) ⇒ x = y ∀a, x, y ∈ G (a ∗ x = a ∗ y) ⇒ x = y
2. Las ecuaciones de la forma x ∗ a = b y a ∗ x = b tienen solución única. Concretamente:

∀a, b ∈ G ∃!x ∈ G..a ∗ x = b ∀a, b ∈ G ∃!x ∈ G..x ∗ a = b
3. El único elemento idempotente de (G, ∗) es el elemento neutro e :

∀a ∈ G(a ∗ a = a ⇔ a = e)
4. ∀a, b ∈ G a ∗ b = e ⇒ b = a 5. ∀a ∈ G a donde a es el elemento simétrico de a

=a

6. ∀a, b ∈ G (a ∗ b) = b ∗ a

Demostración
1. Siendo a, x, y ∈ G, si x∗a = y∗a, necesariamente (x∗a)∗a = (y∗a)∗a ,es decir, x∗(a∗a ) = y∗(a∗a ) , o lo que es lo mismo, x∗e = y∗e, con lo que concluimos que x = y. La otra propiedad se demuestra análogamente. 2. Siendo a, b, x ∈ G, a ∗ x = b ⇔ a ∗ (a ∗ x) = a ∗ b, es decir, (a ∗ a) ∗ x = a ∗ b , y esto es equivalente a que e ∗ x = a ∗ b, o lo que es lo mismo, a que x = a ∗ b.La otra propiedad se demuestra análogamente.

52

Álgebra 3. Esta equivalencia la probaremos demostrando que la dos implicaciones son V, es decir, probando que para cualquier elemento a ∈ G,

((a ∗ a = a ⇒ a = e) ∧ (a = e ⇒ a ∗ a = a)) . Sea a ∈ G tal que a ∗ a = a. En ese caso a ∗ (a ∗ a) = a ∗ a, es decir, (a ∗ a) ∗ a = e con lo que e ∗ a = e, es decir, a = e. La implicación recíproca es evidente, pues si a = e, entonces a ∗ a = e ∗ e = e.
4. Siendo a, b ∈ G tales que a ∗ b = e, necesariamente a ∗ (a ∗ b) = a ∗ e, es decir, (a ∗ a) ∗ b = a con lo que e ∗ b = a , o lo que es lo mismo, b=a. 5. Siendo a ∈ G, de a ∗ a = e ∧ a ∗ a = e se sigue que a

= a.

6. Siendo a, b ∈ G, (a ∗ b) ∗ (b ∗ a ) = ((a ∗ b) ∗ b ) ∗ a = (a ∗ (b ∗ b )) ∗ a = a ∗ a = e, por lo que, teniendo en cuenta la propiedad 4 que acabamos de ver, b ∗ a = (a ∗ b) . 2

Observación 15 Nótese que, como caso particular de los resultados ante-

riores, para el caso en que las operaciones + y · sean las operaciones de un grupo, se tendrá que, siendo x e y dos elementos genéricos:

(x + x = x) ⇔ x = 0 (x · y = 1) ⇔ y = x−1 −1 (x−1 ) = x −1 (x · y) = y −1 · x−1
es decir,

((∗ = +) ⇒ e = 0 ∧ x = (−x)) ((∗ = ·) ⇒ e = 1 ∧ x = (x−1 )).

1.3.3 Anillos y cuerpos
Denición 1.3.11 Se dice que un conjunto A = ∅ tiene estructura de anillo
respecto de las operaciones + y ·, o también que la 3-tupla (A, +, ·) es un anillo si se verica que:

Álgebra

53

1. (A, +) es un grupo abeliano 2. “ · ” satisface la propiedad asociativa 3. “ · ” es distributiva respecto de “ + ”, es decir:

∀x, y, z ∈ A ((x · (y + z) = x · y + x · z) ∧ ((y + z) · x = y · x + z · x))
Si además “ · ” satisface la propiedad conmutativa, se dice que el anillo (A, +, ·). es un anillo conmutativo. Finalmente, si “ · ” tiene elemento neutro 1 ∈ A, y 1 = 0, se dice que el anillo (A, +, ·) es un anillo unitario.

son la suma y producto habituales de los números enteros.

Ejemplo 1.3.12 (Z, +, ·) es un anillo conmutativo y unitario, donde + y ·

cientes en C, es decir, al conjunto formado por todas las funciones p : C → C tales que ∃n ∈ N∪{0} y ∃(a0 , ..., an ) ∈ Cn+1 de manera que ∀x ∈ C se verica que p(x) = an xn + ... + a1 x + a0 con la suma + y el producto · de polinomios habituales, resulta que (C[x], +, ·) es un anillo conmutativo y unitario. Con vistas a recordar las operaciones, si por ejemplo consideramos los polinomios p, q ∈ C[x] ,tales que ∀x ∈ C p(x) = 2x2 + x − 5 y q(x) = 3x − 4, tendremos que

Ejemplo 1.3.13 Si denotamos por C[x] al conjunto de polinomios con coe-

(p + q)(x) = p(x) + q(x) = 2x2 + x − 5 + (3x − 4) = 2x2 + 4x − 9
y

(p · q)(x) = p(x) · q(x) = 2x2 + x − 5 · (3x − 4) = 6x3 − 5x2 − 19x + 20.

Ejemplo 1.3.14 Según hemos visto, (Mn (K), +, ·) es un anillo no conmutativo y con elemento unidad In , siendo + y · la suma y producto de matrices habituales.

Denición 1.3.15 Siendo (A, +, ·) un anillo, se dice que a ∈ A − {0} es un divisor de cero si ∃b ∈ A − {0} tal que a · b = 0 ∨ b · a = 0.

54

Álgebra

Ejemplo 1.3.16 Es fácil comprobar que (Mn (K), +, ·) tiene divisores de cero. Así por ejemplo

1 1 1 1

·

1 1 −1 −1

=

0 0 0 0

Denición 1.3.17 Siendo (A, +, ·) un anillo unitario, se dice que a ∈ A es invertible (o inversible) si existe un elemento b ∈ A tal que (a · b = 1 ∧ b · a = 1). En tal caso, es obvio que b es el elemento inverso de a, y por tanto escribiremos b = a−1 . Propiedades de los anillos
Si (A, +, ·) es un anillo se verica que: 1. ∀a ∈ A (a · 0 = 0 ∧ 0 · a = 0) 2. ∀a, b ∈ A (a · (−b) = −(a · b) ∧ (−a) · b = −(a · b)) Si además (A, +, ·) es unitario, también se verica que: 3. Si a,b ∈ A son inversibles, entonces a·b es inversible y (a · b)−1 = b−1 ·a−1 4. Si a ∈ A es inversible, entonces (−a) es inversible y (−a)−1 = −(a−1 ) 5. Si a ∈ A es un divisor de cero, entonces a no es inversible.

Demostración
1. Demostramos la primera de las dos propiedades: dado a ∈ A, a · 0 = a · (0 + 0) = a · 0 + a · 0, y puesto que al ser (A, +) un grupo, el único elemento idempotente es el 0, concluímos que a · 0 = 0 2. Demostramos la primera de las dos propiedades: siendo a, b ∈ A,

0 = a · 0 = a · (b + (−b)) = a · b + a · (−b)

y en consecuencia a·(−b) = −(a · b) por la propiedad 4 de los grupos,
aplicada a la operaciòn de suma.

Álgebra 3.

55

(a · b) · (b−1 · a−1 ) = ((a · b) · b−1 ) · a−1 = = a · (b · b−1 ) · a−1 = a · a−1 = 1 y (b−1 · a−1 ) · (a · b) = ((b−1 · a−1 ) · a) · b = = b−1 · (a−1 · a) · b = b−1 · b = 1

4. Por la propiedad 2,

(−a) · (−(a−1 )) = −((−a) · (a−1 )) = −(−(a · a−1 )) = −(−1) = 1 −(a−1 ) · (−a) = −((−(a−1 )) · a) = −(−(a−1 · a)) = −(−1) = 1
5. Razonamos por reducción al absurdo: si a ∈ A es un divisor de cero, existirá un elemento b = 0 tal que a · b = 0 o tal que b · a = 0. Pero puesto que a tiene inverso, si a · b = 0, entonces por una parte a−1 · (a · b) = a−1 · 0 = 0, pero también a−1 · (a · b) = (a−1 · a) · b = b, es decir, b = 0 (contradicción). Si b · a = 0 se razona análogamente. 2

Observación 16 Las matrices invertibles son los elementos invertibles del

anillo Mn (K). Así pues, todas las propiedades vistas para los elementos invertibles de un anillo genérico, son válidas para el anillo considerado (Mn (K), +, ·). En particular, si A, B ∈ Mn (K) son invertibles, entonces A·B es invertible y (A · B)−1 = B −1 · A−1 , y si A ∈ Mn (K) es invertible, entonces (−A) ∈ Mn (K) es invertible y (−A)−1 = −(A−1 ).

Ejercicio 1.3.1 Probar que si (A, +, ·) es un anillo unitario, y a, b, c ∈ A
son tales que a · b = 1 y c · a = 1, entonces necesariamente b = c. (Indicación: desarróllese la igualdad b = 1 · b = ...)

Proposición 1.3.18 Si (A, +, ·) es un anillo sin divisores de cero se verica
que

∀a, b, c ∈ A ((a · b = a · c ∧ a = 0) ⇒ (b = c))
y

∀a, b, c ∈ A ((b · a = c · a ∧ a = 0) ⇒ (b = c))

56

Álgebra

Demostración Si a, b, c ∈ A son tales que a · b = a · c con a = 0, tendremos

que a · b + (−(a · c)) = 0, o lo que es lo mismo, a · b + (a · (−c)) = 0, con lo que, por la propiedad distributiva, a · (b + (−c)) = 0, y puesto que a = 0, necesariamente (b + (−c)) = 0, es decir, b = c. 2

Denición 1.3.19 Se dice que una terna (K, +, ·) es un cuerpo, o también

que K tiene estructura de cuerpo respecto de las operaciones + y · si (K, +, ·) es un anillo conmutativo y unitario y además todos los elementos de K − {0} son inversibles.

Ejemplo 1.3.20 (R, +, ·), (C, +, ·) y (Q, +, ·) son cuerpos, siendo en cada caso las operaciones + y · la suma y el producto habituales considerados sobre cada uno de esos conjuntos. Ejemplo 1.3.21 Otro ejemplo de interés especial para nosotros es el cuerpo (Z2 , +, ·), donde Z2 = {0, 1}, y las operaciones + y · se denen mediante las siguientes tablas. + 0 1 · 0 1 0 0 1 0 0 0 1 1 0 1 0 1
Es decir, 0 + 0 = 0, 1 + 0 = 1, 0 + 1 = 1, 1 + 1 = 0, y 0 · 1 = 1 · 0 = 0, 1 · 1 = 1.

Proposición 1.3.22 Si (K, +, ·) es un cuerpo, y a, b ∈ K son tales que
a · b = 0, necesariamente a = 0 ∨ b = 0 (un cuerpo no tiene divisores de lo cero).

tiene inverso por lo que, por una parte a−1 · (a · b) = a−1 · 0 = 0, y por otra a−1 · (a · b) = (a−1 · a) · b = 1 · b = b, con lo que b = 0 2

Demostración Si a · b = 0 y a = 0, entonces, puesto que a ∈ K − {0}, a

Observación 17 Como consecuencia de la proposición anterior, si (K, +, ·)
es un cuerpo, entonces (K, +, ·) no tiene divisores de cero. El recíproco obviamente no es cierto. (Z, +, ·) es un ejemplo de anillo sin divisores de cero que no es cuerpo.

Álgebra

57

1.3.4 Introducción a los Tipos Abstractos de Datos
Las estructuras de datos y los tipos de datos son conceptos fundamentales en el mundo de la programación y de la especicación de sistemas de software. El concepto de estructura de datos se usa comúnmente para referirse a un conjunto de datos organizados de un cierto modo, como por ejemplo, colocados en una secuencia o en una tabla. Junto con el conjunto de datos hay que considerar denidas una serie de operaciones necesarias para obtener la información y actualizarla. Pero estas operaciones no están necesariamente denidas sobre objetos de la misma naturaleza; por ejemplo, entendiendo por pila un dispositivo que almacena datos, caracterizado por el hecho de que el primer dato que se puede extraer es el último que se ha almacenado, resulta que la operación almacenar un elemento en una pila está denida del siguiente modo

push : P ila × Dato → P ilas
en el sentido de que el par formado por una pila y un dato (P, d) nos da como resultado de aplicarle la operación push una nueva pila obtenida añadiendo el dato d a la pila p. De forma análoga, la operación extraer el último elemento almacenado de una pila (operación que habitualmente se denota por pop) es la función

pop : P ila → P ila
tal que pop(P ) es la pila obtenida a partir de P eliminando el último dato almacenado en P. En esta sección el concepto de operación no será, pues, equivalente al de ley de composición interna, pues en principio nos podemos referir a operaciones entre objetos de distinta naturaleza. Así pues, las operaciones a las que nos referimos en este apartado serán operaciones generalizadas, entendidas como funciones de un producto cartesiano de conjuntos a otro conjunto. En ciertas ocasiones, por ejemplo, para diseñar un algoritmo o un sistema de software, resulta más cómodo e interesante trabajar con una representación abstracta de los datos que sea independiente de la forma en la que están, o van a ser, implementados en el ordenador. Una forma de representar las propiedades abstractas de un conjunto de datos consiste en utilizar ecuaciones a modo de axiomas, de manera que dos

58

Álgebra

tipos de datos diferentes son considerados como iguales (o si se preere, con la misma estructura) si ambos satisfacen las mismas ecuaciones. Desde ese punto de vista abstracto, ambos tipos de datos se diferenciarían únicamente en el nombre de los datos básicos y de las operaciones. La búsqueda de una representación abstracta común para tipos de datos similares nos lleva a la denición del concepto de tipo abstracto de datos :

Denición 1.3.23 Un tipo abstracto de datos (TAD) es una cuádrupla
(T ip, Cons, Op, Ec)
en la que Tip es el conjunto de tipos de datos del TAD, Cons es el conjunto de constantes o datos básicos del TAD, Op es el conjunto de operaciones (generalizadas) y Ec el conjunto de las ecuaciones.
A los tipos abstractos de datos también se les conoce en la literatura como álgebras multigénero o álgebras multitipo.

Observación 18 La mayoría de los lenguajes de programación tratan las
variables y las constantes de un programa como instancias de un tipo de dato.

Ejemplo 1.3.24 Como ya hemos dicho, una pila, en el ámbito de la infor-

mática o las ciencias de la computación es un dispositivo en el que los datos son almacenados en secuencia, de manera que en cada paso únicamente es posible acceder al último dato almacenado (top) (este modo de acceso a los datos que caracteriza al dispositivo de almacenamiento pila es conocido como lifo, abreviatura de last in-rst out). Este tipo de dispositivo aparece en muchas ocasiones, por ejemplo, en el almacenamiento de información en variables que aparecen en programas con bucles anidados, en la evaluación de expresiones e incluso en la ejecución de procedimientos recursivos. Las operaciones consideradas sobre una pila son la de almacenamiento (push), que coloca un nuevo dato encima de la pila, la extracción del último dato almacenado (pop) y la visualización del elemento situado en la parte superior de la pila (top). La constante newstack representa la pila vacía y que es del tipo PILA, y la constante error del tipo ERROR, nos permitirá representar la situación (mensaje de error) que se produce cuando miramos cual es el elemento situado en la parte superior de la pila vacía. Por consiguiente, el

Álgebra

59

modelo PILA queda especicado como tipo abstracto de datos del siguiente modo: P ILA = 1. Tipos : P ILA, DAT O, ERROR error ∈ ERROR, 2. Constantes : newstack ∈ P ILA   push : P ILA × DAT O → P ILA pop : P ILA → P ILA 3. Operaciones :   top : P ILA → DAT O ∪ ERROR  ∀p ∈ P ILA, ∀a ∈ DAT O    pop(push(p, a)) = p  pop(newstack) = newstack 4. Ecuaciones:   top(push(p, a)) = a    top(newstack) = error Así por ejemplo, la pila

a3 a3 a1

se representaría en este modelo por:

push(push(push(newstack, a1 ), a3 ), a3 ).
tado de una ley de composición interna asociativa, y que un monoide es un semigrupo con elemento neutro, sus especicaciones como tipos abstractos de datos serían las siguientes:

Ejemplo 1.3.25 Teniendo en cuenta que un semigrupo es un conjunto do-

SEM IGRU P O = 1. Tipos: ELEM 2. Constantes: 3. Operaciones: ∗ : ELEM × ELEM → ELEM ∀x, y, z ∈ ELEM 4. Ecuaciones: x ∗ (y ∗ z) = (x ∗ y) ∗ z M ON OIDE = SEM IGRU P O Constantes:
Ecuaciones:

+ e ∈ ELEM   ∀x ∈ ELEM x∗e=x  e∗x=x

60

Álgebra

Ejercicio 1.3.2 En el ámbito de las ciencias de la computación una cadena

o string es una secuencia de items (datos) de algún conjunto (o dominio) de datos. En términos matemáticos una cadena es una palabra a1 ...an de longitud n ≥ 0 formada con letras de un alfabeto dado. Para n = 0 se trata de la cadena vacía (a la que en su momento denotamos por λ) y para n ≥ 1 los elementos a1 , ..., an pertenecen al mismo conjunto o alfabeto A. El ejercicio consiste en construir un modelo de tipo abstracto de datos al que denominaremos cadena o string, teniendo en cuenta que hay que considerar los datos y las cadenas de datos de un conjunto A = {a1 , ..., ak }, que las cadenas son elementos del conjunto A∗ (conjunto de todas las cadenas o palabras denidas sobre el alfabeto A o lenguaje universal sobre A), que hay que considerar la palabra vacía como una constante. Como operaciones sobre las cadenas consideramos las siguientes: construye, que a partir de un elemento de A construye una lista de longitud 1, la operación concat, denida sobre pares de palabras por concat(a1 ...an , b1 ...bm ) = a1 ...an b1 ...bm , y las operaciones iañade (iadd) y dañade (dadd) que añaden, respectivamente, un elemento a la izquierda o a la derecha de una cadena dada.(Nota: Son sucientes 5 ecuaciones).

1.4 Ejercicios
1.4.1 Ejercicios resueltos
1. Representar por su matriz ampliada y resolver por el método de GaussJordan cada uno de los siguientes sistemas de ecuaciones lineales :   2x1 + x2 + 3x3 = 9 5x1 + 4x2 + 6x3 = 24  x1 + 3x2 − 2x3 = 4 ,

3x1 + x2 + x3 − 5x4 = 4 5x1 + 2x2 + 4x3 − 2x4 = 6     x1 − x2 + x3 − x4 = 0 2x1 + 3x2 + 4x3 + 5x4 = 0  x1 − x2 + 2x3 − 2x4 = 0   5x1 + 5x2 + 9x3 + 9x4 = 0

Álgebra 2. Considere el sistema de ecuaciones   x + y + 2z = a x+z =b  2x + y + 3z = c

61

Demuestre que para que este sistema sea compatible, a, b y c deben satisfacer c = a+b. 3. Resuelva cada uno de los sistemas siguientes por eliminación de GaussJordan: a)

  2x1 − 3x2 = −2 2x1 + x2 = 1  3x1 + 2x2 = 1   3x1 + 2x2 − x3 = −15   5x1 + 3x2 + 2x3 = 0  3x1 + x2 + 3x3 = 11   11x1 + 7x2 = −30

b)

c)

  4x1 − 8x2 = 12 3x1 − 6x2 = 9  −2x1 + 4x2 = −6

4. ¾Para qué valores de a el sistema que sigue no tiene soluciones? ¾Tiene exactamente una solución? ¾ Tiene innidad de soluciones?  x + 2y − 3z = 4  3x − y + 5z = 2  4x + y + (a2 − 14)z = a + 2 5. Calcular las inversas de la siguientes matrices:

A=

3 1 5 2

B=

2 −3 4 4

C=

2 0 0 3

62

Álgebra

6. Verique que las matrices A y B del ejercicio 5) satisfacen la relación (AB)−1 = B −1 A−1 . 7. Sea A una matriz invertible y suponga que la inversa de 7A es −1 2 . Encuentre la matriz A. 4 −7 8. Sea AX = B un cualquier sistema consistente de ecuaciones lineales y supóngase que X1 es una solución ja. Demuestre que toda solución para el sistema se puede escribir en la forma X = X1 + X0 , en donde X0 es una solución para AX = 0. Demuestre también que toda matriz de esta forma es una solución. 9. Encontrar  3 a) A =  1 2  1 c) C =  0 1 la inversa de la matriz dada, si la   4 −1 3 1 0 3  b) B =  2 4 5 −4 −4 2  0 1 1 1  1 0 matriz es invertible:  5 1  −9

10. Efectúe las operaciones sobre las  3  −2 A= 3 

las que siguen sobre  1 0 1 4  5 5

multiplicando por una matriz elemental apropiada. En cada caso, verique la respuesta llevando a cabo la operación sobre las las directamente sobre A. a)Intercambie la primera y tercera las. b)Multiplique la segunda la por 1/3. c)Sume el doble de la segunda la a la primera. 11. Una caja que contiene monedas con las denominaciones de un centavo, cinco centavos y diez centavos tiene 13 de ellas con un valor total de 83 centavos. ¾ Cuántas monedas de cada tipo hay en la caja ?

Álgebra

63

12. ¾Para cuál valor, o cuáles valores, de a el sistema siguiente tiene cero, una y una innidad de soluciones?   x1 + x2 + x3 = 4 x3 = 2  2 (a − 4)x3 = a − 2 13. Demostrar que la trasposición de matrices satisface las siguientes propiedades. a) ∀A ∈ Mm×n (K) t (t A) = A. b) ∀A, B ∈ Mm×n (K) t (A + B) =t A +t B. c)∀A ∈ Mm×n (K), ∀B ∈ Mn×p (K), t (A · B) =t B ·t A. 14. Demostrar que si A ∈ Mn (K) es invertible, entonces
t

(A) ∈ Mn (K)
−1

es invertible y t (A−1 ) = (t A)

.

15. Si A = (aij ) ∈ Mn (K), se denomina traza de A a la suma de los elementos de la diagonal principal de A, es decir,
n

T r(A) = a11 + ... + ann =
i=1

aii .

Demostrar que ∀A, B, C ∈ Mn (K): a) T r(A + B) = T r(A) + T r(B). b) T r(AB) = T r(BA). Poner un contraejemplo que ponga de maniesto que

T r(A.B) = T r(A) · T r(B).
c) Siendo C = At A,
n n

T r(At A) =
i=1 k=1

a2 . ik

16. Se dice que una matriz A ∈ Mn (K) es simétrica si t A = A. Demostrar que una condición necesaria y suciente para que el producto de dos matrices

64

Álgebra

simétricas A, B ∈ Mn (K) dé como resultado una matriz simétrica es que AB = BA. 17. Determinar α ∈ C y β ∈ C para que la matriz A =

2 1 1 2

M2 (C) satisfaga la ecuación A2 + αA + βI2 = (0).
18. Se dice que una matriz A ∈ Mn (K) es idempotente si A2 = A. Demostrar que si A ∈ Mn (K) es idempotente, entonces B = In − A es idempotente. Demostrar también que AB = (0) y que BA = (0). 19. En una feria de ganado un granjero compró pollos, conejos y terneros. Los pollos los compró a 50 pts., los conejos a 1000 pts. y los terneros a 5000pts. Compró 100 animales y gastó 100.000 pts. Sabiendo que compró animales de las 3 clases, averiguar el número de animales que compró de cada clase. 20. En el ámbito de las ciencias de la computación una cadena o  string es una secuencia de items (datos) de algún conjunto (o dominio) de datos dado. En términos matemáticos una cadena es una palabra a1 ...an de longitud n ≥ 0. Para n = 0 se trata de la cadena vacía (a la que en su momento denotamos por λ) y para n ≥ 1 los elementos a1 , ..., an pertenecen al mismo conjunto o alfabeto A. El ejercicio consiste en construir un modelo de tipo abstracto de datos al que denominaremos cadena o  string, teniendo en cuenta que hay que considerar los datos y las cadenas de datos de un conjunto A = {a1 , ..., ak }, que las cadenas son elementos del conjunto A∗ (conjunto de todas las cadenas o palabras denidas sobre el alfabeto A o lenguaje universal sobre A), que hay que considerar la palabra vacía como una constante, y que como operaciones sobre las cadenas consideramos las siguientes: construye, que a partir de un elemento de A construye una lista de longitud 1, la operación concat, denida sobre pares de palabras por concat(a1 ...an , b1 ...bm ) = a1 ...an b1 ...bm , y las operaciones iañade (iadd) y dañade (dadd) que añaden, respectívamente, un elemento a la izquierda o a la derecha de una cadena dada.(Nota: Son sucientes 5 ecuaciones).

1.4.2 Ejercicios propuestos
1. Resolver los siguientes sistemas por el método de eliminación gaussiana:

Álgebra

65

   4x − 3y + 2z + u = 3   2x − 5y + 4z + u − v = 3  x − 2y + z + 2u = −2 a) x − 2y + z − u + v = 5 , b)  4x − y + z − u − v = 5   x − 4y + 6z + 2u − v = 10  2x + 3y − z − 4u = 9    4x − 3y + 2z = −2  4x − 3y + 2z = 3 c) −2x + y + 2z = 3 , d) −2x + y + 2z = 1   −x + y − 2z = 7 −x + y − 2z = −2
2. Resolver los siguientes sistemas de ecuaciones lineales por el método de Gauss-Jordan:    3x1 + 4x2 + x3 + 2x4 = 2  7x2 + x3 = 1 2x1 + 2x2 − 6x3 + 2x4 = −4 , 3x1 + 4x2 + 1x3 = 7   4x1 + 5x2 − x3 + 3x4 = −3 −9x1 − 5x2 − 2x3 = 2 3. Resolver el siguiente sistema de ecuaciones (no lineales):  2  2x − 6y 3 + 3ez = 17 4y 3 − ez = −5  −3x2 − 2y 3 = −10 4. Discutir las distintas soluciones del siguiente sistema según los distintos valores del parámetro k :   x + y + 2z = 2 −3x + 2y + 3z = −2  2x + ky − 5z = −4 5. Discutir las distintas soluciones del siguiente sistema según los distintos valores de los parámetros a y b:   ax + bz = 2 ax + ay + 4z = 4  ax + 2z = b 6. Vericar que existe un sistema de dos ecuaciones en las variables x, y , z , cuyas soluciones sean, en función del parámetro t:   x = −1 − t y = 2 + 5t  z =4−t

66

Álgebra 7. Un padre con aciones matemáticas decide hacer su testamento de la manera siguiente:

• Todo mi capital será dividido entre mis tres hijos: Antonio, Benito y Carla. • Del capital menos 10.000 euros Antonio recibe la mitad. • La cantidad recibida por Carla menos la cantidad que reciba Benito debe ser igual a la cantidad recibida por Benito menos la cantidad recibida por Antonio. • La cantidad recibida por Carla menos el 60 por ciento de la recibida por Benito debe ser igual a 4.000 euros.
¾Cuanto dinero recibirá cada uno? 8. Calcular la inversa, si existe, de las siguientes matrices y comprobar la respuesta por multiplicación:

     −2 0 −6 −1 8 −11 −7 −2 3 1  0 −3 0 −3  A = 6 −8 −5 , B = −2 4 2  , C =  1 0 −3 1  1 −1 −1 −3 2 −1 0 −3 3 −3 
9. Demostrar que la matriz

 1 −1 3 4 −2 A= 0 −2 6 −8
no es invertible comprobando que existe una solución no trivial del sistema homogéneo A · X = 0. 10. Sea A la matriz

 3 −3 5 4 −3 . A= 1 −3 4 −6

• Usando el método de Gauss-Jordan, exprésese la matriz A−1 como producto de matrices elementales.

Álgebra

67

• Exprésese la matriz A como producto de matrices elementales.
11. El producto de matrices cuadradas n × n no es conmutativo. Sin embargo, dada una matriz A, existen matrices B que conmutan con ella, es decir, tales que A · B = B · A (por ejemplo, la identidad o la propia A). El conjunto de tales matrices se llama conmutador de A. Calcúlese el conmutador de la matriz:

A=

1 0 −2 −1

12. Una matriz cuadrada S se dice simétrica si S = tS y antisimétrica si S = − tS . (a) Dar dos ejemplos de matrices simétricas y antisimétricas 3 × 3. (b) Probar que dada una matriz cuadrada cualquiera B , las matrices 1 (B + tB) y 1 (B − tB) son simétrica y antisimétrica, respectiva2 2 mente, y que su suma es B . (c) Probar que si una matriz cuadrada B se escribe como suma B = S +A donde S y A son simétrica y antisimétrica, respectivamente, 1 entonces S = 1 (B + tB) y A = 2 (B − tB). 2 De este ejercicio se deduce que toda matriz se descompone de manera única como suma de una matriz simétrica y una antisimétrica. Calcúlese la descomposición de la matriz   2 3 −1 A = 4 5 7  0 2 4 13. Calcúlense por inducción las potencias m-ésimas de las matrices:

A=

a 1 , 0 a

B=

0 1 . 1 0

14. Dos matrices cuadradas A y B se dicen semejantes (o congruentes ) si existe una matriz invertible P tal que A = P · B · P −1 . Sean A y B semejantes.

68

Álgebra (a) Probar por inducción que para todo n ∈ N se verica Am = P · B m · P −1 . (b) Si dos matrices invertibles A y B son semejantes, ¾es A−1 semejante con B −1 ? ¾Es tA semejante con tB ? (c) Con la notación anterior, y siendo

B=

2 0 , 0 3

P =

1 −2 , −2 3

calcúlense las potencias A3 , A10 y Am , m ∈ N. 15. Considérense las matrices

Aα =

cos α sin α , − sin α cos α

α ∈ R.

(a) Probar que Aα · Aβ = Aα+β (Ayuda: Úsense las fórmulas del seno y el coseno de la suma de dos angulos: cos(α + β) = cos α · cos β − sin α · sin β y sin(α + β) = sin α · cos β + cos α · sin β ). (b) Probar que A0 = I2 . (c) Probar que (Aα )−1 = A−α . (d) Concluir que el conjunto G = {Aα |α ∈ R} es un grupo conmutativo con el producto usual de matrices. (e) G se llama usualmente el grupo de rotaciones del plano, ya que dado un vector v ∈ R2 (cuyas coordenadas escribimos en una matriz columna), el producto Aα · v es el vector que resulta de rotar v α grados con respecto al origen en el sentido de las agujas del reloj. Considérese el triángulo T formado por el origen y los vectores v = (1, 0) y w = (1, 1); calcular y dibujar los vértices de los triángulos que resultan de rotar T 30, 45, 60 y 90 grados. EJERCICIOS COMPLEMENTARIOS. 16. Calcular dos matrices cuadradas X e Y que veriquen:

4X + 3Y =

3 −2 , 3X + 2Y = 4 0

1 5 . −3 2

Álgebra

69

17. Probar por inducción que si dos matrices A y B conmutan (es decir A · B = B · A) entonces se verica la fórmula de Newton:
m

(A + B) =
i=0

m

m i

Ai · B m−i .

Poner un ejemplo de dos matrices 2 × 2 que no conmuten y comprobar que la fórmula anterior ya no se verica para m = 2. 18. Llamamos matriz de permutación a una matriz cuadrada vericando que todos sus coecientes son cero excepto un elemento en cada la y en cada columna. En este ejercicio consideraremos matrices cuadradas 3 × 3. Una matriz de permutación 3 × 3 viene determinada por una permutación σ del conjunto de indices {1, 2, 3} de tal manera que la matriz correspondiente Aσ viene dada por (Aσ (i, j) = 0 ⇐⇒ j = σ(i)) ∧ (Aσ (i, j) = 1 ⇐⇒ j = σ(i)). (a) Dada una matriz 3 × 3 B , vericar que el producto Aσ · B es una matriz que tiene las mismas las que B pero en el orden σ(1), σ(2), σ(3). (b) Escribir todas las permutaciones del conjunto {1, 2, 3} y las correspondientes matrices de permutación. (c) Probar que el producto de matrices de permutación es una matriz de permutación. (d) Probar que el conjunto de matrices de permutación con el producto usual de matrices es un grupo no conmutativo. 19. Sea K el conjunto de números reales x tales que existen dos números √ racionales a y b con x = a+ 2·b. Llamaremos a a y b, respectivamente, la parte racional y la parte irracional de x. (a) Probar que la suma y el producto de dos números reales en K pertenece a K. Escríbase la expresión de tales operaciones en función de las partes racional e irracional. (b) Probar que 0 y 1 pertenecen a K. (c) Probar que el elemento opuesto de un elemento en K pertenece a K.

70

Álgebra (d) Probar que el elemento inverso de un elemento no nulo en K pertenece a K. (e) Concluir que K es un cuerpo conmutativo. (f) ¾Se te ocurren otros ejemplos de cuerpos construídos de forma similar?

Capítulo 2 Espacios vectoriales
En este capítulo vamos a estudiar el concepto de espacio vectorial. Esta es la estructura algebraica sobre la que se desarrolla la parte de las matemáticas conocida como Algebra Lineal. Veamos un primer ejemplo en el que aparece la estructura de espacio vectorial. Al estudiar el método de Gauss-Jordan para la resolución de un sistema de ecuaciones lineales, establecimos ciertas operaciones sobre las las de la matriz ampliada asociada al sistema de ecuaciones a las que llamamos transformaciones elementales. Para denirlas tuvimos que considerar las siguientes operaciones sobre las las de dicha matriz: 1. Sumar dos las Fi = Fi + Fj 2. Multiplicar una la por un número: Fi = λFi , de manera que si (ai1 · · · ain matriz, su suma era

bi ) y (ak1 · · · akn

bk ) son dos las de dicha bi + bk )

(ai1 · · · ain

bi ) + (ak1 · · · akn λ(ai1 · · · ain

bk ) = (ai1 + ak1 · · · ain + akn bi ) = (λai1 · · · λain λbi ).

y el producto de una la (ai1 · · · ain

bi ) por un número complejo λ era

En general, si (a1 · · · an ) y (b1 · · · bn ) son matrices la y λ es un número complejo,

(a1 · · · an ) + (b1 · · · bn ) = (a1 + b1 · · · an + bn ) y λ(a1 · · · an ) = (λa1 · · · λan ).
71

72

Álgebra

Siendo a, b y c matrices la, y λ, µ ∈ C, no es difícil vericar que se satisfacen las siguientes propiedades: 1. a + b = b + a. 2. (a + b) + c = a + (b + c). 3. a + (0) = (0) + a = (0). 4. a + (−a) = (0) y (−a) + a = (0), siendo además −a = (−1)a. 5. (λµ)a =λ(µa). 6. λ(a + b) =λa+λb. 7. (λ + µ)a =λa + µa. 8. 1 · a = a. Estas propiedades, como ahora veremos, servirán para establecer los axiomas de la denición de espacio vectorial. La noción de espacio vectorial también está estrechamente relacionada con la siguiente idea: si alguien quiere comprar 3 Kg. de peras y 2 Kg. de manzanas, no le pide al tendero 5 Kg. de peras y manzanas, ya que en ese caso podrían darle, por ejemplo, 1 Kg. de peras y 4 Kg. de manzanas. Por otra parte, si esa compra representa el postre de la semana de una familia, y la persona que va a realizarla recibe el encargo de su cuñada de comprar 4 Kg. de peras y 2 Kg. de manzanas, y de su vecina de comprar la mitad de lo que él mismo vaya a comprar, nuestro amigo deberá comprar
3 Kg. de peras 2 Kg. de manzanas

+

4 Kg. de peras 2 Kg. de manzanas 8.5 Kg. de peras 5 Kg. de manzanas

+
.

1 2

3 Kg. de peras 2 Kg. de manzanas

=

Estas listas (o matrices columna) de números que sabemos sumar y multiplicar por números constituyen un primer ejemplo de lo que denominaremos vectores. El concepto de vector también se emplea en Física para representar magnitudes que no quedan completamente determinadas por un número, y es tradicional asociar una echa a dichas magnitudes y representarlas por un segmento orientado. Sin embargo, el asociar el concepto de vector a un objeto geométrico tiene una limitación importante, pues si trabajamos con listas de más de tres números, no contamos con sucientes dimensiones en el espacio físico para situar tal echa. La descripción axiomática de vector sobre la que vamos a trabajar, es abstracta por lo que no requiere el uso de objetos geométricos. Además,

Álgebra

73

dicha abstracción conlleva otra ventaja adicional: no requiere la introducción de nociones como sistema de coordenadas o sistema de direcciones. Esta visión axiomática permite englobar como ejemplos de vectores a objetos matemáticos aparentemente tan distintos como los polinomios, las matrices, las funciones reales de variable real, las sucesiones de números reales y un largo etcétera.

2.1

Vectores en el plano y en el espacio

Si queremos representar objetos de la Física elemental como fuerza, desplazamiento y velocidad, tenemos que utilizar vectores geométricos en el plano R2 o en el espacio tridimensional R3 . En efecto los vectores geométricos nos permiten especicar magnitud, dirección y sentido para estas cantidades físicas. Aquí sólo recordaremos las deniciones básicas. Dados tres segmentos orientados AB, CD y EF, en el espacio bidimensional o tridimensional como en la gura 2.1 a), para cada uno de ellos están determinados un punto de aplicación (respectivamente A, C y E), un extremo o ajo (respectivamente B, D y F), una magnitud representada por la longitud del segmento, y una dirección, que es la dirección de la recta que lo contiene. Si ahora jamos un punto O en nuestro espacio y dibujamos nuestras tres echas a partir del punto O (es decir, si A=C=E=O), obtenemos la gura 2.1 b), donde CD y EF coinciden y se pueden considerar equivalentes. Esta sencilla consideración está en la base de la denición de vector geométrico. Sobre el conjunto de todos los segmentos orientados del plano (o del espacio tridimensional) denimos la siguiente relación de equivalencia: AB ∼ CD

AB y CD tienen igual magnitud, dirección y sentido.

Ejercicio 2.1.1 Vericar que  ∼ es una relación de equivalencia. Denición 2.1.1 Si dos segmentos orientados pertenecen a la misma clase de equivalencia de las obtenidas al considerar la relación de equivalencia anterior, se dice que son equivalentes.
Ahora el conjunto de todos los segmentos orientados se puede pensar como la unión disjunta de estas clases de equivalencia:

74

Álgebra

a) B

C
¨ B ¨¨

d

d

d d ‚

A

¨¨

¨ ¨¨

D

E

d

d d d ‚

F

b)
¨ ¨¨ ¨ Od d d d ‚

¨ B ¨ ¨¨

B

D=F

Figura 2.1: Vectores geométricos

equivalencia de segmentos orientados respecto de la relación de equivalencia anterior. Como cada clase está formada por todos los segmentos orientados (en R2 o en R3 ) que tienen igual magnitud, dirección y sentido (es decir, por todos los segmentos orientados que coinciden una vez que sean aplicados en un punto prejado O), estos valores comunes de magnitud, dirección y sentido se llaman magnitud, dirección y sentido del vector v.

Denición 2.1.2 Un vector geométrico v en R2 o en R3 es una clase de

Se sigue de esta denición que dos vectores v1 y v2 son iguales si y solo si tienen igual magnitud, dirección y sentido. Podemos, por tanto, representar un vector geométrico por cualquiera de

Álgebra
I  b &C &  & w  &  & B  & ! ¡ ¡ & & ¡ v+w & ¡ & v & ¡ ¡ && ¡& & ¡

75

a)

A

b) v
¡

‰ r ! ¡r ¡ rr rr ¡

v-w

¡  w ¡  ¡  

¡

r r I   

Figura 2.2: Operaciones con vectores geométricos los segmentos orientados del conjunto que lo dene. En la gura 2.1 a), CD y EF representan el mismo vector geométrico v porque dieren solo en sus puntos de aplicación. Nota: Abusando de la notación, se escribirá AB = v para denotar que el segmento orientado AB es un representante del vector v .

Denición 2.1.3 Sean v y w dos vectores geométricos, la suma v+w es
el vector denido por la regla del paralelogramo en la gura 2.2 a). Si AB y BC representan los vectores v y w, respectivamente, el segmento orientado AC representa el vector v + w.

Observación 19 Esta denición de suma de vectores no depende de los segmentos orientados elegidos para representar los vectores v y w.

76

Álgebra

Ejercicio 2.1.2 Vericar, realizando el correspondiente dibujo, que para todo par de vectores geométricos v y w, v + w = w + v .
El vector de magnitud cero es el vector cero y se denota por 0; para todo vector v , v + 0 = 0 + v . El opuesto de un vector v es el vector de igual dirección, magnitud que v , pero de sentido opuesto. La sustracción de dos vectores está denida por v − w = v + (−w) y se puede representar geométricamente como en gura 2.2 b). El producto de un vector por un escalar k ∈ R es el vector w = kv que tiene misma dirección que v , magnitud igual a k veces la magnitud de v y mismo sentido que v si k > 0 o opuesto si k < 0. Si k = 0, kv = 0. Si ahora introducimos un sistema de coordenadas ortogonales en el plano (o en el espacio tridimensional), es decir si seleccionamos un punto O, dos rectas orientadas mutuamente perpendiculares (o tres si se trata del espacio tridimensional) y una magnitud unitaria, cada punto P admitirá una representación analítica en términos de coordenadas o componentes (x,y) en el caso del plano o (x,y,z) en el caso del espacio tridimensional. Como el segmento orientado OP representará un vector v, diremos también que el vector v tiene componentes (x,y) (o (x,y,z)). Por tanto, dos segmentos orientados OP y OQ son equivalentes (es decir, representan el mismo vector geométrico v ) si y sólo si los puntos P y Q tienen iguales coordenadas. Las operaciones denidas sobre vectores geométricos se pueden ahora reescribir en términos de coordenadas: sean v = (v1 , v2 , v3 ) y w = (w1 , w2 , w3 ) dos vectores en R3 y k ∈ R, entonces

v + w = (v1 + w1 , v2 + w2 , v3 + w3 ) kv = (kv1 , kv2 , kv3 ) v − w = (v1 − w1 , v2 − w2 , v3 − w3 )
En le caso de vectores v y w en R2 estas operaciones están denidas de forma análoga.

Ejercicio 2.1.3 En R3 , sean k = 2, v1 = (−1, 2, 0), v2 = (4, −3, 2) y v3 =
(−1, −1, −1). Hallar v1 − k(v1 + v2 ) + v3 .

Álgebra

77

del capítulo serán ortogonales. Si P = (x1 , x2 , x3 ) y Q = (y1 , y2 , y3 ) son dos puntos en R3 , el segmento orientado P Q representa un vector v en R3 de coordenadas:

Nota: Todos los sistemas de coordenadas que consideraremos a lo largo

P Q = v = (y1 − x1 , y2 − x2 , y3 − x3 ) = Q − P.
De forma similar, dos puntos P = (x1 , x2 ) y Q = (y1 , y2 ) en R2 determinan un vector v = (y1 − x1 , y2 − x2 ), que se puede representar por el segmento orientado P Q.

Ejercicio 2.1.4 Sean P = (3, −2, 4) y Q = (−1, 4, −5), determinar las coordenadas del vector v = P Q.
A veces la elección de un sistema de coordenadas adecuado puede simplicar la solución de un problema. Las ecuaciones de traslación de los ejes nos permiten de pasar de un sistema S a otro sistema S , cuyos ejes son paralelos a los ejes de S. En R2 , sea O , x , y el origen y los ejes del nuevo sistema de coordenadas S . Un punto P en el plano tiene coordenadas (x, y) respecto del sistema S y coordenadas (x , y ) respecto del sistema S . Si las coordenadas de O respecto de S son O = (a, b), se verica que

(x, y) = OP = OO + O P = (a, b) + (x , y ),
y, por tanto,

x = x − a,

y = y − b.

En el espacio tridimensional, si O = (a, b, c) respecto de S , las ecuaciones de traslación son

x = x − a,

y = y − b,

z = z − c.

O = (−1, 2, 3) respecto de S . Encontrar las coordenadas en el sistema S del punto P de coordenadas (−1, 0, 1) en S y las coordenadas en el sistema S del punto Q de coordenadas (3, −1, 4) en S .
Las siguientes propiedades son de fácil demostración:

Ejercicio 2.1.5 En R3 , sean S y S dos sistemas de coordenadas, donde

78

Álgebra

entonces 1. x + y = y + x 2. (x + y) + z = x + (y + z) 3. x + (0) = (0) + x = x 4. x + (−x) = (0) y (−x) + x = (0) 5. (λµ)x =λ(µx) 6. λ(x + y) = λx+λy 7. (λ + µ)x = λx + µx 8. 1 · x = x

Teorema 2.1.4 Si x e y son vectores en R2 o en R3 , y λ, µ son dos escalares,

Utilizando el Teorema de Pitágoras, la magnitud o norma de un vector en el plano o en el espacio tridimensional se puede determinar como sigue: para v = (x, y), v ≡ x2 + y 2 para v = (x, y, z), v ≡ x2 + y 2 + z 2 . Un vector de norma 1 se llama unitario . La distancia euclídea entre dos vectores v = (x1 , x2 ) y w = (y1 , y2 ) en R2 es el número real

d(v, w) ≡ v − w =

(y1 − x1 )2 + (y2 − x2 )2 .

La distancia euclídea entre dos vectores v = (x1 , x2 , x3 ) y w = (y1 , y2 , y3 ) en R3 es el número real

d(v, w) ≡ v − w =
Si k es un escalar,

(y1 − x1 )2 + (y2 − x2 )2 + (y3 − x3 )2 . v . v , w
y

kv = |k|

Ejercicio 2.1.6 Sean v = (0, 2, 3), w = (2, 0, −4). Hallar
d(v, w).

Sean v y w dos vectores de R2 o de R3 representados por dos segmentos orientados AB y AC (estos dos segmentos tienen el mismo punto de aplicación). Si v = 0 y w = 0, en el plano que los contiene, AB y AC determinan dos ángulos θ1 y θ2 = 2π − θ1 .

Observación 20 Los dos ángulos determinados por v y w no dependen de
los segmentos orientados elegidos para representar los vectores v y w.

Álgebra

79

Si v = 0 y w = 0, el ángulo entre v y w es el ángulo θ determinado por AB y AC , que satisface la condición: 0 ≤ θ ≤ π .

Denición 2.1.5 Si v = 0 y w = 0 son dos vectores del plano o del espacio tridimensional y θ es el ángulo entre v y w, el producto escalar euclídeo (o producto interior euclídeo) de v y w es el número real:
v·w = v
Si v = 0 o si w = 0, v · w = 0.

w

cos(θ).

(2.1)

Ejercicio 2.1.7 En R3 , sean v = (2, 0, 0) y w = (3, 3, 0). Hallar
R3 , entonces

v · w.

Proposición 2.1.6 Sean v = (v1 , v2 , v3 ) y w = (w1 , w2 , w3 ) dos vectores de
v · w = v1 w1 + v2 w2 + v3 w3
Sean v = (v1 , v2 ) y w = (w1 , w2 ) dos vectores de R2 , entonces

v · w = v1 w1 + v2 w2
La demostración de esta proposición se sigue de la ley de los cosenos:
2 2 2 2 2

w−v

= v

+ w

−2 v

w cos(θ) = v

+ w

− 2v · w.

Si v y w son dos vectores no cero, de la ecuación 2.1 se deriva fácilmente la siguiente fórmula:

cos(θ) =
1 de sus lados. (arccos( √3 ) ≈ 54◦ 44 )

v·w v w

(2.2)

Ejercicio 2.1.8 Encontrar el ángulo entre una diagonal de un cubo y uno Teorema 2.1.7 Sean v y w dos vectores en el plano o en el espacio tridimensional. Entonces a)

v =

(v · v)

b) Si v = 0 y w = 0, el ángulo θ entre v y w es agudo ⇔ v · w > 0 es obtuso ⇔ v · w < 0 π θ = ⇔v·w =0 2

80

Álgebra

La demostración de este teorema es una aplicación de la fórmula 2.2. √ Ejercicio 2.1.9 Dados v = ( 3, 0, −2) y w = (4, π, 37), vericar que el ángulo entre v y w es obtuso. Hemos visto que si v = 0 y w = 0 son perpendiculares (es decir, si θ = π ), 2 el producto interior de v y w es cero. Si se admite que v y w puedan ser cero, la denición de vectores perpendiculares es la siguiente:

Denición 2.1.8 Dos vectores v y w son ortogonales si v · w = 0.
Las siguientes propiedades son de fácil demostración:

Teorema 2.1.9 Sean u, v y w tres vectores en el plano o en el espacio
tridimensional y sea k un número real: 1. u · v = v · u 2. u · (v + w) = u · v + u · w 3. k(u · v) = (ku) · v = u · (kv) 4. v · v ≥ 0 y v · v = 0 ⇔ v = 0

Demostración Ejercicio.
Sea ahora v = 0 un vector bidimensional o tridimensional representado por el segmento orientado OA y sea w = 0 otro vector del mismo espacio. Utilizando el producto interior es posible denir la proyección ortogonal del vector w sobre v como sigue. Representamos el vector w por un segmento orientado OP como en la gura 2.3. El segmento orientado OP1 representa un vector w1 y los segmentos P1 P y OP2 el vector w2 = w − w1 . Entonces, w = w1 + w2 , donde el vector w1 = pv (w) es la proyección ortogonal de w sobre v o componente vectorial de w a lo largo de v y el vector w2 = w − pv (w) es la componente vectorial de w ortogonal

a v.

Teorema 2.1.10 Si v = 0 y w son dos vectores de R2 o de R3 ,
pv (w) = w1 = w2 = w − w1 = w − w·v v 2 v v

w·v v 2

Álgebra

81 

T 0      w2 w w − w1    θ P  E 1 T

P2

P

E

O

w1

v

A

Figura 2.3: Proyección ortogonal de w sobre v

Demostración Existe un escalar k tal que pv (w) = kv (ya que pv (w) es
paralelo a v ). Entonces w = w1 + w2 = kv + w2 kv · v + w2 · v = k v 2 . y

w · v = w1 · v + w2 · v = 2

Se sigue fácilmente del último teorema y de las propiedades de la norma que la magnitud del vector pv (w) es:

pv (w) =

|w · v| = w v

| cos(θ)|

Es importante observar que la norma de pv (w) depende de la dirección de v y no depende de su magnitud.

Ejercicio 2.1.10 Sean v = (1, −4, 8) y w = (−2, 0, −1). Determinar el
vector pv (w) y su magnitud.

2.1.1 Producto vectorial y producto mixto
tres vectores en R3 , donde hemos jado el sistema de coordenadas ortogonales

Denición 2.1.11 Sean u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) y w = (w1 , w2 , w3 )

82

Álgebra

usual (O = (0, 0, 0), (e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1))).

• El producto vectorial es una operación en R3 , que a cada par de vectores (u, v) asocia el vector u × v = (u2 v3 − u3 v2 )e1 + (u3 v1 − u1 v3 )e2 + (u1 v2 − u2 v1 )e3 = = det u u u u u2 u3 e1 − det 1 3 e2 + det 1 2 e3 . v1 v2 v1 v3 v2 v3

• El producto mixto es una función del producto cartesiano R3 ×R3 ×R3 en R, que a cada terna de vectores (u, v, w) asocia el número real que se obtiene calculando el producto escalar del vector u con el vector v×w : u · (v × w) = u1 (v2 w3 − v3 w2 ) − u2 (v1 w3 − v3 w1 ) + u3 (v1 w2 − v2 w1 ) =   u1 u2 u3 = det  v1 v2 v3  . w1 w2 w3

Ejemplo 2.1.12 1) El producto vectorial de u = (1, 0, 1) y v = (−1, 2, 0) es
u × v = det 0 1 1 1 1 0 e1 − det e2 + det e = 2 0 −1 0 −1 2 3 = −2e1 − e2 + 2e3 = (−2, −1, 2).
2) El producto mixto de a = (1, 1, 0),  1 1 1 0 a · (u × v) = det −1 2

u = (1, 0, 1) y v = (−1, 2, 0) es  0 1 = −2 − 1 = −3. 0

Interpretación geométrica y propiedades del producto vectorial y del producto mixto
• El vector u × v es ortogonal a u y a v y, por tanto, es ortogonal al plano que contiene a u y v. • u × v = −v × u y u × v = 0 si y sólo si u y v son paralelos.

Álgebra

83

• u × v = u v sin(θ), donde θ es el ángulo que forman u y v. Esta norma coincide con el área del paralelogramo determinado por los vectores u y v. (Para comprobarlo se puede utilizar la identidad de Lagrange: u × v 2 = u 2 v 2 − (u · v)2 .) • u × (v + w) = u × v + u × w y (v + w) × u = v × u + w × u. • El producto mixto u · (v × w) representa, en valor absoluto, el volumen del paralelepípedo individuado por los tres vectores u, v y w. • u · (v × w) = 0 si y sólo si los tres vectores u, v y w pertenenecen al mismo plano.

2.1.2 Rectas en le plano
Sean P0 = (x0 , y0 ) y P1 = (x1 , y1 ) dos puntos en el plano R2 . El vector P0 P1 = (x1 − x0 , y1 − y0 ) individua la dirección de la recta l que pasa por P0 y1 − y0 = tg(α), siendo α el y P1 y, por tanto, tiene pendiente igual a m = x1 − x0 ángulo que la recta l forma con el eje de las x. Sea n = (a, b), un vector cuya dirección es perpendicular a la dirección de la recta l . Utilizando los elementos que acabamos de denir, es posible representar una recta l en el plano por medio de distinta ecuaciones:

• Ecuación vectorial
Sean P0 = (x0 , y0 ) un punto jado y P = (x, y) un punto genérico de una recta l . Siendo n = (a, b) un vector ortogonal a l , se obtiene que el producto escalar n · P P0 = 0 (esta ecuación se puede llamar forma punto-normal). Utilizando los vectores v = OP y v0 = OP0 , se obtiene la forma vectorial de la ecuación de l :

n · (v − v0 ) = 0. • Ecuación general implícita
Si desarrollamos la ecuación punto-normal anterior como

0 = n·P P0 = n·(x−x0 , y−y0 ) = a(x−x0 )+b(y−y0 ) = ax+by−(ax0 +by0 ),

84

Álgebra y llamamos −(ax0 + by0 ) = c, lo que se obtiene el la ecuación general

implícita:

ax + by + c = 0. • Ecuaciones paramétricas
Sean P0 = (x0 , y0 ) un punto de la recta l , v = (v1 , v2 ) un vector paralelo a l y P = (x, y) el punto genérico de l . Entonces el vector P0 P es paralelo a v, es decir, existe un número real k tal que P0 P = kv. Esta última ecuación, escrita en términos de coordenadas, dene las ecuaciones paramétricas de la recta l :

x = x0 + kv1 y = y0 + kv2 .

k∈R

• Ecuación pendiente-ordenada en el origen
Esta ecuación tiene la forma

y = mx + q,
donde m es al pendiente de la recta l y q es la ordenada del punto de corte con el eje de las y, (0, q).

mostrar que la fórmula para calcular la distancia entre el punto P0 y una recta r de ecuación ax + by + c = 0 es

Ejercicio 2.1.11 Sea P0 = (x0 , y0 ) un punto del espacio bidimensional. De-

d(P0 , r) =

|ax0 + by0 + c| √ a 2 + b2

Utilizar el hecho de que en R2 el vector n = (a, b) = (0, 0) es ortogonal a la recta de ecuación ax + by + c = 0.

Ejemplo 2.1.13 La distancia entre el punto P0 = (2, −1) y la recta r de
ecuación x − y + 3 = 0 es igual a d(P0 , r) =
|2+1+3| √ 1+1

=

6 √ . 2

Álgebra

85

2.1.3 Planos en el espacio tridimensional
Para determinar la ecuación de una recta r : ax + by + c = 0 en el espacio bidimensional es suciente conocer las componentes de un punto P = (x, y) de r y su coeciente angular. De forma análoga, en el espacio tridimensional se puede determinar un plano π (y su ecuación) por uno de sus puntos P0 = (x0 , y0 , z0 ) y un vector n = (a, b, c) ortogonal a π mismo: todo punto P = (x, y, z) del plano π y distinto de P0 es tal que el segmento orientado P0 P = (x − x0 , y − y0 , z − z0 ) sea perpendicular al vector n. Esta caracterización de los puntos de π se puede expresar por la forma punto-normal de la ecuación del plano π :

n · P P0 = a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0

(2.3)

Utilizando los vectores OP = v = (x, y, z) y OP0 = v0 = (x0 , y0 , z0 ), la ecuación 2.3 se puede reescribir en la forma vectorial:

n · (v − v0 ) = 0.

(2.4)

Ejemplo 2.1.14 Según la fórmula 2.3, la ecuación del plano π que pasa
por el punto P0 = (2, 0, −1) y es perpendicular a la dirección del vector n = (1, −1, 4) es (x − 2) − y + 4(z + 1) = x − y + 4z + 2 = 0. La misma ecuación se obtiene utilizando la fórmula 2.4: n · (v − v0 ) = (1, −1, 4) · (x − 2, y, z + 1) = x − y + 4z + 2 = 0.

Teorema 2.1.15 Si n = (a, b, c) = (0, 0, 0), la forma implícita de la ecuación de un plano π ortogonal al vector n es:

ax + by + cz + d = 0

(2.5)

última ecuación es la forma punto-normal de la ecuación de un plano por el punto P0 = (0, − d , 0) y ortogonal al vector n = (a, b, c). Si a = 0 o si c = 0, b se obtienen ecuaciones similares. 2

Demostración Si b = 0, ax + by + cz + d = 0 ⇔ ax + b(y + d ) + cz = 0. La b

86

Álgebra

Ejercicio 2.1.12 Considerar un sistema de tres ecuaciones lineales en R3
  a11 x + a12 y + a13 z = b1 a21 x + a22 y + a23 z = b2  a31 x + a32 y + a33 z = b3
Ilustrar con ejemplos geométricos los casos en los cuales el sistema dado sea incompatible, compatible determinado y compatible.
El siguiente ejemplo muestra como se puede determinar la ecuación de un plano a partir de las componentes de tres de sus puntos:

Ejemplo 2.1.16 Sean P1 = (1, 0, −1), P2 = (2, 1, 0) y P3 = (−2, 3, 1) tres
puntos de R3 . Encontrar la ecuación del plano que los contiene. Solución: A partir de la ecuación de un plano en forma general 2.5 y sustituyendo los valores de las variables (x, y, z) por las componentes de los tres puntos dados, se obtiene un sistema en las variables (a, b, c, d) de la forma

 

a−c+d=0 2a + b + d = 0  −2a + 3b + c + d = 0
El conjunto solución de este sistema es {(−t, −5t, 6t, 7t) : t ∈ R}. Sustituyendo los valores encontrados para los coecientes a, b, c y d en la ecuación 2.5, se obtiene el plano

−tx − 5ty + 6tz + 7t = 0, es decir, x + 5y − 6z + 7 = 0.

un plano en el espacio tridimensional, respectivamente. La siguiente fórmula nos da el valor de la distancia entre P0 y π :

Teorema 2.1.17 Sean P0 = (x0 , y0 , z0 ) y π : ax + by + cz + d = 0 un punto y

d(P0 , π) =

|ax0 + by0 + cz0 + d| √ a2 + b2 + c2

(2.6)

Álgebra

87

Demostración Ejercicio. (Sugerencia: Sean n = (a, b, c) el vector normal y Q = (x, y, z) un punto
del plano π. Entonces pn (P0 Q) =

P0 Q · n .) n

2

Ejercicio 2.1.13 a)Encontrar la distancia entre el punto P0 = (1, −2, 3) y
el plano π : x − 2y + z = 1. b)Encontrar la distancia entre los planos paralelos π : x − 2y + z = 1 y π : 2x − 4y + 2z = 3.

2.1.4 Rectas en el espacio tridimensional
Sea l una recta en el espacio tridimensional que pasa por el punto P0 = (x0 , y0 , z0 ) y es paralela al vector u = (a, b, c) = (0, 0, 0). Si P = (x, y, z) es un punto de l distinto de P0 , se verica que P0 P = (x − x0 , y − y0 , z − z0 ) = ku = (ka, kb, kc) para un escalar k ∈ R. Entonces la recta l estará determinada por las ecuaciones paramétricas:   x = x0 + ka y = y0 + kb , donde k ∈ R. (2.7)  z = z0 + kc Sean P0 y P dos puntos de una recta l y sean OP0 = v0 y OP = v los vectores del espacio tridimensional correspondientes. Entonces se verica la identidad P0 P = (x − x0 , y − y0 , z − z0 ) = v − v0 . Si además u es un vector paralelo a la recta l, se sigue que v − v0 = ku por un escalar k ∈ R. Llamaremos forma vectorial de la ecuación de una recta en el espacio tridimensional a la ecuación:

v = v0 + ku

(k ∈ R)

(2.8)

Si para denir una recta l en el espacio tridimensional utilizamos un sistema de dos ecuaciones de dos planos cuya intersección es l , lo que se obtiene son las ecuaciones implícitas de l :

a1 x + b1 y + c1 z + d1 = 0 a2 x + b2 y + c2 z + d2 = 0

88

Álgebra

Ejercicio 2.1.14 a)Encontrar las ecuaciones paramétricas de la recta l que

pasa por los puntos P0 = (3, −2, 0) y P = (−5, 13, 4). b)Encontrar las ecuaciones paramétricas de la recta l intersección de los planos 3x + 2y − 4z − 6 = 0 y 2x − 6y − 4z − 8 = 0. c)Encontrar la forma vectorial de la ecuación de la recta l de ecuaciones paramétricas:   x = 2 + 3k y = −5 − k , donde k ∈ R. (2.9)  z = 7k

Álgebra

89

2.2

Espacios vectoriales sobre un cuerpo K

Según hemos visto, en los espacios R2 y R3 se satisfacen las propiedades 1) a 8) recogidas en el teorema 2.1.4 respecto de la suma y del producto por escalares (las propiedades 1 a 4 son las que indican que R2 y R3 tienen estructura de grupo abeliano respecto de la suma). Veremos que, en general, si (K, +, ·) es un cuerpo, (Kn , +, ·) también satisface dichas propiedades. Estas propiedades son las que dan lugar a la denición de espacio vectorial sobre un cuerpo (K, +, ·).

sobre el cuerpo (K, +, ·) a cualquier 3-tupla (E, ⊕, ◦) formada por un conjunto no vacío E, una operación ⊕ : E × E → E, y una función (producto por escalares) ◦ : K×E → E de manera que se satisfagan las siguientes propiedades: 1. (E, ⊕) es un grupo abeliano; 2. ∀u, v ∈ E ∀α ∈ K (α ◦ (u ⊕ v) = α ◦ u ⊕ α ◦ v), 3. ∀u ∈ E ∀α, β ∈ K ((α + β) ◦ u = α ◦ u ⊕ β ◦ u), 4. ∀u ∈ E ∀α, β ∈ K ((α · β) ◦ u = α ◦ (β ◦ u)), 5. siendo 1 ∈ K el elemento neutro de  ·, ∀u ∈ E (1 ◦ u = u).
A los elementos de K, que habitualmente representaremos por letras del alfabeto griego, se les denomina escalares y a los elementos de E, que habitualmente representaremos por letras del alfabeto latino (y en ocasiones en negrita), vectores. En este contexto, el término vector servirá para designar en lo sucesivo a un elemento del espacio vectorial sobre el que se esté trabajando, y no necesariamente a un vector geométrico determinado por un segmento orientado. Es usual, dada la sobrecarga de notación derivada del uso de tres operaciones y un producto por escalares, el adoptar el siguiente convenio de notación universalmente aceptado.

Denición 2.2.1 Sea (K, +, ·) un cuerpo. Llamaremos espacio vectorial

90

Álgebra

Operacion +:K×K→K ·:K×K→K ⊕:E×E→E ◦ : K×E → E

Nombre de la operación suma de escalares producto de escalares suma de vectores producto de vectores por escalares

Notación + · + ·

Con esta nueva notación los axiomas de espacio vectorial se escribirán: 1. (E, +) es un grupo abeliano; 2. ∀u, v ∈ E ∀α ∈ K (α · (u + v) = α · u + α · v), 3. ∀u ∈ E ∀α, β ∈ K ((α + β) · u = α · u + β · u), 4. ∀u ∈ E ∀α, β ∈ K ((α · β) · u = α · (β · u)), 5. siendo 1 ∈ K el elemento neutro de  ·, ∀u ∈ E (1 · u = u), donde en cada caso la naturaleza de la operación (es decir, si se trata de la suma en K o en E y lo mismo con el producto de un escalar por un elemento de E y el producto en K) quedará normalmente determinada por la naturaleza de los operandos. Así por ejemplo, si E =Mm×n (R), A, B ∈ Mm×n (R), y α, β ∈ R, en la expresión (α + β) · A es obvio que la suma considerada es la suma de los números reales α y β, mientras que en la expresión

α · (A + B)
la suma considerada es la denida en Mm×n (R). También señalaremos que es usual omitir el  ·, escribiendo por ejemplo α(βu) en lugar de α · (β · u), por lo que habitualmente lo haremos así. Ejemplos de espacios vectoriales con los que ya hemos trabajado son:

• Las matrices la con coecientes reales ó complejos M1×n (K) con respecto de la suma de las y producto de una la por un número.

Álgebra

91

• Los vectores geométricos del plano y del espacio respecto de la suma de vectores y producto por escalares denidos en la primera parte del capítulo. • Las propiedades que satisfacen las matrices de orden m × n con coecientes en un cuerpo K respecto de la suma y producto por escalares denidos hacen que Mm×n (K) tenga estructura de espacio vectorial respecto de dichas operaciones.

y las operaciones + y · son las usuales del cuerpo K, diremos simplemente que (E, +, ·) es un K-espacio vectorial (abreviadamente: “(E, +, ·) es un K − e.v.), o simplemente, que E tiene estructura de espacio vectorial con respecto a las operaciones + : E × E → E y · : K×E → E, y si la suma y el producto por escalares considerados están predenidos o se sobrentiende cuales son, diremos de forma abreviada que “E es un K − e.v. .

Observación 21 Si (E, +, ·) es un espacio vectorial sobre el cuerpo (K, +, ·),

Ejemplo 2.2.2 Sea (K, +, ·) un cuerpo. La terna (K, +, ·) es un (K, +, ·) −
espacio vectorial, puesto que, como consecuencia de la denición de cuerpo, y en particular, de la propiedad distributiva del producto del cuerpo respecto de la suma, de la asociatividad del producto y de la existencia de elemento neutro para el producto, tendremos
1. (K, +) es un grupo abeliano; 2. ∀u, v ∈ K ∀α ∈ K α · (u + v) = α · u + α · v, 3. ∀u ∈ K ∀α, β ∈ K (α + β) · u = α · u + β · u, 4. ∀u ∈ K ∀α, β ∈ K (α · β) · u = α · (β · u), 5. Siendo 1 ∈ K el elemento neutro de  · , ∀u ∈ K (1 · u = u).
Así pues, el cuerpo (R, +, ·) es un R−e.v., el cuerpo (C, +, ·) es un C−e.v. y el cuerpo (Z2 , +, ·) es un Z2 − e.v.

92

Álgebra

2.2.1 Propiedades de vectores
La siguiente proposición recoge una serie de propiedades que se satisfacen en todo espacio vectorial, donde, para mayor claridad, a los vectores los hemos destacado en negrita.

Proposición 2.2.3 Si E es un K − e.v. se verican las siguientes propiedades:
1. 2. 3. 4. 5. 6.

∀u ∈ E, 0 · u = 0; ∀α ∈ K, α · 0 = 0; ∀α ∈ K, ∀u ∈ E, ((α · u = 0) ⇒ (α=0 ∨ u = 0)) ; ∀u ∈ E, (−1) · u = −u; ∀α ∈ K − {0}, ∀u, v ∈ E, ((α · u =α · v) ⇒ (u = v)) ; ∀α, β ∈ K, ∀u ∈ E − {0}, ((α · u =β · u) ⇒(α = β)) .

Demostración 1. Dado u ∈ E,
0 · u = (0 + 0) · u =0 · u+0 · u,
y puesto que el único elemento idempotente del grupo (E, +) es el elemento 0 ∈ E, concluímos que 0 · u = 0. 2. Dado α ∈ K,

α · 0 =α · (0 + 0) = α · 0 + α · 0,
por lo que, razonando análogamente a la propiedad anterior, concluímos que α · 0 = 0. 3. Sean α ∈ K y u ∈ E, y supongamos que α · u = 0. Caben dos posibilidades. a) Si α = 0, entonces no hay nada que demostrar, puesto que en ese caso la sentencia (α=0 ∨ u = 0) es verdadera. b) Si α = 0, consideramos el elemento α−1 ∈ K. Multiplicando a ambos lados de la igualdad por α−1 obtenemos

α−1 · (α · u) = α−1 · 0 = 0;
pero por los axiomas de espacio vectorial

α−1 · (α · u) = α−1 · α · u =1 · u = u,

Álgebra

93

es decir , u = 0. 4. Sea u ∈ E. Puesto que −1 ∈ K es opuesto de 1 en el grupo (K, +), tendremos

( − 1) · u + u = ( − 1) · u+1 · u = ( − 1 + 1) · u = 0,
y puesto que (E, +) es un grupo (abeliano), tendremos también

u + ( − 1) · u = 0,
es decir, ( − 1) · u es el elemento opuesto de u en el grupo (E, +), o lo que es lo mismo, ( − 1) · u = −u. 5. Sean α ∈ K − {0}, u, v ∈ E, y supongamos que α · u =α · v. Multiplicando ambos miembros de esta igualdad por α−1 obtenemos

α−1 · (α · u) =α−1 · (α · v) ,
o lo que es lo mismo,

α−1 · α · u = α−1 · α · v,
de donde u = v. 6. Sean α, β ∈ K y u ∈ E − {0}, y supongamos que α · u =β · u. En ese caso necesariamente α · u + (−(β · u)) = 0. Pero de los axiomas de espacio vectorial y de las propiedades anteriores se sigue que

α · u + (−(β · u)) =α · u + (−β) · u = (α + (−β)) · u;
es decir,

(α + (−β)) · u = 0
siendo u = 0, con lo que (α + (−β)) = 0, o lo que es lo mismo, α = β.

2

2.2.2 Producto cartesiano de espacios vectoriales
Vamos ahora a comprobar que el producto cartesiano de espacios vectoriales es un espacio vectorial, resultado que recogemos en la siguiente proposición:

94

Álgebra

el conjunto E = E1 × · · · × En tiene estructura de espacio vectorial respecto de las operaciones

Proposición 2.2.4 Si (E1 , +1 , ·1 ), · · · , (En , +n , ·n ) son n K − e.v. entonces

+:

E×E −→ E ((u1 , · · · , un ), (v1 , · · · , vn )) ; (u1 +1 v1 , · · · , un +n vn ) y ·: K×E −→ E (α, (u1 , · · · , un )) ; (α ·1 u1 , · · · , α ·n un )

Para realizar dicha comprobación resulta natural utilizar el símbolo  + tanto para referirnos a cualquiera de las sumas +1 , · · · , +n como para designar la suma denida en E1 × · · · × En , y lo mismo haremos con el símbolo  ·  (que incluso se omite por convenio de notación), de manera que, en cada caso, la operación considerada queda determinada por la naturaleza de los operandos; en otras palabras, para cada i ∈ {1, · · · , n}, si ui , vi ∈ Ei , entonces ui + vi = ui +i vi y αui = α ·i (ui ) . Así por ejemplo, puesto que E1 , · · · , En son  n K − e.v., en particular

(E1 , +), · · · , (En , +)
son grupos abelianos y, en esas condiciones no es difícil vericar que

(E1 × · · · × En , +)
es también un grupo abeliano. Por otra parte veamos que ∀u, v ∈ E y ∀α ∈ K

α · (u + v) = α · u + α · v :
Si u, v ∈ E, u = (u1 , · · · , un ) y v = (v1 , · · · , vn ), por denición

(u + v) = (u1 + v1 , · · · , un + vn )
y, en consecuencia, según se ha denido la ley de composición externa en E,

α · (u1 + v1 , · · · , un + vn ) = (α (u1 + v1 ) , · · · , α(un + vn )),

Álgebra

95

y por la propiedad distributiva que satisface el producto por escalares respecto de la suma de vectores en cada uno de los espacios vectoriales (Ei , +i , ·i ) tendremos que, en denitiva,

α · (u + v) = = = = = =

α · (u1 + v1 , · · · , un + vn ) = (α (u1 + v1 ) , · · · , α(un + vn )) = (αu1 + αv1 , · · · , αun + αvn ) = (αu1 , · · · , αun ) + (αv1 , · · · , αvn ) = α(u1 , · · · , un ) + α(v1 , · · · , vn ) = α·u+α·v

La demostración de que se satisfacen el resto de las propiedades necesarias para que E1 ×· · ·×En tenga estructura de K−e.v. respecto de las operaciones consideradas se propone como ejercicio. En particular, como consecuencia de la proposición anterior tenemos que si (K, +, ·) es un cuerpo, entonces ∀n ∈ N (Kn , +, ·) es un K − e.v., siendo las operaciones denidas sobre Kn las denidas en la proposición anterior. Estas son las operaciones que se deben dar por sobreentendidas siempre que hagamos alusión al K − e.v. Kn .

Ejemplo 2.2.5 Casos particulares del apartado anterior:
1. (R3 , +, ·) es un R − e.v., donde si (x, y, z), (x , y , z ) ∈ R3 y α ∈ R,

(x, y, z) + (x , y , z ) = (x + x , y + y , z + z ) α(x, y, z) = (αx, αy, αz)
siendo x + x , y + y y z + z la suma habitual de estos números reales, y αx, αy y αz el producto habitual de estos números reales. 2. Del mismo modo que en el ejemplo anterior, (C2 , +, ·) es un C − e.v., sobrentendiéndose cuáles son las operaciones denidas sobre C2 . 3. Análogamente, (Z32 , +, ·) es un Z2 − e.v.. 2 4. El espacio Mm,n (R) × C[x] es un R−espacio vectorial.

96

Álgebra

2.2.3 Funciones con codominio en un espacio vectorial
Si E es un K − e.v., y denotamos por F(X, E) al conjunto formado por todas las funciones denidas sobre un conjunto cualquiera X = ∅ y tales que su imagen está contenida en E,

F(X, E) = {f : X −→ E :

f es una función} ,

resulta que este conjunto tiene estructura de K − e.v., según se recoge en la siguiente proposición.

Proposición 2.2.6 Si X = ∅ y E es un K − e.v., entonces (F(X, E), +, ·)
es un K − e.v., donde ∀f, g ∈ F (X, E) f + g ∈ F(X, E) es la función denida ∀x ∈ X por la siguiente expresión (f + g)(x) = f (x) + g(x) (nótese que la suma del lado izquierdo de la igualdad es la suma de funciones, y que la del lado derecho es la suma de E) y ∀f ∈ F(X, E), ∀α ∈ K , (αf ) ∈ F(X, E) es la función determinada ∀x ∈ X por la siguiente expresión (αf )(x) = αf (x).

Demostración Siendo f + g la función denida por la condición
∀x ∈ X (f + g)(x) = f (x) + g(x)
resulta que tenemos denida una operación sobre F(X, E):

+ : F(X, E) × F(X, E) (f, g)

−→ F(X, E) ; f +g

Además, se verica que: 1. + es asociativa, pues si f, g, h ∈ F(X, E), y x ∈ X

((f + g) + h) (x) = (f + g)(x) + h(x) = (f (x) + g(x)) + h(x) = = f (x) + (g(x) + h(x)) = f (x) + (g + h)(x) = = (f + (g + h)) (x)
con lo que (f + g) + h = f + (g + h). 2. + es conmutativa, pues si f, g ∈ F(X, E), y x ∈ X,

(f + g)(x) = f (x) + g(x) = g(x) + f (x) = (g + f )(x)
con lo que (f + g) = (g + f ).

Álgebra 3. Es inmediato comprobar (verifíquese) que la función constante

97

0: X x

−→ E ; 0

es el elemento neutro de (F(X, E), +). 4. Del mismo modo, es inmediato comprobar (verifíquese) que ∀f ∈ F(X, E) el elemento simétrico de f respecto de + es la función

(−f ): X x

−→ E , ; −(f (x))

es decir, ∀x ∈ X (−f )(x) = −(f (x)) donde −(f (x)) es el elemento opuesto de f (x) en (G, +). Al ser (E, +) un grupo abeliano, (F(X, E), +) también lo es, donde f +g : X → E . x ; f (x) + g(x) Veamos ahora que la operación

·:
donde

K×F(X, E) −→ F(X, E) (α, f ) ; αf αf : X x → ; E αf (x)

satisface el resto de propiedades: 5. Sean f, g ∈ F(X, E). Hay que demostrar que ∀α ∈ K

α(f + g) = αf + αg.
Sea α ∈ K. Puesto que

(α(f + g)) : X → E
y

(αf + αg) : X → E,
para demostrar que dichas aplicaciones son iguales es suciente con probar que ∀x ∈ E, (α(f + g))(x) = (αf + αg)(x).

98 Sea x ∈ E. Por denición

Álgebra

(α(f + g))(x) = α ((f + g)(x)) = α (f (x) + g(x)) = (por la distributividad en E del producto por escalares respecto de la suma de vectores) = αf (x) + αg(x) = (αf )(x) + (αg)(x) = ((αf ) + (αg)) (x).
6. Hay que probar que ∀f ∈ F (X, E) ∀α, β ∈ K

(α + β)f = αf + βf.
Se demuestra de forma análoga a la propiedad que acabamos de ver, por lo que se propone como ejercicio. 7. Sean f ∈ F(X, E) y α, β ∈ K . Hay que demostrar que

(αβ)f = α(βf ).
Puesto que

((αβ)f ) : X → E
y

(α(βf )) : X → E,
para demostrar que dichas aplicaciones son iguales es suciente probar que ∀x ∈ E ((αβ)f )(x) = (α(βf ))(x). Sea x ∈ E. Por denición

((αβ)f )(x) = (αβ)f (x) = (puesto que α,β ∈ K, f (x) ∈ E y E es un K-e.v.) = α(βf (x)) = α((βf )(x)) = (α(βf ))(x).
8. Finalmente, dado 1 ∈ K, ∀f ∈ F(X, E)

(1 · f ) = f,
pues si f ∈ F(X, E) es una función cualquiera de ese conjunto, dado que

(1 · f ) : X → E y f : X → E,

Álgebra y teniendo en cuenta que ∀x ∈ E,

99

(1 · f )(x) = 1 · f (x) = f (x),
concluímos que (1 · f ) = f.

2

conjuntos tienen estructura de espacio vectorial respecto de las operaciones consideradas en la misma. 1. Si (K, +, ·) es un cuerpo, el conjunto F(K, K). En particular, el conjunto F(R, R) de las funciones reales de variable real y el conjunto F(C, C) de las funciones complejas de variable compleja. 2. El conjunto F(R, C) de las funciones complejas de variable real es un C − e.v. 3. El conjunto F(N, E) de las sucesiones de elementos de un K − e.v. E. En particular F(N, R), F(N, C), F(N, R3 ) tienen estructura de espacio vectorial respecto de las operaciones consideradas en la proposición anterior. (Como ejercicio, escríbase cual es la expresión explícita de dichas operaciones particularizadas en cada uno de los subespacios de este ejemplo). 4. El conjunto Mm×n (K) = F({1, · · · , m}×{1, · · · , n}, K) de las matrices de m las y n columnas con coecientes en un cuerpo K y, en particular, el conjunto de las matrices cuadradas de n las, al que denotamos por Mn (K). 5. Combinando los ejemplos anteriores también son espacios vectoriales, respecto de la suma y producto por escalares introducidos, el conjunto

Ejemplos. Como consecuencia de la proposición anterior, los siguientes

F(N, F(R, R))
de las sucesiones de F(R, R), el conjunto

F(N, M2 (C))
de las sucesiones de matrices de M2 (C), el conjunto

F(M3 (C), M3 (C)),
el conjunto

F(N, F(R, R) × F(R, R)),
el conjunto

F(C, C×M5 (C)),
y un largo etcétera.

100

Álgebra

2.3 Subespacios vectoriales
Siendo E un K − e.v. y H ⊂ E, se dice que H es un subespacio vectorial de E si H tiene estructura de espacio vectorial respecto de las operaciones inducidas por las de E. Por consiguiente, teniendo en cuenta que si + y · satisfacen las propiedades necesarias para que E sea un K − e.v. (+ es asociativa, conmutativa,· · · ), dichas propiedades también se satisfacen en el caso particular de que los vectores sean de H, y que siendo 0 ∈ K y u ∈ H, 0 · u = 0, lo único que necesitamos para que H sea un subespacio vectorial de E es que el resultado obtenido al hacer actuar dichas operaciones sobre elementos de H sea un elemento de H, es decir:

Denición 2.3.1 Si E es un K − e.v. y H ⊂ E, se dice que H es un subespacio vectorial de E si:
1. H = ∅. 2. ∀u, v ∈ H u + v ∈ H. 3. ∀α ∈ K, ∀u ∈ H αu ∈ H.

En lo sucesivo utilizaremos la notación H subespacio vectorial de E.

E para indicar que H es un

y sólo si

Proposición 2.3.2 Sean E un K − e.v. y H ⊂ E. Se verica que H
a) 0 ∈ H b) ∀u, v ∈ H, ∀α, β ∈ K se verica que (αu + βv) ∈ H.

E si

Demostración Ejercicio. Indicación: vericar que las condiciones 1, 2 y
3 de la denición equivalen a las condiciones a) y b).

2

Observación 22 De la denición de subespacio vectorial se sigue que, siendo E un K − e.v. se verica que E E y que {0} E.

Álgebra

101

Observación 23 No es difícil demostrar, razonando por inducción sobre n,
que si E es un K − e.v. y H

E , entonces se verica que
n n

∀(u1 , · · · , un ) ∈ H , ∀(α1 , · · · , αn ) ∈ K ,
i=1

n

αi ui

∈ H.

(De manera informal: si H E, u1 , · · · , un son vectores de H, y α1 , · · · , αn son escalares, necesariamente α1 u1 + · · · + αn un ∈ H.)

1. Puesto que si H E, necesariamente 0 ∈ H, no es difícil comprobar que cualquier plano de R3 que pase por el punto (0, 0, 0) es un subespacio vectorial de R3 . Igualmente, cualquier recta de R3 que pase por el punto (0, 0, 0) es un subespacio vectorial de R3 . Cuando introduzcamos el concepto de dimensión veremos que los únicos subespacios vectoriales de R3 son: {0}, R3 , las rectas que pasan por 0 =(0, 0, 0) y los planos que pasan por 0. (De forma análoga, los únicos subespacios de R2 son: {0}, R2 y las rectas que pasan por 0). 2. El conjunto formado por todas las soluciones de un sistema homogéneo de m ecuaciones lineales con n incógnitas y con coecientes en un cuerpo K es un subespacio vectorial de Kn

EJEMPLOS:

  a11 x1 + · · · + a1n xn = 0  . . . .   a x + ··· + a x = 0 m1 1 mn n
Para comprobarlo, sólo hay que vericar que si (α1 , · · · , αn ), (β1 , · · · , βn ) ∈ Kn son soluciones del sistema anterior y α ∈ K, entonces (α1 +β1 , · · · , αn +βn ) también es solución del sistema, y lo mismo sucede con (αα1 , · · · , ααn ). 3. C[x] F (C, C), pues a) 0 ∈ C[x]; b) si f, g ∈ C[x] y α, β ∈ K , de la denición de C[x] se sigue que ∃n, m ∈ N ∪ {0}, ∃(a0 , · · · , an ) ∈ Cn+1 , ∃(b0 , · · · , bm ) ∈ Cm+1 tales que ∀x ∈ C se verica que

f (x) = an xn + · · · + a0 ∧ g(x) = bm xm + · · · + b0 ;

102

Álgebra

evidentemente, si n ≥ m, poniendo ∀i ∈ {m + 1, · · · , n} bi = 0, tendremos que

∀x ∈ C

(αf + βg)(x) =
n n

= α
i=0 n

ai x

i


i=0

bi xi

=

=
i=0

(αai + βbi ) xi ,

es decir, (αf + βg) ∈ C[x]. 4. Siendo Pn (C) el conjunto de polinomios con coecientes en C de grado ≤ n, se verica que Pn (C) C[x] pues i) 0 ∈ Pn (C), con lo que Pn (C) = ∅. ii) Dados f, g ∈ Pn (C), teniendo en cuenta que

gr(f + g) ≤ max{gr(f ), gr(g)} ≤ n,
resulta que f + g ∈ Pn (C) iii) Dados f ∈ Pn (C) y α ∈ K, hay que distinguir dos posibilidades: si α = 0, entonces αf = 0 ∈ Pn (C); por otra parte si α = 0, teniendo en cuenta que gr(αf ) = gr(f ), se sigue que en cualquier caso αf ∈ Pn (C). 5. Si denotamos por C(R, R) al conjunto de funciones reales de variable real que son continuas en todos los puntos de R, teniendo en cuenta que cualquier función constante es continua (con lo que C(R, R) = ∅), que si f, g ∈ C(R, R), entonces f + g ∈ C(R, R), y que si α ∈ R y f ∈ C(R, R), entonces αf ∈ C(R, R), resulta que

C(R, R)

F (R, R).

Por el mismo motivo, el conjunto de las funciones reales denidas en el conjunto [a, b] = {x ∈ R |a ≤ x ≤ b } y continuas en todos los puntos de este intervalo, conjunto al que denotamos por C([a, b], R), constituye un subespacio vectorial de F([a, b], R).

Observación 24 Puesto que todo subespacio vectorial de un espacio vectorial dado es a su vez un espacio vectorial, es posible referirnos a cada uno de

Álgebra

103

los ejemplos anteriores como espacios vectoriales; de este modo, hablaremos del espacio vectorial de las funciones continuas C(R, R), del espacio vectorial de los polinomios de grado ≤ n, etc..

Ejercicio 2.3.1 Se dice que A ∈ Mn (K) es simétrica si t A = A. Si denota-

mos por Sn (K) al conjunto de las matrices simétricas de orden n, demostrar que Sn (K) Mn (K).

Proposición 2.3.3 Si X = ∅, E es un K − e.v. y S ⊂ X, el conjunto
H = {f ∈ F (X, E) |f (S) = {0} }
es un subespacio vectorial de F(X, E).

Demostración Ejercicio. Corolario 2.3.4 Las matrices triangulares superiormente, T n (K), inferiormente Tn (K) y diagonales Dn (K) son subespacios vectoriales de Mn (K).

en cuenta que, siendo

Demostración Es suciente con aplicar la proposición anterior teniendo
S T = {(i, j) ∈ {1, · · · , n} × {1, · · · , n} |i > j }, ST = {(i, j) ∈ {1, · · · , n} × {1, · · · , n} |i < j }

y

SD = {(i, j) ∈ {1, · · · , n} × {1, · · · , n} |i = j },
se verica

T n (K) = A ∈ Mn (K) A(S T ) = {0} , Tn (K) = {A ∈ Mn (K) |A(ST ) = {0} }

y

Dn (K) = {A ∈ Mn (K) |A(SD ) = {0}} . 2

104

Álgebra

2.4 Dependencia e independencia lineal
Denición 2.4.1 Si E es un K − e.v., un sistema de vectores de E es
cualquier secuencia nita de vectores de E. Así, si u1 , · · · , un ∈ E, la secuencia u1 , · · · , un es un sistema de n vectores de E.

Observación 25 Para mayor claridad, en ocasiones escribiremos {u1 , · · · , un } para referirnos al sistema u1 , · · · , un . Denición 2.4.2 Si {u1 , · · · , un } es un sistema de vectores de E, diremos que v ∈ E es combinación lineal de u1 , · · · , un si ∃(α1 , · · · , αn ) ∈ Kn tal
que v =
n

αi ui .

i=1

Observación 26 Si v ∈ E es combinación lineal de u1 , · · · , un también diremos que v ∈ E depende linealmente de u1 , · · · , un . Ejemplo 2.4.3 Si consideramos en el R−e.v. R2 con su estructura de espa-

cio vectorial habitual, resulta que (11, 7) depende linealmente de (2, 1), (1, 0), y (3, 2), puesto que (11, 7) = (2, 1) + 3 · (3, 2). Por el mismo motivo, (−3, 0) depende linealmente de (1, 1), (1, 4), pues

(−3, 0) = (−4) · (1, 1) + 1 · (1, 4).
Si E es un K − e.v. y A ⊂ E denotaremos por

L(A) = {v ∈ E |v es combinación lineal de un sistema de vectores de A}.
La siguiente proposición establece que si E es un K − e.v. y A ⊂ E, L(A) es el subespacio vectorial más pequeño que contiene a A.

Proposición 2.4.4 Sean E un K−e.v. y A ⊂ E. Se verica que: 1) L(A)
E, 2)A ⊂ L(A) y 3)∀H E (A ⊂ H ⇒ L(A) ⊂ H ).

Álgebra

105

Demostración Sea H = L(A).

1. Es obvio que 0 ∈ H y, por otra parte, dados α, β ∈ K, y u, v ∈ H, de la denición de H se sigue que existen u1 , · · · , un y v1 , · · · , vm sistemas de vectores de A y ∃(α1 , · · · , αn ) ∈ Kn , ∃(β1 , · · · , βm ) ∈ Km de manera que
n m

u=
i=1

αi ui y v =
i=1

β i vi ,

por lo que
n m

αu + βv = α
i=1 n

αi ui (ααi ) ui +


i=1 m

βi vi (ββi )vi =

=

=
i=1 n+m

i=1

=
i=1

γi wi ,

donde hemos puesto ∀i ∈ {1, · · · , n + m},

(i ≤ n ⇒ γi = (ααi ) ∧ wi = ui ) ∧ (n < i ≤ n + m ⇒ γi = (ββi ) ∧ wi = vi ) ,
y en consecuencia, puesto que w1 , · · · , wn+m es un sistema de n + m vectores de A, concluímos que αu + βv ∈ H. 2. Si v ∈ A, podemos poner, por ejemplo, que v = 1 · v, siendo 1 ∈ K y {v} el sistema de vectores de A considerado, con lo que v ∈ H. 3. Finalmente, si H E es tal que A ⊂ H , según vimos en su momento, cualquier combinación lineal de elementos de H (en particular de elementos de A ⊂ H ) es un elemento de H , con lo que H ⊂ H . 2

Denición 2.4.5 Si E es un K − e.v. y u1 , · · · , un es un sistema de vectores de E, al subespacio vectorial L({u1 , · · · , un }) se le denomina subespacio

106

Álgebra

vectorial generado por el sistema u1 , · · · , un , y del sistema u1 , · · · , un se dice que es un sistema generador de H = L({u1 , · · · , un }). A este subespacio también lo denotaremos por L(u1 , · · · , un ).

Observación 27 Nótese que si todo vector de E se puede expresar como una combinación lineal de u1 , · · · , un , resulta que el subespacio vectorial generado por u1 , · · · , un es H = L({u1 , · · · , un }) = E, que obviamente es un subespacio vectorial de E.
1. Los vectores (1, 0) y (0, 1) constituyen un sistema generador de R2 , pues cualquier vector de R2 se puede expresar como combinación lineal del sistema (1, 0), (0, 1), ya que si (a, b) ∈ R2 , (a, b) = a(1, 0) + b(0, 1). Análogamente

Ejemplos:

(1, 0, 0), (0, 1, 0), (0, 0, 1)
es un sistema generador de R3 y, en general, el sistema de n vectores de Kn

(1, 0, · · · , 0), (0, 1, 0, · · · , 0), (0, 0, · · · , 0, 1)
es un sistema generador de Kn . 2. Los polinomios 1, x, x2 , · · · , xn constituyen un sistema generador de Pn (C), pues si f ∈ Pn (C), f es de la forma f = a0 + · · · + an xn (ya que ∀z ∈ C, f (z) = (a0 + · · · + an xn )(z) = a0 + · · · + an z n ). 3. Como hemos visto, los vectores (1, 0) y (0, 1) constituyen un sistema generador de R2 . Pero el sistema (1, 0), (0, 1), (3, 1) también es un sistema generador de R2 , pues si (a, b) ∈ R2 ,

(a, b) = a(1, 0) + b(0, 1) + 0(3, 1).
De hecho, cualquier sistema de vectores de R2 que contenga a (1, 0) y (0, 1) será un sistema generador de R2 . Nos interesa caracterizar los sistemas generadores con el menor número posible de elementos. Estos sistemas de vectores serán los sistemas de vectores que, constituyendo un sistema generador, son linealmente independientes.

Denición 2.4.6 Siendo E un K − e.v., se dice que el sistema u1 , · · · , un de vectores de E es libre (o también que los vectores u1 , · · · , un son linealmente
independientes) si se verica que ∀(α1 , · · · , αn ) ∈ Kn
n

αi ui = 0 ⇒(α1 , · · · , αn ) = (0, · · · , 0)
i=1

Álgebra

107

Si el sistema de vectores u1 , · · · , un no es libre, se dice que es ligado (o también que los vectores u1 , · · · , un son linealmente dependientes). Así pues,

u1 , · · · , un es ligado ⇔
n

∃(α1 , · · · , αn ) ∈ K − {(0, · · · , 0)} tales que
i=1

n

αi ui = 0 .

habitual el sistema (1, 0), (0, 1) es libre, pues si α(1, 0) + β(0, 1) = (0, 0), tendremos que (α, β) = (0, 0), de donde α = 0 = β. Un argumento similar se puede emplear para demostrar que el sistema de n vectores de Kn

Ejemplo 2.4.7 En el R − e.v. R2 con su estructura de espacio vectorial

(1, 0, · · · , 0), (0, 1, 0, · · · , 0), (0, 0, · · · , 0, 1)
es un sistema libre. bitual el sistema {(2, 1, 1), (1, 1, 0), (1, 0, 0)} es libre, puesto que si (α, β, γ) ∈ R3 es tal que α(2, 1, 1) + β(1, 1, 0) + γ(1, 0, 0) = (0, 0, 0), resulta que (2α +   2α + β + γ = 0 α+β =0 β + γ, α + β, α) = (0, 0, 0), de donde y, en denitiva,  α=0 (α, β, γ) = (0, 0, 0). habitual el sistema {(2, 1), (1, 0), (3, 2), (11, 7)} es ligado, pues

Ejemplo 2.4.8 En el R − e.v. R3 con su estructura de espacio vectorial ha-

Ejemplo 2.4.9 En el R − e.v. R2 con su estructura de espacio vectorial
0(1, 0) + (−1)(2, 1) + (−3)(3, 2) + (11, 7) = (0, 0),

y sin embargo

(0, −1, −3, 1) = (0, 0, 0, 0).

se verica que u1 , · · · , un es libre si y sólo si ∀v ∈ E
n n

Proposición 2.4.10 Si u1 , · · · , un es un sistema de vectores del K − e.v. E,
v=
i=1

α i ui ∧ v =
i=1

β i ui

⇒ (α1 , · · · , αn ) = (β1 , · · · , βn ) .

108

Álgebra

Demostración  ⇒ Si (α1 , · · · , αn ), (β1 , · · · , βn ) ∈ Kn son tales que v =
n

α i ui ∧ v =

n

i=1

0, y como por hipótesis u1 , · · · , un es libre, concluímos que (α1 −β1 , · · · , αn − βn ) = (0, · · · , 0), es decir, ∀i ∈ {1, · · · , n} (αi − βi ) = 0,

i=1

βi ui , resulta que

n

αi ui =

n

i=1

i=1

βi ui , es decir,

n

(αi −βi )ui =

i=1

y por consiguiente ∀i ∈ {1, · · · , n} αi = βi , o lo que es lo mismo,

(α1 , · · · , αn ) = (β1 , · · · , βn ). 
⇐ Supongamos que
n i=1

αi ui = 0. Como también se verica que 0u1 +

· · · + 0un = 0, aplicando la hipótesis resulta que (α1 , · · · , αn ) = (0, · · · , 0). 2

continuidad de los polinomios.)

Ejercicio 2.4.1 En el anillo de polinomios Pn (C), vericar que el sistema {1, x, x2 , · · · , xn } es libre. (Indicación: utilizar inducción sobre  n y la

La siguiente proposición recoge una caracterización de los sistemas ligados.

se verica que u1 , · · · , un es ligado si y sólo si ∃i ∈ {1, · · · , n} tal que ui es combinación lineal de u1 , · · · , ui−1 , ui+1 , · · · , un .

Proposición 2.4.11 Si u1 , · · · , un es un sistema de vectores del K − e.v. E,

Demostración  ⇒ Si u1 , · · · , un es un sistema ligado tendremos que
∃(α1 , · · · , αn ) ∈ Kn − {(0, · · · , 0)} tal que
n

que (α1 , · · · , αn ) = (0, · · · , 0), existe i ∈ {1, · · · , n} tal que αi = 0, y puesto −1 que αi ∈ K, necesariamente αi tiene inverso αi ∈ K, con lo que
n −1 αi · j=1

j=1

αj uj = 0. Ahora bien, puesto

α j uj

−1 = αi · 0 = 0.

Álgebra Pero
−1 αi n j=1 n n

109

·
j=1

αj uj

=
j=1

−1 αi αj uj ,

de donde

−1 −1 αi αj uj = 0, con lo que, teniendo en cuenta que αi αi = 1, n

resulta que

ui =
j=1,j=i

−1 −αi αj uj ,

es decir, ui es combinación lineal de u1 , · · · , ui−1 , ui+1 , · · · , un .  ⇐ Supongamos que
n

ui =
j=1,j=i

αj uj .

En ese caso, pasando ui al segundo miembro y tomando αi = −1, resulta que

(α1 , · · · , αn ) = (0, · · · , 0)
y
n j=1

αj uj = 0, con lo que u1 , · · · , un es un sistema ligado.

2

y v son linealmente dependientes si y solamente si uno de ellos se obtiene multiplicando un escalar por el otro. Por consiguiente, en el caso particular de R2 y R3 , dos vectores serán linealmente dependientes si y sólo si están sobre la misma recta que pasa por 0. Asimismo, si u, v y w son vectores de R3 , u, v y w son linealmente dependientes (o lo que es lo mismo, el sistema {u, v, w} es ligado) si y sólo si al menos uno de los vectores es una combinación lineal de los restantes. Pero el subespacio vectorial generado por dos vectores cualesquiera de R3 es una recta que pasa por el origen, un plano que pasa por el origen, o el propio origen; en cualquier caso, si u, v y w son linealmente dependientes existe un plano que, pasando por 0, contiene a los tres vectores. De manera general:

Ejemplo: Como consecuencia de la proposición anterior, dos vectores u

Proposición 2.4.12 Si E es un K − e.v. y n, r, m ∈ N, se verica que
1. (u ∈ E ∧ u = 0) ⇒ u es libre;

110

Álgebra

2. si u1 , · · · , un es libre y r ≤ n, entonces u1 , · · · , ur es libre; 3. si u1 , · · · , un es tal que ∃i ∈ {1, · · · , n} de manera que ui = 0, entonces el sistema u1 , · · · , un es ligado; 4. si u1 , · · · , un es ligado entonces ∀v1 , · · · , vm ∈ E el sistema

{u1 , · · · , un , v1 , · · · , vm } es ligado.

Demostración 1. Si u ∈ E − {0} y αu = 0, necesariamente α = 0, con lo
Kr es tal que
r

que u es libre. 2. Supongamos que u1 , · · · , un ∈ En es libre, que r ≤ n y que (α1 , · · · , αr ) ∈
j=1

αj uj = 0. En ese caso, deniendo ∀j ∈ {r + 1, · · · , n}
n j=1

αj = 0, tendremos que

αj uj = 0 y, puesto que u1 , · · · , un es libre,

(α1 , · · · , αn ) = (0, · · · , 0) y en particular (α1 , · · · , αr ) = (0, · · · , 0). 3. Si u1 , · · · , un ∈ En es tal que ui = 0, considerando la n-tupla (α1 , · · · , αn ) ∈ Kn denida por la condición αi = 1 ∧ ∀j ∈ {1, · · · , n}(j = i ⇒ αj = 0),
resulta que (α1 , · · · , αn ) = (0, · · · , 0) y
n

αj uj = 0u1 + · · · + 0ui−1 + 1 · 0 + 0ui+1 + · · · + 0un = 0.
j=1

4. Si u1 , · · · , un es ligado, ∃(α1 , · · · , αn ) = (0, · · · , 0) tal que
n

αj uj = 0.
j=1

Dado entonces el sistema v1 , · · · , vm de m vectores de E, deniendo ∀j ∈

{1, · · · , m} βj = 0, tendremos que

n

αj uj +

m

j=1

j=1

βj vj = 0, y puesto que

(α1 , · · · , αn ) = (0, · · · , 0), resulta que (α1 , · · · , αn , β1 , · · · , βm ) = (0, · · · , 0),

Álgebra con lo que u1 , · · · , un , v1 , · · · , vm es ligado.

111

2

Las propiedades 2 y 4 de la proposición anterior podrían enunciarse de manera poco rigurosa del siguiente modo: todo subsistema de un sistema libre es libre y todo supersistema de un sistema ligado es ligado .

Proposición 2.4.13 Si u1 , · · · , un es un sistema de vectores del K − e.v. E
libre y v ∈ E no es combinación lineal de u1 , · · · , un , entonces el sistema u1 , · · · , un , v es libre.

Demostración Supongamos que
n

n j=1

αj uj + βv = 0. En ese caso necesa-

riamente β = 0, puesto que si β = 0, tendríamos que

v=
j=1

−β −1 · αj uj

en contradicción con la hipótesis. Pero si β = 0, entonces
n

αj uj = 0,
j=1

y puesto que u1 , · · · , un es libre, resulta que

(α1 , · · · , αn ) = (0, · · · , 0),
con lo que, en denitiva,

(α1 , · · · , αn , β) = (0, · · · , 0, 0). 2

Corolario 2.4.14 Si u1 , · · · , un es un sistema de vectores del K − e.v. E y
v ∈ E son tales que u1 , · · · , un es libre y u1 , · · · , un , v es ligado, entonces v es combinación lineal de u1 , · · · , un .

112

Álgebra

2.5 Bases y dimensión
2.5.1 Sistemas generadores y bases
Según vimos, si un vector se expresa como combinación lineal de un sistema libre, la expresión del vector como combinación lineal de ese sistema es única. Además, si un sistema libre es a la vez generador de un cierto subespacio, entonces no hay un sistema generador de dicho subespacio que tenga menos vectores que el sistema libre considerado. Las razones anteriores son sucientes para estudiar los sistemas de vectores que son a la vez sistemas generadores y libres. Una vez concluido el estudio de la sección, habremos resuelto un problema adicional: sabremos cuál es el número máximo de vectores linealmente independientes que podemos encontrar en un espacio vectorial dado. (Según sabemos, el número máximo de vectores linealmente independientes que podemos encontrar en R2 es 2, y el número máximo de vectores linealmente independientes que podemos encontrar en R3 es 3. Veremos por ejemplo, que el número máximo de vectores linealmente independientes que podemos encontrar en Rn es n).

Denición 2.5.1 Dados un K − e.v. E y H E, se dice que un sistema u1 , · · · , un de vectores de H es una base de H si u1 , · · · , un es libre y ∀v ∈ H
se verica que v es combinación lineal de u1 , · · · , un .
En otras palabras, una base de un K − e.v. E es un sistema de vectores de E que es simultáneamente libre y generador. En particular, como E E, una base de E es un sistema de vectores de E que es libre y tal que todo vector de E se expresa como combinación lineal de dicho sistema.

B = {u1 , · · · , un } para denotarla. Todo vector v ∈ E se escribe en la forma v = n ai ui , donde los coecientes (a1 , · · · , an ) ∈ Kn están unívocamente i=1 determinados, por la proposición 2.4.10, pero dependen en el orden dado a los vectores u1 , · · · , un . Un cambio en el orden de los vectores u1 , · · · , un da por resultado un cambio correspondiente en el orden de los coecientes del vector v. Esta situación justica la denición de base ordenada: una base ordenada B = (u1 , · · · , un ) de un K − e.v. E es un sistema de vectores libre, generador y ordenado.

Nota: Si u1 , · · · , un es una base de un K − e.v. E, es usual escribir

Álgebra

113

1. El sistema {(1, 0, · · · , 0), · · · , (0, · · · , 0, 1)} de vectores de Kn que hemos visto que es un sistema generador de Kn también es libre, puesto que si (α1 , · · · , αn ) ∈ Kn es tal que

Ejemplos

α1 (1, 0, · · · , 0) + · · · + αn (0, · · · , 0, 1) = (0, · · · , 0),
tendremos que (α1 , · · · , αn ) = (0, · · · , 0). Por consiguiente,

Bn = ((1, 0, · · · , 0), · · · , (0, · · · , 0, 1))
es una base ordenada de Kn . A esta base se la conoce con el nombre de base canónica de Kn y se la denota como Bn . Como caso particular, resulta que B1 = (1) es una base del K − e.v. K. 2. Como un subcaso del ejemplo anterior, resulta que ((1, 0), (0, 1)) es una base ordenada de R2 (es la base canónica de R2 ). Por otra parte el sistema {(2, 1), (−1, 1)} también es una base de R2 , puesto que a) {(2, 1), (−1, 1)} es libre, ya que si α(2, 1) + β(−1, 1) = (0, 0), resulta que (2α − β, α + β) = (0, 0), de donde, resolviendo el sistema

2α − β = 0 α+β =0
obtenemos que α = β = 0, es decir, (α, β) = (0, 0). b) Todo vector de R2 se puede expresar como combinación lineal de {(2, 1), (−1, 1)}, puesto que dado (x, y) ∈ R2 , poniendo

(x, y) = α(2, 1) + β(−1, 1),
resulta que

(x, y) = (2α − β, α + β),
es decir,

x = 2α − β , y =α+β

de donde x + y = 3α, i.e., α = 1 (x + y) y β = y − 1 (x + y) , es decir, 3 3 2 β = 3 y − 1 x; en otras palabras, el sistema de ecuaciones 3

x = 2α − β y =α+β

114 tiene solución ∀(x, y) ∈ R2 y podemos escribir

Álgebra

(x, y) =

1 1 x + y (2, 1) + 3 3

2 1 y − x (−1, 1), 3 3

y en consecuencia {(2, 1), (−1, 1)} es un sistema generador de R2 . 3. Siendo Pn (C) el conjunto de polinomios con coecientes en C de grado ≤ n, se verica que 1, x, · · · , xn es una base de Pn (C) pues a) {1, x, · · · , xn } es libre (compruébese) y b) si f ∈ Pn (C), ∃(a0 , a1 , · · · , an ) ∈ Kn+1 tal que ∀x ∈ C f = a0 +a1 x+· · ·+an xn , con lo que f es combinación lineal de {1, x, · · · , xn }. 4. En el K − e.v. de las matrices columna de n las, Mn×1 (K), siendo ∀i ∈ {1, · · · , n}

ei :

{1, · · · , n} × {1} (j, 1)

→ ;

Mn×1 (K) 1 si j = i 0 si j = i

,

es fácil comprobar que {e1 , · · · , en } una base de Mn×1 (K). A esta base también la denominaremos base can´nica de Mn×1 (K) y la denotaremos por o Bc . Es decir, utilizando la notación matricial usual,       1 0 0  0   1   0        Bc = {e1 , · · · , en } = { .  ,  .  , · · · ,  . }.  .   .   .  . . .

0

0

1

Ejercicio 2.5.1 En el espacio vectorial de la matrices Mm×n (K),

∀i ∈ {1, · · · , m} y ∀j ∈ {1, · · · , n}, sea Eij la matriz que tiene un único coeciente no nulo: Eij (i, j) = 1. Vericar que las mn matrices Eij forman una base de Mm×n (K).

Denición 2.5.2 Si B = (u1 , · · · , un ) es una base ordenada del K − e.v. E
yv=
n i=1

αi ui , a la matriz  α1  .   .  ∈ Mn×1 (K) . αn 

Álgebra

115

la denominaremos matriz de coordenadas del vector v respecto de la base B, o simplemente coordenadas del vector v respecto de B, y la denotaremos por (v)B .

Ejemplo 2.5.3 En el espacio vectorial R3 , siendo
B3 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)),
resulta que

((3, −2, 1))B3
puesto que

 3 =  −2  1 

(3, −2, 1) = 3(1, 0, 0) + (−2)(0, 1, 0) + 1(0, 0, 1). ≤ 3, siendo B = (1, x, x2 , x3 ), resulta que 2x3 + x − 5

Ejemplo 2.5.4 En el espacio vectorial P3 (C) de los polinomios de grado
 −5  1   =  0 , 2 

B

puesto que 2x3 + x − 5 = (−5) · 1 + x + 0 · x2 + 2x3 .

Ejemplo 2.5.5 En el espacio vectorial R2 , siendo B2 = ((1, 0), (0, 1)) y B =
((2, 1), (−1, 1)), resulta que ∀(x, y) ∈ R2 , ((x, y))B2 =
mientras que

x y + 1y 3 − 1 0
1 3 1 x 3

 ((x, y))B = 

1 x 3 2 y 3

 .

En particular,

((1, 0))B2 =
mientras que

((1, 0))B =

−1 3

.

116

Álgebra

Denición 2.5.6 Se dice que un K − e.v. E es de dimensión nita si
∃n ∈ N, y ∃u1 , · · · , un sistema de vectores de E tal que {u1 , · · · , un } es una base de E.
rado, puesto que ∀(x1 , · · · , xn ) ∈ Kn

Ejemplo 2.5.7 ∀n ∈ N se verica que Kn es un K − e.v. nitamente gene(x1 , · · · , xn ) = x1 (1, 0, · · · , 0) + · · · + xn (0, · · · , 0, 1),

con lo que el sistema de n elementos ((1, 0, · · · , 0), · · · , (0, · · · , 0, 1)) es un sistema generador de Kn y, puesto que es libre, es una base de Kn .

Ejemplo 2.5.8 El C − e.v. de los polinomios C[x] no es de dimensión nita, puesto que, razonando por reducción al absurdo, si suponemos que {p1 , · · · , pn } es una base de C[x], siendo
r = max{gr(pi ) |i ∈ {1, · · · , n} },
es obvio que el polinomio xr+1 ∈ C[x] no se puede expresar como combinación lineal del sistema {p1 , · · · , pn }.

2.5.2 Equipotencia de bases
Observación 28 Si {u1 , · · · , un } es un sistema de vectores de un K − e.v.
E, y ∃i ∈ {1, · · · , n} tal que ui es combinación lineal del sistema {u1 , · · · , ui−1 , ui+1 , · · · , un },
entonces cualquier vector que sea combinación lineal de {u1 , · · · , un } es también combinación lineal de

{u1 , · · · , ui−1 , ui+1 , · · · , un },
puesto que si ui =
n j=1,j=i

αj uj y v =

n j=1 n

βj uj , tendremos que

v = β1 u1 + · · · + βi−1 ui−1 + βi
j=1,j=i n

α j uj

+ βi+1 ui+1 + · · · + βn un =

=
j=1,j=i

γ j uj ,

Álgebra

117

donde ∀j ∈ {1, · · · , n} − {i}

γj = (βj + βi αj ) .

Proposición 2.5.9 Sean E un K − e.v., {u1 , · · · , un } una base de E y
{v1 , · · · , vm } un sistema de vectores de E con m > n. En estas condiciones el sistema {v1 , · · · , vm } es ligado.

Demostración Supondremos que ∀i ∈ {1, · · · , m} vi = 0, puesto que en

caso contrario, automáticamente el sistema {v1 , · · · , vm } es ligado. Veamos que aún siendo ∀i ∈ {1, · · · , m} vi = 0, el sistema (v1 , · · · , vm ) es ligado. Puesto que {u1 , · · · , un } es una base de E, ∀j ∈ {1, · · · , m}
n

vj =
i=1

aij ui .

Por consiguiente, suponiendo que
m

βj vj = 0.
j=1

tendremos que

m

n

βj (
j=1 i=1

aij ui ) = 0.

es decir,

n

m

(
i=1 j =1

aij βj )ui = 0.

(en este punto es importante que el alumno utilice una notación no contra ida del sumatorio para entender el paso anterior) con lo que, teniendo en cuenta que {u1 , · · · , un } es una base de E, obtenemos que todos los coecientes de la combinación lineal anterior deben ser iguales a cero, es decir, ∀i ∈ {1, · · · , n},
m

aij βj = 0.
j =1

118 y, puesto que el sistema de ecuaciones homogéneo   a11 β1 + · · · + a1n βm = 0  . . .   a β + ··· + a β = 0 n1 1 nm m

Álgebra

tiene más incógnitas que ecuaciones (m > n), dicho sistema tiene soluciones diferentes de la trivial, por lo que {v1 , · · · , vm } es ligado. 2

Observación 29 Cualquier sistema de 4 o más vectores de R3 es ligado. Corolario 2.5.10 (Equipotencia de bases en un K−e.v. de dimensión nita)
Si E es un K − e.v. nitamente generado y

B = {u1 , · · · , un } y B = {v1 , · · · , vm }
son bases de E, se verica necesariamente que n = m.

(2.10)

{v1 , · · · , vm } es combinación lineal de {u1 , · · · , un } (puesto que {u1 , · · · , un } es base de E) concluímos que m ≤ n (ya que en caso contrario {v1 , · · · , vm } sería ligado, en contradicción con que sea base). Por el mismo motivo, como {v1 , · · · , vm } todo vector del sistema {u1 , · · · , un } es combinación lineal de {v1 , · · · , vm } concluímos que n ≤ m (ya que en caso contrario {u1 , · · · , un } sería ligado, en contradicción con que sea base), y en denitiva obtenemos que n = m. 2
Una vez demostrado que si E es un K − e.v. de dimensión nita todas las bases de E tienen el mismo número de elementos, podemos establecer la siguiente denición:

Demostración Por la proposición anterior, como todo vector del sistema

Denición 2.5.11 Si E es un K − e.v. de dimensión nita y
(u1 , · · · , un ) ∈ En
es una base de E, diremos que la dimensión de E es n y escribiremos

dim(E) = n.

Álgebra

119

Ejemplos:

1. Cómo 1 ∈ K es una base del K − e.v. K, resulta que

dim(K) = 1.
2. Teniendo en cuenta que la base canónica de Kn tiene  n elementos, resulta que dim(Kn ) = n. 3. Puesto que (1, x, · · · , xn ) ∈ (Pn (C))n+1 es una base de Pn (C), tendremos que dim(Pn (C)) = n + 1. A esta base la denominaremos base usual de Pn (C). Además del teorema de equipotencia de bases en un K − e.v. de dimensión nita, de la proposición (2.5.9) también se pueden obtener de manera inmediata los siguientes resultados.

entonces se verica que:

Proposición 2.5.12 Si E es un K − e.v. y {u1 , · · · , un } es una base de E,
1. ({v1 , · · · , vm } sistema de vectores de E ∧ (m > n)) ⇒ {v1 , · · · , vm } ligado; 2. {v1 , · · · , vn } sistema libre de vectores de E ⇒ {v1 , · · · , vn } base; 3. {v1 , · · · , vn } sistema generador de E ⇒ {v1 , · · · , vn } base.

2. Evidente a partir de la proposición (2.4.13) y 1. 3. Si {v1 , · · · , vn } es un sistema generador de E y {v1 , · · · , vn } es ligado, entonces (aplicando la proposición (2.4.11) hasta reducir el sistema {v1 , · · · , vn } a un sistema libre,) existirán r ∈ N, r ≤ n y una base B = {w1 , · · · , wr } de E, tales que ∀i ∈ {1, · · · r} ∃j ∈ {1, · · · , n} de manera que wi = vj . Pero puesto que {w1 , · · · , wr } es una base de E, r = n y puesto que {w1 , · · · , wn } es libre y la n − tupla {v1 , · · · , vn } no es más que una reordenación de la n−tupla {w1 , · · · , wn }, resulta que {v1 , · · · , vn } es libre.2

Demostración 1. Evidente a partir de la proposición (2.5.9).

Ejercicio 2.5.2 Vericar que el sistema {1, 1 + x, x2 } es una base de P2 (C).

120

Álgebra

2.6 Subespacios vectoriales y dimensión
Observación 30 Si E es un K−e.v. de dimensión nita y H
E, entonces H también es de dimensión nita y dim(H) ≤ dim(E), puesto que cualquier sistema libre de vectores de H también es un sistema libre de vectores de E. Nótese además que si H es un subespacio vectorial de E tal que dim(H) = dim(E), se verica necesariamente que H = E, puesto que si (u1 , · · · , un ) ∈ H n es una base de H, entonces (u1 , · · · , un ) también es una base de E, puesto que es un sistema libre de n vectores de E, y en consecuencia al poder expresar todo vector de E como combinación lineal de (u1 , · · · , un ), todo vector de E será también un vector de H, con lo que H = E. 
nitamente generado con dim(E) = n, H base de H con m < n entonces existe

Proposición 2.6.1 (Teorema de extensión de una base) Si E es un K − e.v.
E y (u1 , · · · , um ) ∈ H m es una

(um+1 , · · · , un ) ∈ En−m
tal que (u1 , · · · , um , um+1 , · · · , un ) es una base de E.

Demostración Razonamos por inducción sobre n − m : Base de inducción. Si n − m = 1, entonces m = n − 1 y (u1 , · · · , um ) =

(u1 , · · · , un−1 ). Ahora bien, como (u1 , · · · , un−1 ) es una base de H, (u1 , · · · , un−1 ) es un sistema libre, y por otra parte, teniendo en cuenta que dim(E) = n, resulta que (u1 , · · · , un−1 ) no es una base de E, y por consiguiente ∃v ∈ E tal que v no es combinación lineal de (u1 , · · · , un−1 ); pero, en ese caso, tendremos que (u1 , · · · , un−1 , v) ∈ En es un sistema libre, con lo que obtenemos que (u1 , · · · , un−1 , v) es una base de E. Paso de inducción. Supongamos cierto el resultado para n − m = k, y sea E un K − e.v. tal que dim(E) = n, H E y (u1 , · · · , um ) ∈ H m una base de H tal que n − m = k + 1. En ese caso (u1 , · · · , um ) es un sistema libre de E y, puesto que m < n, (u1 , · · · , um ) no es base de E, por lo que ∃v ∈ E tal que v no es combinación lineal de (u1 , · · · , um ). Por consiguiente (u1 , · · · , um , v) es libre. Pero en ese caso, si consideramos el subespacio vectorial H = L({ui |i ∈ {1, · · · , m}} ∪ {v}), resulta que todo vector de H se expresa como combinación lineal de (u1 , · · · , um , v) y que además este sistema es libre, con lo que (u1 , · · · , um , v) es una base de H . Ahora bien, dim(H ) = m + 1, y por lo tanto, teniendo en cuenta que n − m = k + 1,

Álgebra

121

resulta que n − (m + 1) = k, con lo que aplicando la hipótesis de inducción, ∃(um+2 , · · · , un ) ∈ En−(m+1) tal que (u1 , · · · , um , v, um+2 , · · · , un ) es una base de E; es decir, la demostración está completa. 2

Observación 31 Nótese que el resultado anterior tiene como consecuencia que si (u1 , · · · , um ) es un sistema libre de vectores de E y
dim(E) = n > m,
entonces ∃(um+1 , · · · , un ) ∈ En−m tal que

(u1 , · · · , um , um+1 , · · · , un )
es una base de E, puesto que si es libre, (u1 , · · · , um ) es un sistema generador del subespacio vectorial

H = L({ui |i ∈ {1, · · · , m}}).

E, si dim(H) = 1 se dice que H es una recta de E, si dim(H) = 2, se dice que H es un plano de E, y si dim(E) = n y dim(H) = n − 1, se dice que H es un hiperplano de E. Así por ejemplo, en el C − e.v. P4 (C) = {f ∈ C[x] |gr(f ) ≤ 4}, podemos armar que L((1)) = {f ∈ P4 (C) |∃α ∈ C..∀z ∈ C f (z) = (α · 1) (z) = α }
es una recta de P4 (C), que L((x, x2 )), es decir, el conjunto

Nota. Dados un K − e.v. E, y H

{f ∈ P4 (C) ∃(α, β) ∈ C2 ..∀z ∈ C f (z) = αx + βx2 (z) = αz + βz 2 }
es un plano de P4 (C) y que L((1, x, x2 , x3 )) es un hiperplano de P4 (C).

R3 , H = R3 , resulta que dim(H) = 0, 1 ó 2. Si dim(H) = 0, H = {(0, 0, 0)}. Si dim(H) = 1, y u = (x, y, z) ∈ H, u = (0, 0, 0), tendremos que H = L({u}) = {v ∈ R3 |∃α ∈ R tal que v = αu }, y es fácil ver que la representación gráca de H es la recta que pasa por el punto (0, 0, 0) (puesto que 0 = (0, 0, 0) ∈ H al ser H R3 ) y el punto (x, y, z). Finalmente, si dim(H) = 2, y (u, v) es una base de H, resulta que H = {w ∈ R3 |∃(α, β) ∈ R2 tal que w = αu + βv } y es fácil ver que la representación gráca de H es el plano de R3 que pasa por (0, 0, 0) y por u y v.

Observación 32 Puesto que dim(R3 ) = 3, si H

122

Álgebra

2.7 Rango de un sistema de vectores y de una matriz
Denición 2.7.1 Sean E un K-e.v. y {u1 , · · · , um } un sistema de vectores E. Se denomina rango del sistema {u1 , · · · , um } a la dimensión del
subespacio vectorial L(u1 , · · · , um ). Para indicar que el rango del sistema {u1 , · · · , um } es r escribiremos

rg(u1 , · · · , um ) = r.
Por otra parte, rg((1, 0, 0), (0, 1, 0)) = 2, puesto que al ser {(1, 0, 0), (0, 1, 0)} un sistema libre, constituyen una base del subespacio vectorial que generan.

Ejemplo 2.7.2 En el espacio vectorial R3 , rg((1, 0, 0), (0, 1, 0), (0, 0, 1)) = 3.

Ejemplo 2.7.3 En el espacio vectorial P2 (C), rg(1, x2 , 1 + x2 ) = 2.
A tenor de los resultados vistos hasta ahora, resulta evidente que

rg(u1 , · · · , um , v) = rg(u1 , · · · , um ) ⇔ v ∈ L(u1 , · · · , um ).

al rango de dicho sistema de vectores, es decir,

Denición 2.7.4 Sea A ∈ Mm×n (K). Si {A1 , · · · , An } es el sistema de vectores de Mm×1 (K) formado por las columnas de A, se denomina rango de A

rg(A) = rg(A1 , · · · , An ).   1 1 1 Ejemplo 2.7.5 Dada la matriz A =  1 1 0  ∈ M3 (R), se verica que 1 0 0     1 1 1  1   1   0 ). rg(A) = rg( 1 0 0
Ahora bien, si

       1 1 1 0  1  + β  1  + γ  0  =  0 , α 1 0 0 0

Álgebra

123

tendremos que

  α+β+γ =0 α+β =0  α=0

de donde α = 0 = β = γ, es decir, el sistema es libre, de donde     1 1 1 rg( 1   1   0 ) = 3 0 0 1 y, en consecuencia, rg(A) = 3.

Denición 2.7.6 Si A ∈ Mm×n (K), al subespacio de Mm×1 (K) generado por las columnas de A, L(A1 , · · · , An ), se le denomina espacio columna de A.
Tras el estudio de la siguiente sección, veremos un método sistemático y sencillo para determinar el rango de un sistema de vectores, que obviamente servirá también para determinar el rango de una matriz.

2.8

El teorema de Rouché-Fröbenius

Es importante observar que dado un sistema de m ecuaciones lineales con n incógnitas y con coecientes en K de la forma   a11 x1 + · · · + a1n xn = b1 ,  . . .   a x + ··· + a x = b ,
m1 1 mn n m

determinar el conjunto solución de dicho sistema (i.e., resolver dicho sistema cuando es compatible) signica determinar si existen x1 , · · · , xn de manera que se satisfaga la siguiente expresión:       b1 a1n a11  .   .   .  x1 ·  .  + · · · + xn ·  .  =  .  , . . . bm amn am1 que, de forma reducida, expresaremos:

x1 A1 + · · · + xn An = b,

124 donde

Álgebra

 a1j  .  ∀j ∈ {1, · · · , n} Aj = ·  .  . amj

 b1  .  b =  . . . bm

(Nótese que la expresión anterior es una  ecuación lineal de Mm×1 (K)).  b1  .  Es decir, el sistema será compatible si  .  ∈ Mm×1 (K) se puede . bm expresar como combinación lineal de los vectores columna de Mm×1 (K)     a11 a1n  .   .   . ,··· , . . . . am1 amn Los resultados vistos sobre dependencia e independencia lineal aplicados a este caso concreto nos llevan al siguiente resultado:

Proposición 2.8.1 Dado el sistema de ecuaciones lineales
  a11 x1 + · · · + a1n xn = b1 ,  . . .   a x + ··· + a x = b , m1 1 mn n m
o, lo que es lo mismo,

AX = b
con A ∈ Mm×n (K) y b ∈ Mm×1 (K) y siendo S el conjunto formado por las soluciones del mismo, las siguientes armaciones son equivalentes: 1. El sistema de ecuaciones es compatible (es decir, S = ∅); 2. b ∈ L(A1 , · · · , An ); 3. L(A1 , · · · , An ) = L(A1 , · · · , An , b). 4. rg(A) = rg(A |b) , donde (A |b) es la matriz ampliada asociada al sistema de ecuaciones considerado.

Álgebra

125

Por otra parte, teniendo en cuenta que si un vector se escribe como combinación lineal de un sistema libre, dicha expresión es única, resulta que:

Proposición 2.8.2 Si el sistema de ecuaciones lineales
AX = b
con A ∈ Mn (K) y b ∈ Mn×1 (K) es compatible, son equivalentes las armaciones siguientes: 1. El sistema es compatible determinado. 2. (A1 , · · · , An ) es un sistema libre de Mn×1 (K). 3. (A1 , · · · , An ) es una base de Mn×1 (K). 4. rg(A1 , · · · , An ) = n. 5. rg(A) = rg(A |b) = n.
Al resultado sobre la existencia y unicidad de soluciones de un sistema de ecuaciones lineales que aparece desglosado en las dos últimas proposiciones se le conoce con el nombre de Teorema de Rouché-Fröbenius. Así por ejemplo, el sistema de ecuaciones con coecientes en R

x + y = 2, 2x + 2y = 4,
da lugar a la siguiente combinación lineal de M2×1 (R)

1 2

+y·

1 2

=

2 4

.

Así pues el sistema es compatible, puesto que

2 4
e indeterminado, ya que

∈ L(

1 2

,

1 2

)

(

1 2

,

1 2

) ∈ (M2×1 (R))2

126 es un sistema ligado.

Álgebra

B es una base ordenada de E, siendo v1 , · · · , vm , u ∈ E, resulta que, al estar caracterizado un vector por sus coordenadas respecto de una base ordenada,
m m

Nota importante. Obsérvese que si E es un K − e.v. de dimensión n y

α i vi = u ⇔
i=1 i=1

αi (vi )B = (u)B .

La expresión situada a la derecha del símbolo  ⇔ es una ecuación lineal de Mn×1 (K), de modo que puede ser considerada como un sistema de ecuaciones lineales. Así pues, determinar si un vector u ∈ E depende linealmente o no de un sistema de vectores dado v1 , · · · , vm y hallar, en su caso, α1 , · · · , αm ∈ K tales que
m

αi vi = u,
i=1

consistirá en jar una base B del espacio vectorial E para estudiar (y, en su caso, resolver) la ecuación lineal de Mn×1 (K)
m

αi (vi )B = (u)B
i=1

o, si se preere, el sistema de ecuaciones lineales equivalente. 1. En el espacio vectorial P2 (C) de los polinomios de grado ≤ 2, para determinar si el vector 3 − 2x + x2 pertenece o no al subespacio vectorial L(−x2 + x, x − 3), debemos estudiar si existen α, β ∈ C tales que

Ejemplos.

α(−x2 + x) + β(x − 3) = 3 − 2x + x2 ;
siendo B = (1, x, x2 ), el problema anterior es equivalente a

α(−x2 + x)B + β(x − 3)B = (3 − 2x + x2 )B ;
es decir,

     0 −3 3 α  1  + β  1  =  −2  , −1 0 1

Álgebra o, lo que es lo mismo, a resolver el sistema de ecuaciones:   −3β = 3, α + β = −2,  −α = 1, que tiene como solución α = β = −1. 2. Resolver el sistema de ecuaciones lineales

127

x−y =2 3x + y = 0,
es equivalente a ver si es posible expresar el vector lineal de los vectores

2 0

como combinación

1 3 x 1 3

y

−1 1 +y

de la forma:

−1 1

=

2 0

.

Este sistema de ecuaciones es compatible determinado, puesto que el sistema 1 −1 ( , ) es un sistema libre de M2×1 (R) y, puesto que la dimensión 3 1 2 de M2×1 (R) es 2, constituye una base y cualquier vector (en particular ) 0 se puede expresar como combinación lineal suya.

Teorema 2.8.3 Dado el sistema de ecuaciones lineales
  a11 x1 + · · · + a1n xn = b1 ,  . . .   a x + ··· + a x = b , m1 1 mn n m AX = b
con A ∈ Mm×n (K) y b ∈ Mm×1 (K) y siendo S el conjunto formado por las soluciones del mismo, se verica que: 1. El conjunto SH solución de la ecuación homogénea

o, lo que es lo mismo,

x1 A1 + · · · + xn An = (0),
es un subespacio vectorial de Kn .

128

Álgebra

2. Si la ecuación lineal (o, si se preere, el sistema de ecuaciones lineales)

x1 A1 + · · · + xn An = b,
es compatible, S es su conjunto solución, y (α1 , · · · , αn ) ∈ S, entonces ∀(β1 , · · · , βn ) ∈ Kn

((β1 , · · · , βn ) ∈ S ⇔ ((β1 , · · · , βn ) − (α1 , · · · , αn )) ∈ SH )

Demostración Ejercicio.

2

Observación 33 Como consecuencia del teorema anterior, el conjunto solu-

ción de un sistema de ecuaciones lineales se obtiene sumando a una solución cualquiera de dicho sistema todas las soluciones del sistema homogéneo asociado. Es decir, si (α1 , · · · , αn ) es una solución cualquiera del sistema de ecuaciones lineales, x1 A1 + · · · + xn An = b, siendo S su conjunto solución y SH el conjunto solución del sistema homogéneo asociado, se verica que:

S=

(γ1 , · · · , γn ) ∈ Kn

∃(β1 , · · · , βn ) ∈ SH .. (γ1 , · · · , γn ) = (α1 , · · · , αn ) + (β1 , · · · , βn )

Es usual recalcar esta circunstancia escribiendo

S = (α1 , · · · , αn ) + SH .
Por otra parte, si (α1 , · · · , αn ) es una solución cualquiera de la ecuación lineal x1 A1 + · · · + xn An = b, y (β1 , · · · , βn ) es una solución de la ecuación lineal

x1 A1 + · · · + xn An = c,
resulta que (α1 + β1 , · · · , αn + βn ) es solución de la ecuación lineal

x1 A1 + · · · + xn An = b + c.
Este hecho se conoce con el nombre de principio de superposición de

soluciones.

Álgebra

129

Denición 2.8.4 Dado el sistema de ecuaciones lineales,
x1 A1 + · · · + xn An = b,
con A ∈ Mm×n (K) y b ∈ Mm×1 (K), denominaremos sistema fundamental de soluciones de dicho sistema a cualquier base del espacio vectorial SH de soluciones de su ecuación homogénea asociada.

Observación 34 Nótese que si (w1 , · · · , wr ) es un sistema fundamental de soluciones del sistema de ecuaciones lineales
x1 A1 + · · · + xn An = b,
siendo S su conjunto solución y s ∈ S una solución particular de dicha ecuación, se verica que

u ∈ S ⇔ ∃λ1 , · · · , λr ∈ K tal que u = s + λ1 w1 + · · · + λr wr .

Ejemplo: Dado el sistema de ecuaciones lineales
x + y + z = 2, 2x + 2y + 2z = 4,
la ecuación lineal de M2×1 (R) correspondiente es

x

1 2

+y

1 2

+z

1 2

=

2 4 1 2

. , 1 2 , 1 2 )

El sistema es compatible e indeterminado de hecho ( es un sistema ligado y

2 1 1 1 1 ∈ L( , , ) = L( ). 4 2 2 2 2 El conjunto solución se puede expresar mediante la suma de una solución particular del sistema a todas las del homogéneo. Resolviendo el sistema homogéneo asociado por el método de Gauss-Jordan tenemos que la solución es   x = −s − t, y = s,  z = t,

130 es decir,

Álgebra

     x −1 −1  y  = s 1  + t 0  z 0 1 (x, y, z) = s(−1, 1, 0) + t(−1, 0, 1).

o, si se preere, Los vectores (1, 0, −1) y (1, −1, 0) constituyen una base de SH . Por consiguiente ((1, 0, −1), (1, −1, 0)) es un sistema fundamental de soluciones del sistema dado. Como (0, 0, 2) es una solución particular de dicha ecuación, resulta que:

S = {(x, y, z) ∈ R3

∃α, β ∈ R .. (x, y, z) = }. = (0, 0, 2) + α(−1, 1, 0) + β(−1, 0, 1)

2.9 Método de Gauss y rango
En esta sección vamos a ver un método sistemático que servirá para determinar el rango de una matriz y de un sistema de vectores.

2.9.1 Transformaciones elementales por columnas y matrices elementales
Al estudiar un método para hallar la inversa de una matriz, vimos en el capítulo 1 que las transformaciones elementales por las son invertibles, y que la inversa de una transformación elemental es una transformación elemental, según el cuadro TRANSFORMACIÓN Fi = Fi + λFj TRANSFORMACIÓN INVERSA Fi = Fi − λFj 1 Fi = Fi λ Fi ↔ Fj

Fi = λFi (λ = 0) Fi ↔ Fj

Álgebra

131

Por el mismo motivo, las correspondientes transformaciones elementales por columnas son invertibles, y la tabla correspondiente será la siguiente: TRANSFORMACIÓN Ci = Ci + λCj TRANSFORMACIÓN INVERSA Ci = Ci − λCj 1 Ci = Ci λ Ci ↔ Cj

Ci = λCi (λ = 0) Ci ↔ Cj

Denotamos por S ij (λ) a la matriz elemental asociada a la transformación Ci = Ci + λCj , por P i (λ) a la matriz elemental asociada a la transformación Ci = λCi (λ = 0) y por E ij a la matriz elemental asociada a la transformación Ci ↔ Cj . No es difícil vericar (y lo comprobaremos también al realizar la práctica 2 en el aula informática) que valen las siguientes identidades:

S ij (λ) = Sji (λ) P i (λ) = Pi (λ) E ij = Eij
Además vale el siguiente teorema:

Teorema 2.9.1 Si A ∈ Mm×n (K) y E es la matriz elemental de orden n
que se obtiene al realizar la transformación elemental t sobre las columnas de In , según el esquema t In −→ E,

entonces si A es la matriz resultante de realizar la transformación t sobre las columnas de A según el esquema

t A −→ A ,
resulta que

A =A·E

132

Álgebra

Es decir, en este caso hay que multiplicar por la matriz elemental correspondiente pero por la derecha en lugar de por la izquierda.

sobre la matriz

Ejercicio 2.9.1 Verifíquese el resultado anterior para t ≡ C2 = C2 + 3C1
 1 0 2 A =  3 1 1 , 0 1 4 

es decir, comprobar que si A es la matriz resultante de hacer actuar t sobre A, entonces A = A · S 21 (3) = A · S12 (3).

2.9.2 Método de Gauss para calcular el rango de una matriz
Buscamos un método que nos permita determinar de un modo sencillo el rango de una matriz A ∈ Mm×n (K). Para ello, vamos a comprobar en primer lugar que al realizar transformaciones elementales sobre las columnas de una matriz A no se altera su rango. El siguiente lema se aplicará en la demostración del teorema principal:

Lema 2.9.2 Si E es un K − e.v. y (u1 , · · · , un ) y (v1 , · · · , vm ) son sistemas
de vectores de E, se verica que

  u1 , · · · , un ∈ L(v1 , · · · , vm ) ∧ L(u1 , · · · , un ) = L(v1 , · · · , vm ) ⇔  v1 , · · · , vm ∈ L(u1 , · · · , un )

Demostración Se deja como ejercicio.

2

Teorema 2.9.3 Si A ∈ Mm×n (K), y B ∈ Mm×n (K) es la matriz resultado

de realizar una transformación elemental por columnas t sobre A, se verica que rg(A) = rg(B)

Álgebra

133

Demostración Para demostrar el resultado, comprobaremos que si
t A −→ B,
entonces L(A1 , · · · , An ) = L(B 1 , · · · , B n ), con lo que rg(A) = rg(B). Distingamos tres posibilidades: a) t ≡ Ci = Ci + λCj . En ese caso todos los vectores columna de A y B coinciden, salvo el i − esimo; pero B i = Ai + λAj y Ai = B i − λAj = ´ i j B − λB , con lo que, teniendo en cuenta el lema anterior, concluimos que L(A1 , · · · , An ) = L(B 1 , · · · , B n ). b) t ≡ Ci = λCi (λ = 0). En ese caso todos los vectores columna de A y B coinciden, salvo el i − esimo; pero B i = λAi y Ai = (λ−1 )B i , con lo ´ que, teniendo en cuenta el lema anterior, concluimos que L(A1 , · · · , An ) = L(B 1 , · · · , B n ). c) Finalmente si t ≡ Ci ↔ Cj , es obvio que L(A1 , · · · , An ) = L(B 1 , · · · , B n ). 2 Es obvio, a partir de la proposición anterior, que si en lugar de realizar una transformación elemental, realizamos un número nito de ellas t1 , · · · , tr el rango se conserva. Es decir, si

t1 tr A −→, · · · , −→ B,
necesariamente rg(A) = rg(B). Vamos a considerar ahora un tipo de matrices cuyo rango se calcula de un modo sencillo:

Denición 2.9.4 Se dice A ∈ Mm×n (K) es una matriz gaussiana si ∀j ∈
{1, · · · , n} la columna Aj de A verica una de las dos siguientes condiciones:
G.1 Aj = (0) ∈ Mm×1 (K), G.2 ∃i ∈ {1, · · · , m} tal que

Aj (i, 1) = A(i, j) = 0 ∧ (∀k ∈ {j + 1, · · · , n} A(i, k) = 0) .

134

Álgebra

Ejemplo 2.9.5 Las siguientes matrices son gaussianas    
3 0 1 0 1  1 0 1   1 0     2 0 1 , 0 1     0 0 1   0 1 1 0 0 0 0 Sin embargo la matriz   ,   0 1 1 0       0  0 ,  0 0 0 0 0 0 0 1 1 1 1 0        1 1 1 1 1 0 1 0

   2 1 0 0  0   , 0 1 0 . 0  0 0 1 0

2 1 2 0 0

no es gaussiana, pues el primer vector columna no satisface ni la condición G.1 ni la condición G.2.

Proposición 2.9.6 Si A ∈ Mm×n (K) es una matriz gaussiana, entonces el

rango de A coincide con el número de vectores columna no nulos de A. En particular, los vectores columna no nulos de la matriz gaussiana A constituyen una base del espacio columna de dicha matriz,

L(A1 , · · · , An ).

Demostración Sea
I = {i ∈ {1, · · · , n} Ai = (0) },
y supongamos que el número de elementos de I es k. Por el teorema 2.9.3 podemos aplicar transformaciones elementales por columna y suponer que la columnas nulas de A sean las últimas. Entonces

I = {1, · · · , k} k ≤ n.
Consideremos el sistema

(A1 , · · · , Ak ).
Si demostramos que el sistema (A1 , · · · , Ak ) es libre, habremos concluido la demostración, pues

∀i ∈ {k + 1, · · · , n}, Ai = (0).

Álgebra

135

Razonamos por reducción al absurdo. Supongamos que
∃(α1 , · · · , αk ) ∈ Kk , (α1 , · · · , αk ) = (0, · · · , 0),
tal que En ese caso, siendo

α1 A1 + · · · + αk Ak = (0). t = min{i ∈ I |αi = 0 },

resulta que At = (0) y, como A es una matriz gaussiana, existirá

h ∈ {1, · · · , m} tal que A(h, t) = γ = 0
y tal que ∀s ∈ {t + 1, · · · , n}

A(h, s) = 0,
o lo que es lo mismo, y ∀s ∈ {t + 1, · · · , n},

At (h, 1) = γ As (h, 1) = 0.

Pero en ese caso tendremos que

0 = (0)(h, 1) = αt At + · · · + αk Ak (h, 1) = = αt At (h, 1) + · · · + αk Ak (h, 1) = αt γ,
de donde αt = 0, lo que contradice que t = min{i ∈ I |αi = 0 }.

2

A partir de la proposición anterior, está claro en qué consiste el método de Gauss para determinar el rango de una matriz: se trata de realizar transformaciones elementales por columna sobre dicha matriz hasta obtener una matriz gaussiana, cuyo rango se determina de manera inmediata. Esto es siempre posible aplicando la siguiente estrategia sobre la matriz considerada A de n columnas: 1. Consideramos la primera columna de A : j = 1. 2. Si Aj = (0) ir al paso 4. 3. Si Aj = (0) seleccionar un coeciente no nulo de dicha columna y hacer ceros (utilizando transformaciones elementales por columnas) todos los coecientes situados en su misma la a su derecha.

136

Álgebra 4. Hacemos j = j + 1. 5. Si j = n. FIN. 6. Si j < n ir al paso 2. La nueva matriz obtenida tras el proceso anterior es una matriz gaussiana.

Ejercicio 2.9.2 Determinar el rango de las siguientes matrices:
 1  1   2 0 . 2 1 0 1  1 1  , 1  1 −1 3 2 5 1 1 1  0 1 0 ,  1 −1 1 2 1 0 

   2 1 2 1  1   , 0 1 1  1  2 0 2 1

Observación 35 Si el problema que se intenta resolver consiste en deter-

minar el rango de un sistema de vectores {v1 , · · · , vm } de un K − e.v. E de dimensión nita, jada una base ordenada B de E, consideraremos la matriz C ∈ Mn×m (K) tal que ∀i ∈ {1, · · · , m}

C i = (vi )B
y realizaremos transformaciones elementales por columnas sobre C hasta obtener una matriz gaussiana.

Ejemplo 2.9.7 En el R − e.v. R3 con su estructura de espacio vectorial
habitual, para determinar el rango del sistema

{(2, 1, 1), (1, 1, 0), (1, 0, 0)},
consideramos la matriz cuyas columnas son las coordenadas de los vectores del sistema anterior respecto de la base canónica B3 de R3   2 1 1 C= 1 1 0  1 0 0 y observamos que es una matriz gaussiana, por lo que rg(C) = 3, i.e.,

rg((2, 1, 1), (1, 1, 0), (1, 0, 0)) = rg((2, 1, 1)B3 , (1, 1, 0)B3 , (1, 0, 0)B3 ) = = rg(C) = 3
es decir {(2, 1, 1), (1, 1, 0), (1, 0, 0)} es libre, y puesto que dim(R3 ) = 3, resulta que es una base de R3 .

Álgebra

137

Ejemplo 2.9.8 Para hallar el rango del sistema de vectores
{1 + x − 2x2 , 2 − 2x3 , x − 2x2 + x3 }
del C−e.v. P3 (C) consideramos la base B = (1, x, x2 , x3 ), y la matriz A cuyas columnas son las coordenadas de los vectores del sistemas dado respecto de B, es decir,   1 2 0  1 0 1   A=  −2 0 −2  . 0 −2 1 El rango del sistema de vectores es el rango de A.     1 2 0 1 2 −1 c3 = c3 − 1 c2 c3 = c3 − c1  2  1 0 1  1 0 0      −→ −→  −2 0 −2   −2 0  0 0 −2 1 0 −2 1   1 2 0  1 0 0     −2 0 0  0 −2 0 con lo que

rg(1 + x − 2x2 , 2 − 2x3 , x − 2x2 + x3 ) = rg(A) = 2.
Además hemos obtenido que    1 2  1  0    L(  −2   0   0 −2

     0 1 2 0   1  0  0  1     ) = L(  −2   0   0 ) = −2  1 0 −2 0    1 2  1  0    = L(  −2   0 ) 0 −2 con lo que los vectores cuyas coordenadas corresponden a estas dos últimas matrices columna son linealmente independientes y constituyen una base del subespacio considerado, es decir, (1 + x − 2x2 , 2 − 2x3 ) es una base de L(1 + x − 2x2 , 2 − 2x3 , x − 2x2 + x3 ).

138

Álgebra

Una vez obtenido un método sistemático para determinar el rango de un sistema de vectores, podemos aplicar dicho método de forma análoga al ejemplo anterior para:

• determinar si un vector u pertenece o no a la variedad lineal generada por un sistema dado de vectores (v1 , · · · , vm ), estudiando si rg(v1 , · · · , vm , u) = rg(v1 , · · · , vm ), • obtener una base de un subespacio vectorial a partir de un sistema generador del mismo.

2.9.3 Algoritmo de extensión de una base
Sea H un subespacio de dimensión k de un espacio vectorial E de dimensión nita n. Dada una base BH = {u1 , · · · , uk } de H, queremos determinar un algoritmo para extender la base BH hasta obtener una base BE del espacio vectorial E, en el que H está sumergido. Sea B una base pre-jada del espacio total E. Es suciente con considerar la matriz U cuyas columnas son las coordenadas de los vectores {u1 , · · · , uk } (que constituyen la base BH del subespacio vectorial H ) respecto de la base B , añadir a esa matriz los vectores columna de la matriz identidad de orden la dimensión del espacio total E (el rango de la nueva matriz (U |In ) es n) y aplicar el método de Gauss por columnas sin intercambiar el orden de las columnas. Las n columnas no nulas de la matriz gaussiana G obtenida son las coordenadas, respecto de la base B, de los n vectores de una base del espacio total E (rango(G) = rango(U |In )). Ahora, las columnas de la matriz original (U |In ) correspondientes a las columnas no nulas de G dan las coordenadas, respecto de la base B, de n vectores que son una extensión de la base BH .

L(u1 , u2 ), donde, respecto de la base canónica, u1 = (1, −1, 2, 0) y u2 = (1, 1, 1, 1). El sistema libre BH = {u1 , u2 } es una base de H. Aplicando el método de Gauss a la matriz (U |I4 ) se obtiene:     1 0 0 0 0 0 1 1 1 0 0 0  −1 1 0 1 0 0  c2 = c2 − c1  −1 2 1 1 0 0       2 1 0 0 1 0  c3 = c3 − c1  2 −1 −2 0 1 0  → 0 1 0 0 0 1 0 1 0 0 0 1

Ejemplo 2.9.9 Sean E = R4 y B = B4 la base canónica de R4 . Sea H =

Álgebra

139

 c6 = c6 − c2    →  1 0 0  −1 2 1   2 −1 −2 0 1 0

1 0 0 −1 2 1 2 −1 −2 0 1 0  0 0 0 0 0 0   2 1 −3  0 0 0

 0 0 c = c4 − c3 0 −2  4  c6 = c6 + 2c3 1 1  → 0 0  1 0 0 c5 = c5 − 1 c4  2 −1 2 1 c6 = c6 + 3 c4  2  2 −1 −2 → 0 1 0 0 1 0 0

0 0 2 0

0 0 0 0

 0 0  . 0  0

Entonces los vectores de coordenadas canónicas {(1, −1, 2, 0), (1, 1, 1, 1), (1, 0, 0, 0), (0, 1, 0, 0)} forman una extensión de BH a una base de R4 .

2.9.4 Rango y espacio la de una matriz
por las las de A, L(A1 , · · · , Am ), se le denomina espacio la de A.

Denición 2.9.10 Si A ∈ Mm×n (K) al subespacio de M1×n (K) generado

Vamos a demostrar que la dimensión del espacio la de una matriz coincide con la dimensión de su espacio columna:

Teorema 2.9.11 Si A ∈ Mm×n (K) entonces
rg(A) = dim(L(A1 , · · · , Am )) = dim(L(A1 , · · · , An )).

Demostración Dada A ∈ Mm×n (K), supongamos que (b1 , · · · , bk ) es una
base de L(A1 , · · · , Am ), donde ∀i ∈ {1, · · · , k} bi = (bi1 , · · · , bin ). En ese caso A1 = c11 b1 + · · · + c1k bk . . .

Am = cm1 b1 + · · · + cmk bk .
Ahora bien, esta últimas son igualdades entre vectores de M1×n (K), por lo que los coecientes correspondientes de las matrices la situadas a ambos lados de la igualdad deberán coincidir, es decir, ∀j ∈ {1, · · · , n}

a1j = c11 b1j + · · · + c1k bkj . . . amj = cm1 b1j + · · · + cmk bkj .

140

Álgebra

Las igualdades anteriores se pueden expresar matricialmente ∀j ∈ {1, · · · , n} del siguiente modo:       a1j c11 c1k  .   .   .   .  = b1j  .  + · · · + bkj  .  . . .

amj

cm1

cmk

Pero de estas igualdades se sigue que     c1k c11  .   .  A1 , · · · , An ∈ L( .  , · · · ,  . ) . . cm1 cmk con lo que

dim(L(A1 , · · · , An )) ≤ k. dim(L(A1 , · · · , An )) ≤ dim(L(A1 , · · · , Am )).

Pero k = dim(L(A1 , · · · , Am )), con lo que hemos probado que Por otra parte, teniendo en cuenta que la matriz considerada A era una matriz arbitraria, podemos aplicar el razonamiento anterior a la matriz t A obteniendo:

dim(espacio columna de t A) ≤ dim(espacio la de t A),
pero esta desigualdad es equivalente a la siguiente:

dim(espacio la de A) ≤ dim(espacio columna de A),
con lo que, en denitiva, obtenemos que

dim(L(A1 , · · · , Am )) = dim(L(A1 , · · · , An )). 2

Observación 36 De forma análoga a como se ha visto con las columnas, se puede demostrar que las operaciones elementales por las no cambian el rango de una matriz. Como consecuencia del teorema anterior, el rango de una matriz se puede obtener también operando por las en lugar de por columnas. De hecho, no es difícil convencerse de que los vectores la distintos de cero de una matriz en forma escalonada constituyen una base del espacio la de A, por lo que el método de eliminación gaussiana por las es un método alternativo al método de Gauss visto para determinar el rango de una matriz.

Álgebra

141

Como colofón, y para nalizar esta parte del capítulo, vamos a recoger en un teorema varios resultados equivalentes como consecuencia de todo lo visto:

Teorema 2.9.12 Si A ∈ Mn (K) son equivalentes:

1. A es invertible. 2. El sistema de ecuaciones lineales AX = (0) sólo tiene la solución trivial. 3. A es equivalente por las a In . 4. El sistema AX = b es compatible determinado para toda matriz columnas b ∈ Mn×1 (K). 5. rg(A) = n. 6. Los vectores la de A son linealmente independientes. 7. Los vectores columna de A son linealmente independiente. 8. det(A) = 0. (Esta última condición quedará establecida más claramente después de realizar la práctica 2 en el aula informática).

2.10

Ejercicios

2.10.1 Ejercicios resueltos
1. Encontrar un vector u diferente de cero cuyo punto inicial es P = (−1, 3, −5) tal que a) u tiene la misma dirección que v = (6, 7, −3). b) u tiene dirección opuesta a la de v = (6, 7, −3). 2. Sean u = (−3, 1, 2), v = (4, 0, −8),y w = (6, −1, −4). Encontrar los escalares c1 , c2 , c3 tales que c1 u + c2 v + c3 w = (2, 0, 4). 3. Demostrar que no existen los escalares c1 , c2 , c3 tales que c1 (−2, 9, 6)+ c2 (−3, 2, 1) + c3 (1, 7, 5) = (0, 5, 4). 4. Sean P el punto (2, 3, −2) y Q el punto (7, −4, 1). a) Encontrar el punto medio del segmento de recta que une a P y Q. b) Encontrar el punto sobre el segmento de recta que une a P y Q y está 3 a 4 de la distancia de P a Q.

142

Álgebra

5. Suponer que la traslación de un sistema de coordenadas xy se hace para obtener un sistema de coordenadas x y cuyo origen O tiene las coordenadas (2, −3). a) Encontrar las coordenadas x y del punto P cuyas coordenadas xy son (7, 5). b) Encontrar las coordenadas xy del punto Q cuyas coordenadas x y son (−3, 6). c) Trazar los ejes de coordenadas xy y x y y localizar los puntos P y Q. 6. Demostrar geométricamente que si u y v son vectores en el espacio bidimensional o en el espacio tridimensional, entonces

u+v ≤ u

+

v

.

7. a) Demostrar que v = (a, b) y w = (−b, a) son vectores ortogonales. b) Usar el resultado del inciso a) para encontrar dos vectores que sean ortogonales a v = (2, −3). c) Encontrar dos vectores unitarios que sean ortogonales a (−3, 4). 8. Explicar por qué cada una de las siguientes expresiones carece de sentido. Si u, v, w son vectores en el plano o en el espacio tridimensional y k es un número real, a) u · (v · w). b) (u · v) + w. c) u · v . d) k · (u + v). 9. Sean vectores i, j y k unitarios a lo largo de los ejes positivos x, y y z de un sistema de coordenadas rectangulares en el espacio tridimensional. Si v = (a, b, c) es un vector diferente de cero, entonces los ángulos α, β,y γ entre v y los vectores i, j y k , respectivamente, se denominan ángulos directores de v , y los números cos(α), cos(β) y cos(γ) se denominan cosenos directores de v. a) Demostrar que cos(α) = a . v b) Encontrar cos(β) y cos(γ). c) Demostrar que v = (cos(α), cos(β),cos(γ)). v

Álgebra d) Demostrar que cos2 (α) + cos2 (β) + cos2 (γ) = 1.

143

10. Demostrar que si v es ortogonal tanto a w1 como a w2 , entonces v es ortogonal a k1 w1 + k2 w2 para todos los escalares k1 y k2 . 11. Encontrar las ecuaciones paramétricas de la recta que pasa por los puntos dados. a) P = (5, −2, 4) y Q = (7, 2, −4). b) P = (0, 0, 0) y Q = (2, −1, −3).   x=0 y=t 12. Demostrar que la recta r : ∞<t<∞  z=t a) pertenece al plano π1 : 6x + 4y − 4z = 0, b) es paralela al plano π2 : 5x − 3y + 3z = 1 y está por abajo de éste, c) es paralela al plano π3 : 6x + 2y − 2z = 1 y está por arriba de éste. 13. Encontrar la ecuación del plano π1 que pasa por el punto P = (3, −6, 7) y es paralelo al plano π2 : 5x − 2y + z − 5 = 0. 14.  Demostrar que las rectas   x − 3 = 4t  x + 1 = 12s y−4=t y − 7 = 6s , r1 : ∞ < t < ∞ y r2 :   z−1=0 z − 5 = 3s se cortan y encontrar el punto de intersección. 15.

∞<s<∞

15. Hallar la ecuación del plano π que contiene las rectas del ejercicio
v v

16. Demostrar que si v es un vector diferente de cero en Rn , entonces tiene la norma euclídea 1. 17. ¾Para qué valores de k se cumple que u y v son ortogonales? a) u = (2, 1, 3), v = (1, 7, k). b) u = (k, k, 1), v = (k, 5, 6).

144

Álgebra
2

18. Demostrar la identidad u + v 2 + u − v 2 = 2 u 2 + 2 v vectores en Rn . Interpretar geométricamente este resultado en R2 .

para

19. Demostrar que si u y v son vectores ortogonales en Rn tales que √ u = 1 y v = 1, entonces d(u, v) = 2. Interpretar geométricamente este resultado en R2 . 20. Sea (F(R, R), +, ◦) el espacio vectorial de las funciones de R en R. Determinar si los siguientes conjuntos son o no subespacios vectoriales de F(R, R) : a) {f ∈ F(R, R) |∀x ∈ R f (x) = f (−x)} . b) {f ∈ F(R, R) | f (1) = 0} . c) {f ∈ F(R, R) | f (2) = f (3)} . 21. Demostrar que el subconjunto H formado por todas las n − tuplas de números reales tales que los elementos de cada n − tupla forman una progresión aritmética, es un subespacio vectorial de Rn . 22. Se dice que A ∈ Mn (K) es simétrica si t A = A. Si denotamos por Sn (K) al conjunto de las matrices simétricas de orden n, demostrar que Sn (K) es un subespacio vectorial de Mn (K). Recordemos que una matriz A ∈ Mn (K) es antisimétrica si t A = −A. ¾Constituyen las matrices antisimétricas un subespacio vectorial de Mn (K)? Justifíquese la respuesta. 23. En R4 se considera el subespacio vectorial H = L(A) generado por el conjunto A de vectores A = {(1, −1, 0, 0), (0, 1, 1, 0), (2, −1, 1, 0), (3, −3, 0, 0). ¾Pertenece el vector (1, 1, 1, 0) al subespacio vectorial H? 24. En el R − e.v. R3 con su estructura de espacio vectorial habitual determinar si los sistemas de vectores

(1, 1, 1), (1, 1, 0), (1, 0, 0) y (1, 2, 3), (2, 0, 1), (−1, 2, 2)
son libres o ligados. 25. Consideramos el Z2 −espacio vectorial de los bytes (Z8 , +, ·) con la 2 suma y producto por escalares ya denidos. Se pide determinar si el sistema de vectores (1, 0, 0, 0, 1, 1, 1, 0), (0, 1, 1, 1, 1, 1, 1, 0)

Álgebra

145

es libre o ligado y hallar el subespacio vectorial generado por el conjunto de esos dos vectores. 26. En el espacio vectorial P4 (C) de los polinomios de grado menor o igual que 4 con coecientes en C se considera el polinomio p(x) = x4 − x2 + 2. Demostrar que el sistema p(x), p (x), p (x), p (x) formado por el polinomio p(x) y sus sucesivas derivadas (hasta la tercera) es un sistema libre. 27. En el espacio vectorial F(N, R) de las sucesiones de números reales, con la suma y producto habituales, consideramos el conjunto

H = {(xn ) ∈ F (N, R) |∀n ∈ N xn+2 = xn+1 + xn }
a) Demostrar que H es un subespacio vectorial de F(N, R). b) Comprobar que dim(H) = 2. 28. Hallar el rango de las siguientes matrices:   1 3 0 2      −1 1 2 1  1 3 2 1 0 1 7 1 1   A =  2 1 1 , B =  2 2 3 0 , C =  2 1 2 1 3 4 .    1 6 2 2  0 2 0 1 2 1 1 3 1 5 1 1 0 29. Encontrar una base y hallar la dimensión del espacio de matrices triangulares superiormente T n (K). T n (K) = { A= (aij )∈ Mn (K) | aij = 0 si j < i }. 30. En el espacio vectorial Z5 , hallar una base del subespacio vectorial 2

H = L({ 0 1 0 1 1 0 0 0 1 0 ,

,

0 1 0 0 1

,

0 1 1 1 1 }).

31. En el espacio vectorial R3 , hallar una base del subespacio vectorial

H = L({(3, 2, −1), (1, 1, 1), (4, 3, 0)}).

146

Álgebra

2.10.2 Ejercicios propuestos
1. Sea S2 = (O, (e1 , e2 )) el sistema de coordenadas ortogonales canónico de R2 : O = (0, 0), e1 = (1, 0), e2 = (0, 1). a) Dado el vector v = (2, 3), hallar las coordenadas de los vectores

v + e1 ,

v − e1 ,

1 v. 2

b) Comprobar geométricamente los resultados obtenidos en el apartado a). 2. Sea S2 = (O, (e1 , e2 )) el sistema de coordenadas ortogonales canónico de R2 y sean OP = (1, 2) y OQ = (2, 1) dos vectores de R2 . a) Determinar las coordenadas del vector P Q en S2 . b) Determinar las coordenadas del vector P Q en el sistema ortogonal S 2 obtenidos por traslación de O al punto O = (−2, 1). c) Calcular las normas del vector P Q utilizando sus coordenadas en S2 y S 2 . ¾Son iguales las distancias entre OP y OQ y entre O P y O Q? 3. En R3 , con el sistema de coordenadas ortogonales canónico S3 = (O, (e1 , e2 , e3 )) :

O = (0, 0, 0),

e1 = (1, 0, 0),

e2 = (0, 1, 0),

e3 = (0, 0, 1),

sean v = (−1, 0, 1), w = (1, −1, 2) y θ el ángulo entre v y w (0 ≤ θ ≤ π). a) Calcular cos(θ) utilizando la ley de los cosenos:

w−v

2

= v

2

+ w

2

−2 v

w cos(θ).

b) Usando las coordenadas de v y w, hallar el producto escalar v · w y vericar la identidad

v·w = v

w cos(θ).

c) ¾Qué tipo de ángulo forman v y w?

Álgebra

147

4. Demostrar que en R2 el vector n = (a, b) = (0, 0) es ortogonal a todas las rectas de ecuación

ax + by + c = 0,

(c ∈ R).

5. Sean v = (−1, 0, 1) y w = (1, −1, 2) los vectores del problema anterior. a) Calcular la proyección ortogonal de w sobre v, pv (w), y la componente vectorial de w ortogonal a v. b) Hallar pv (w) y p2v (w) . 6. En este problemas trabajamos en R3 con el sistema de coordenadas S3 . a) Hallar los vectores

e1 × e2 ,

e2 × e3 ,

e3 × e1 .

b) Demostrar la identidad de Lagrange:

u×v
y, usando la identidad

2

= u

2

v

2

− (u · v)2

u·v = u
deducir que

v cos(θ) ∀u, v ∈ R3 , v sen(θ).

u×v = u

c) Sean u = (1, −1, 2) y v = (0, 3, 1). Calcular el área del paralelogramo determinado por los vectores u y v. d) Vericar que para todo par de vectores u y v en R3 \{(0, 0, 0)}, u×v es ortogonal a u y a v. 7. En este problemas seguimos trabajando en R3 con el sistema de coordenadas S3 . a) Sean u, v y w tres vectores en R3 . Vericar que el número real |u · (v × w)| es el volumen del paralelepípedo P denido por u, v y w. (Se utilize el hecho de que la altura h del paralelepípedo P se puede escribir como h = p(v×w) (u) .) b) Calcular el volumen del paralelepípedo determinado por los vectores

u = (1, 0, 2), v = (0, 1, 2), w = (1, 1, 1).

148 8. Sean P0 = (1, 2) y P1 = (−1, 1) dos puntos en R2 .

Álgebra

Hallar las ecuaciones vectorial, general implícita, paramétricas y pendienteordenada en el origen de la recta l que pasa por P0 y P1 . 9. Sean P0 = (x0 , y0 ) ∈ R2 y r la recta de ecuación ax + by + c = 0. a) Demostrar que la distancia entre P0 y r es

d(P0 , r) =

|ax0 + by0 + c| √ . a 2 + b2

b) Calcular la distancia entre P0 = (0, 1) y r : 2x − y + 3 = 0. 10. En R3 , encontrar la ecuación del plano π que pasa por el punto P0 = (1, 0, −1) y es ortogonal al vector n = (2, −1, 5). 11. En R3 , usando la fórmula de la distancia entre un punto P0 = (x0 , y0 , z0 ) y un plano π : ax + by + cz + d = 0 :

d(P0 , π) =

|ax0 + by0 + cz0 + d| √ , a2 + b2 + c2

a) calcular la distancia entre el punto P0 de intersección de las rectas de ecuaciones   x = −3 + 2k  x = −1 + t   y = 3k r: y s : y = 2 − 3t (k, t ∈ R)     z = 2 − k z =t 3 y el plano π : 2x − y + z = 0. b) Calcular el coseno del ángulo que forman las rectas r y s. 12. Determinar si existen valores de los parámetros reales s y t tales que la recta l en R3 de ecuaciones implícitas

sx + 3y + z =0 , −x + ty + 2z + 1 = 0

Álgebra tenga ecuaciones paramétricas

149

 x = 2k    1 y =− +k 2    z = 3 − 3k 2

(k ∈ R).

13. Describir todos los subespacios vectoriales de R3 que contienen al punto P = (1, 1, 1). 14. Sea Mm,n (R) el R−espacio vectorial respecto de las operaciones de suma de matrices y multiplicación de una matriz por un escalar usuales. Sea C[x] el C−espacio vectorial de los polinomios con coecientes números complejos y con las operaciones de suma de funciones y multiplicación por un escalar usuales. Escribir explícitamente las operaciones que hacen del producto cartesiano Mm,n (R) × C[x] un R−espacio vectorial. 15. Sea M el subconjunto de Mm,n (Z2 ) denido por

M ={

0 x y z 0 u

: x, y, z, u ∈ Z2 }.

a) Escribir M como un conjunto de funciones de N2 × N3 en Z2 que se anulan sobre un subconjunto S de N2 × N3 . b) Vericar que M es un Z2 −espacio vectorial respecto de las operaciones usuales de suma de matrices y producto de una matriz por un escalar. 16. Determinar los valores reales del parámetro λ tales que los siguientes vectores sean un sistema libre en R3 :

1 1 v1 = (λ, − , − ), 2 2

1 1 v2 = (− , λ, − ), 2 2

1 1 v3 = (− , − , λ). 2 2

Interpretar geométricamente los resultados obtenidos.

150

Álgebra

17. Vericar si los siguientes subconjuntos del espacio de todas las funciones reales, F(R, R), son linealmente independientes:

S = {1, sen(x), sen(2x)}, T = {(3 − x)2 , x2 − 6x, 5}.
18. Sean u = (1, 1, 1), v = (1, 1, x) y w = (x, 1, 1) tres vectores en R3 , siendo x un parámetro real. Sea H = L(u, v, w) el subespacio de R3 generado por u, v y w. Determinar para qué valores de x el subespacio H es una recta, un plano o todo R3 . 19. a) Vericar que para todo n ∈ N, el sistema Bn = (1, x, x2 , · · · , xn ) es una base del espacio vectorial de los polinomios de grado menor o igual que n, Pn (R). (Utilizar inducción sobre n y la continuidad de los polinomios) b) Determinar si el sistema B = (1, x − 1, (x − 1)2 , (x − 1)3 ) es una base de P3 (R). c) Escribir las coordenadas del vector p(x) = 3x3 − 3 en términos de las bases B3 y B. 20. Sea

H={

a b c −(a + b + c)

: a, b, c ∈ R}.

a) Vericar que H es un subespacio vectorial de M2 (R). b) Hallar una base B de H. c) Completar B a una base de M2 (R). 21. En el R−espacio vectorial F(N, R) de las sucesiones reales sea

H = {(xn )n∈N : ∀n ≥ 2,

xn+1 = 2xn − 3xn−1 }.

a) Demostrar que H es un subespacio vectorial de F(N, R). b) Comprobar que la dimensión de H es 2.

Álgebra 22. Aplicar el teorema de Rouché-Fröbenius

151

a) para vericar si el vector p(x) = x3 − 2x + 1 pertenece al subespacio L(x3 − 1, x + 2) de P3 (R), b) para determinar si el sistema (x3 − 1, x + 2, x2 , x − 1) es una base de P3 (R). 23. Calcular el  1 A = 2 1 rango de las matrices  1 1 0 1 2 0 ∈ M3,4 (Z3 ) 0 0 1

  2 −1 5 B = 0 4 1  ∈ M3 (R). 6 1 16

24. Utilizar el método de Gauss para hallar una base del C−subespacio de C3 : L((1, 0, i), (i, 0, 0), (0, −i, 4), (1, 1, 1)).

152

Álgebra

Capítulo 3 Funciones lineales
Otra de las características esenciales estrechamente relacionada con el concepto de espacio vectorial tiene que ver con las propiedades de proporcionalidad y aditividad , propiedades éstas que siempre se satisfacen en los problemas matemáticos denominados problemas lineales. La propiedad de aditividad consiste en que si los vectores u y v son soluciones del problema, entonces el vector u + v también es solución de dicho problema y la proporcionalidad en que si el vector u es una solución del problema, entonces el vector α · u también lo es, siendo normalmente α un número real o un número complejo. Hay que decir que en cualquier caso los problemas lineales son más sencillos de resolver que los no lineales y en muchas ocasiones resolver un problema no lineal consiste, al menos en una primera aproximación, en plantear y resolver un problema lineal que aproxime , valga la redundancia, el problema no lineal planteado. En este capítulo se denen y estudian las funciones lineales entre espacios vectoriales. Las funciones lineales son las más naturales en el contexto del álgebra lineal ya que, por su denición, respectan la estructura de espacio vectorial. Veremos que una función lineal se puede representar por medio de una matriz determinada por la elección de bases en su dominio y codominio. Este hecho nos permite trabajar desde dos puntos de vista distintos pero estrechamente relacionados: un primer más analítico, que se basa en el uso de las propiedades generales de las funciones y un segundo más algebraico, donde tiene mayor importancia la teoría matricial. 153

154

Álgebra

3.1 Funciones lineales
Como vimos, una estructura de espacio vectorial sobre un cuerpo está caracterizada por la existencia de las operaciones de suma de vectores y producto de un vector por un escalar, con los axiomas de la denición 2.2.1. Entonces, si tenemos dos espacios vectoriales sobre el mismo cuerpo, es natural preguntarse si existen funciones entre estos dos espacios tales que relaciones entre vectores en el primero (el dominio de la función) se puedan comparar y transformar en relaciones entre vectores del segundo (el codominio de la función). La siguiente denición responde a la pregunta anterior: la función buscada tiene que ser tal que a la suma de dos vectores en su dominio se le corresponda el vector suma de las imágenes de estos dos vectores en el codominio y que al producto de un vector por un escalar en el dominio se le corresponda el producto por el mismo escalar de la imagen del vector en el codominio.

también, que es un homomorsmo de K − e.v.), si f satisface las siguientes propiedades: 1. ∀u, v ∈ E, f (u + v) = f (u) ⊕ f (v); 2. ∀u ∈ E, ∀α ∈ K, f (α · u) = α ∗ f (u).

Denición 3.1.1 Sean (E, +, ·) y (E , ⊕, ∗) dos espacios vectoriales sobre el mismo cuerpo K. Diremos que la función f : E → E es lineal (o

y el producto por escalares denidos sobre los espacios E y E , puesto que en casi todos los casos, la naturaleza de la operación viene determinada de forma unívoca por la naturaleza de los operandos: obviamente, si u ∈ E, entonces f (u) ∈ E . Con este convenio de notación, siendo E y E dos K − e.v., una función f : E → E es lineal si satisface las propiedades: 1. ∀u, v ∈ E, f (u + v) = f (u) + f (v) 2. ∀u ∈ E, ∀α ∈ K, f (αu) = αf (u)

Observación 37 Es usual denotar con los mismos símbolos + y · la suma

E → E es lineal si y sólo si ∀u, v ∈ E, ∀α, β ∈ K, se verica que f (αu + βv) = αf (u) + βf (v).

Proposición 3.1.2 Siendo E y E K − e.v., se verica que la función f :

Álgebra

155

lo mismo, que f satisface las condiciones 1 y 2 de la denición 3.1.1. Dados u, v ∈ E y α, β ∈ K, por la condición 1 resulta que

Demostración  ⇒ ” Supongamos que f : E → E es lineal, o lo que es

f (αu + βv) = f (αu) + f (βv) = = (por la condición 2) = = αf (u) + βf (v). 
⇐  Recíprocamente, supongamos que ∀u, v ∈ E ∀α, β ∈ K se verica que f (αu + βv) = αf (u) + βf (v). Hay que demostrar que f satisface las condiciones 1 y 2 de la denición 3.1.1. Dados u, v ∈ E, tomando α = β = 1, resulta que

f (u + v) = f (1 · u + 1 · v) = = 1 · f (u) + 1 · f (v) = = f (u) + f (v),
con lo que se satisface la condición 1. Por otra parte, dados u ∈ E y α ∈ K, resulta que

f (αu) = f (αu + 0u) = αf (u) + 0f (u) = αf (u),
con lo que se satisface la condición 2.

2

El siguiente ejercicio nos muestra cómo se transforman las combinaciones lineales al aplicarles una función lineal.

función lineal, siendo u1 , ...., un cualquier sistema de vectores de E se verica que ∀(α1 , ...., αn ) ∈ Kn , f
n

Ejercicio 3.1.1 Demostrar que, siendo E y E K − e.v., y f : E → E una
α i ui =
n

αi f (ui ).

i=1

i=1

si f : E → E es lineal se verica que  ∀n ∈ N,  ∀u1 , ...., un ∈ E y f  ∀α1 , ...., αn ∈ K,

Indicación: Razonar por inducción sobre “n”. Nota: Nótese que un enunciado equivalente al del ejercicio anterior sería:
n n

αi ui
i=1

=
i=1

αi f (ui ).

156

Álgebra

Ejemplo 3.1.3 Siendo E un K − e.v., la función identidad, IdE : E → E,
es lineal puesto que i) dados u, v ∈ E, se tiene

IdE (u + v) = u + v = IdE (u) + IdE (v);
ii) si u ∈ E y α ∈ K, IdE (αu) = αu = αIdE (u).

Ejemplo 3.1.4 Siendo E y E dos K − e.v., la función f : E → E denida por f (u) = 0 ∀u ∈ E, es lineal y se llamará transformación cero. Ejemplo 3.1.5 Si (E1 , +1 , ·1 ),...,(En , +n , ·n ) son n K − e.v., entonces ∀i ∈ {1, ..., n} la función proyección i-ésima
pi : E1 × ... × En (u1 , ..., un ) −→ Ei ; ui

es lineal, puesto que, siendo i ∈ {1, ..., n} se tiene que a) dados (u1 , ..., un ), (v1 , ..., vn ) ∈ E1 × ... × En ,

pi ((u1 , ..., un ) + (v1 , ..., vn )) = pi ((u1 + v1 , ..., un + vn )) = = ui + v i = = pi ((u1 , ..., un )) + pi ((v1 , ..., vn )); b) dados (u1 , ..., un ) ∈ E1 × ... × En y α ∈ K, pi (α(u1 , ..., un )) = pi ((αu1 , ..., αun )) = = αui = αpi ((u1 , ..., un )).

Ejemplo 3.1.6 Dada A ∈ Mm×n (K), la función multiplicación por A
LA : Mn×1 (K) −→ Mm×1 (K) , X ; A·X
donde  · es el producto usual de matrices, es lineal.

Ejercicio 3.1.2 Sea E un K−e.v. de dimensión nita n y B = (v1 , v2 , · · · , vn )
una base ordenada de E. Si u = k1 v1 + k2 v2 + · · · + kn vn ∈ E, sea f : E → Kn la función que asocia al vector u sus coordenadas respecto de la base B, denida por f (u) = (k1 , k2 , · · · , kn ). Vericar que f es lineal.

Álgebra

157

Ejemplo 3.1.7 Dados a, b ∈ R, se considera el conjunto C([a, b], R), de las

funciones reales continuas denidas sobre el intervalo cerrado [a, b] = {x ∈ R |a ≤ x ≤ b }. Teniendo en cuenta que ∀f, g ∈ C([a, b], R) y ∀α ∈ R se verica que
b b b

(f + g) =
a a b

f+
a b

g

y que

(αf ) = α
a a

f,

resulta que la siguiente función integración sobre [a, b] es lineal

I : C([a, b], R) −→ f ;

R
b

f
a

.

Ejemplo 3.1.8 Siendo (a, b) cualquier intervalo abierto de la recta real am-

pliada (i.e., se contempla la posibilidad de que a = −∞ ó b = ∞, o ambas cosas simultáneamente, en cuyo caso se tendría que (a, b) = (−∞, ∞) = R), se considera el conjunto C 1 ((a, b), R)

de las funciones reales denidas en (a, b), derivables en todo punto de (a, b) y tales que la función derivada es continua en (a, b). Teniendo en cuenta que la suma de funciones derivables es derivable y que la función resultante de multiplicar un número real por una función derivable es una función derivable (y que lo mismo sucede con las funciones continuas), resulta que

C 1 ((a, b), R)

F ((a, b), R),

o, lo que es lo mismo, que C 1 ((a, b), R) es un R − e.v.. Dada ahora f ∈ C 1 ((a, b), R), sea D(f ) la función derivada de f :

D(f ) :

(a, b) x

−→ R . ; D(f )(x) = f (x)

Ya que ∀f, g ∈ C 1 ((a, b), R) y ∀α ∈ R se verica que

D(f + g) = D(f ) + D(g)

158

Álgebra

y que

D(αf ) = αD(f ),
resulta que la siguiente función derivación es lineal:

D : C 1 ((a, b), R) −→ C((a, b), R) . f ; D(f )

Ejemplo 3.1.9 Sea n > 1. La función determinante det : Mn (K) → K no es lineal ya que det(A+B) = det(A)+det(B) y det(kA) = k n det(A) = kdet(A).

3.2 Propiedades de funciones lineales
se verica que

Proposición 3.2.1 Si E y E son K − e.v. y f : E → E es lineal, entonces
1. f (0) = 0; 2. ∀u ∈ E , f (−u) = −f (u).

Demostración 1. ∀u ∈ E , f (0) = f (0 · u) = 0 · f (u) = 0.
2. Dado u ∈ E, se tiene

f (u) + f (−u) = f (u + (−u)) = f (0) = 0,
por lo que podemos concluir que f (−u) es el opuesto de f (u) o, lo que es lo mismo, que f (−u) = −f (u), puesto que (E , +) es un grupo. 2

E, la transformación ∀u ∈ E f (u) = u + u0 (la traslación por el vector u0 ) no es lineal, ya que f (0) = u0 = 0.
El siguiente resultado nos permite asegurar que la función suma de dos funciones lineales es una función lineal y que, si multiplicamos una función lineal por un escalar, la función así obtenida es también una función lineal.

Ejemplo 3.2.2 Si E es un K − e.v. y u0 un vector jo diferente de cero en

Álgebra

159

Proposición 3.2.3 Siendo E y E K−e.v., si denotamos por F(E, E ) al espacio de todas las funciones denidas entre E y E , y por L(E,E ) al conjunto de las funciones lineales denidas entre E y E , es decir,

L(E, E ) = {f ∈ F(E, E ) |f es lineal },
se verica que

L(E, E )

F (E, E ),

o lo que es lo mismo, que L(E,E ) tiene estructura de espacio vectorial respecto de la suma de funciones y producto de una función por un escalar denidos en F(E, E ).

Demostración i) Evidentemente L(E,E ) = ∅, puesto que 0 ∈ L(E,E ),
ya que ∀u, v ∈ E ∀α, β ∈ K se tiene

0(αu + βv) = 0 = 0 + 0 =α0(u) + β0(v).
(Nótese que hemos denotado por el mismo símbolo a 0 ∈L(E,E ) y a 0 ∈ E ). ii) Veamos que ∀f, g ∈ L(E,E ) se verica que f +g ∈ L(E,E ). Si u, v ∈ E y α, β ∈ K, se verica que

(f + g)(αu + βv) = = = = =

f (αu + βv) + g(αu + βv) = (αf (u) + βf (v)) + (αg(u) + βg(v) = (por ser “ + ”asociativa y conmutativa en (E , +)) (αf (u) + αg(u)) + (βf (v) + βg(v)) = α(f + g)(u) + β(f + g)(v).

iii) Veamos que ∀f ∈ L(E,E ), ∀λ ∈ K se verica que λf ∈ L(E,E ). Si u, v ∈ E y α, β ∈ K, se verica que

(λf ) (αu + βv) = = = =

λ · f (αu + βv) = λ (αf (u) + βf (v)) = λαf (u) + λβf (v) = (por ser “ · ”conmutativo en K) = αλf (u) + βλf (v) = α (λf ) (u) + β (λf ) (v). 2

160

Álgebra

Ejemplo 3.2.4 Como consecuencia de la proposición anterior, teniendo en

cuenta que para cualquier K−e.v. E la función IdE : E → E es lineal, IdE ∈ L(E, E), tendremos también que ∀α ∈ K, la función (αIdE ) ∈ L(E, E), es decir, la función αIdE : E → E u ; αu es lineal.

Ejemplo 3.2.5 Teniendo en cuenta que si E es un K − e.v. entonces ∀n ∈
N y ∀i ∈ {1, ..., n} la función proyección i-ésima es lineal, resulta que la siguiente función es lineal: ∀(α1 , ..., αn ) ∈ Kn , α1 p1 + ... + αn pn : En −→ E . (u1 , ..., un ) ; α1 u1 + ... + αn un

En particular, dados por ejemplo α, β, γ ∈ R, es lineal la función

αp1 + βp2 + γp3 :

R3 → (x1 , x2 , x3 ) ;

R . αx1 + βx2 + γx3

Ejemplo 3.2.6 Si f ∈ C 1 ((a, b), R), en particular f ∈ C((a, b), R) y, siendo
i la función inclusión, se verica que la función 3D − 5i : C 1 ((a, b), R) −→ C((a, b), R) f ; 3D(f ) − 5f
es lineal.

Proposición 3.2.7 Si E, E y E son K − e.v. y f : E → E y g : E → E son funciones lineales, entonces la función composición de g con f, g ◦ f : E → E , también es una función lineal. Demostración Sean u, v ∈ E y α, β ∈ K. En ese caso
(g ◦ f )(αu + βv) = = = = = = g(f (αu + βv)) = (por ser f lineal) = g(αf (u) + βf (v)) = (por ser g lineal) = αg(f (u)) + βg(f (v)) = α(g ◦ f )(u) + β(g ◦ f )(v).

Álgebra

161

2

Ejemplo 3.2.8 ∀f ∈ L(E, E), f ◦IdE = IdE ◦f. Entonces IdE es el elemento
neutro de ◦ en L(E, E).

h : E → E son funciones lineales, entonces la función composición h◦g ◦f : E → E también es una función lineal. En general, la composición de un cualquier número (nito) de funciones lineales, cuando esté denida, será una función lineal.

Observación 38 Si E, E y E son R − e.v. y f : E → E , g : E → E y

3.3

Núcleo e imagen

La siguiente proposición arma que las funciones lineales preservan los subespacios vectoriales:

que

Proposición 3.3.1 Si E y E son K − e.v. y f : E → E es lineal, se verica
1. ∀H ⊂ E, (H 2. ∀H ⊂ E , (H

E ⇒ f (H)

E) y E) ;

E ⇒ f −1 (H )

en otras palabras: la imagen directa y recíproca de un subespacio vectorial por una función lineal es un subespacio vectorial.

Demostración 1. Supongamos que H
que

E. En ese caso 0 ∈ H y, puesto

f (0) = 0,
tendremos que 0 ∈ f (H). Por otra parte, si u , v ∈ f (H) y α, β ∈ K, tendremos, por denición de f (H), que existen u, v ∈ H tales que

f (u) = u y f (v) = v .
Por consiguiente

αu + βv

= αf (u) + βf (v) = = (puesto que f es lineal) = = f (αu + βv)

162 y, puesto que H

Álgebra

E, αu + βv ∈ H, con lo que αu + βv ∈ f (H)

y en denitiva f (H) E . 2. Supongamos que H

E . En ese caso 0 ∈ H y, puesto que f (0) = 0,

tendremos que

0 ∈ f −1 (H ).

Por otra parte, si u, v ∈ f −1 (H ) y α, β ∈ K, resultará que

f (u), f (v) ∈ H
y, puesto que H

E , tendremos que αf (u) + βf (v) ∈ H

pero, al ser f lineal,

αf (u) + βf (v) = f (αu + βv),
es decir, f (αu + βv) ∈ H , con lo que

αu + βv ∈ f −1 (H ). 2

Denición 3.3.2 Sean E y E K − e.v. y f : E → E una función lineal. Llamaremos núcleo de f al conjunto
Ker(f ) = f −1 ({0}) = {u ∈ E |f (u) = 0 },
e imagen de f, al conjunto

Im(f ) = {v ∈ E |∃u ∈ E tal que f (u) = v }.
o sea, al conjunto f (E).

Álgebra

163

Obsérvese que como consecuencia de la proposición (3.3.1), para cualquier función lineal f : E → E se verica que

Ker(f )
y que

E E.

Im(f )

Denición 3.3.3 Sean E y E K − e.v. y f : E → E una función lineal. Entonces a la dimensión del imagen de f se denomina rango de f y a la dimensión del núcleo de f se denomina nulidad de f. Ejemplo 3.3.4 Sean E y E K − e.v.. Entonces, el núcleo de la función
identidad IdE : E → E es el subespacio {0} y su imagen es el espacio E; el núcleo de la función cero f : E → E es el espacio E y su imagen es el subespacio {0}.

z = 0. Determinar núcleo e imagen de f.
cleo de la función derivación

Ejercicio 3.3.1 Sea f : R3 → R3 la proyección ortogonal sobre el plano

Ejercicio 3.3.2 Sea E = C 1 (R, R), y sea E = F(R, R). Determinar el núD : C 1 (R, R) → F (R, R). α, β, γ ∈ R, el conjunto

Ejemplo 3.3.5 Una manera diferente de la usual de vericar que, dados
H = (x1 , x2 , x3 ) ∈ R3 αx1 + βx2 + γx3 = 0

es un subespacio vectorial de R3 , consiste en tener en cuenta que la función

αp1 + βp2 + γp3 :
es lineal y que

R3 (x1 , x2 , x3 )

→ R ; αx1 + βx2 + γx3

H = Ker(αp1 + βp2 + γp3 ).

164

Álgebra

Antes de enunciar el siguiente teorema, recordemos las siguientes deniciones:

Denición 3.3.6 Una función f entre dos conjuntos A y B es inyectiva si
∀a1 , a2 ∈ A, f (a1 ) = f (a2 ) ⇒ a1 = a2 .

si ∀b ∈ B existe a ∈ A tal que b = f (a).

Denición 3.3.7 Una función f entre dos conjuntos A y B es sobreyectiva

Denición 3.3.8 Finalmente, una función f entre dos conjuntos A y B es biyectiva si f es a la vez inyectiva y sobreyectiva.
verica que

Teorema 3.3.9 Sean E y E K − e.v. y f : E → E una función lineal. Se
1. f es inyectiva ⇔ Ker(f ) = {0}; 2. f es sobreyectiva ⇔ Im(f ) = E .

Demostración 1.  ⇒ Puesto que f es lineal, f (0) = 0 y en consecuencia
0 ∈ Ker(f )
o, lo que es lo mismo, {0} ⊂ Ker(f ). Por otra parte si u ∈ E es tal que u ∈ Ker(f ), resulta que

f (u) = 0 y f (0) = 0,
y, puesto que por hipótesis f es inyectiva, concluímos que u = 0, con lo que Ker(f ) ⊂ {0}. En denitiva, Ker(f ) = {0}.  ⇐ Supongamos que Ker(f ) = {0} y que u, v ∈ E son tales que f (u) = f (v). En ese caso f (u) + (−f (v)) = 0 y, puesto que f es lineal,

f (u) + (−f (v)) = f (u) + f (−v) = f (u + (−v)).
En consecuencia f (u + (−v)) = 0, o lo que es lo mismo,

u + (−v) ∈ Ker(f ) = {0},
es decir, u + (−v) = 0, de donde u = v . 2. Por denición, f es sobreyectiva si y sólo si Im(f ) = E .

2

Álgebra

165

Ejemplo 3.3.10 La función derivación D : C 1 (R, R) → F (R, R) no es inyectiva, ya que Ker(D) es el conjunto de las funciones constantes sobre R. inyectiva, siendo su núcleo igual al eje z.

Ejemplo 3.3.11 La proyección ortogonal sobre el plano z = 0 en R3 no es

3.4

Espacios vectoriales isomorfos

Si f : E → E es una función lineal y biyectiva, para todo vector u en E existe un único vector v en E tal que f (u) = v. Además f es invertible y f −1 (v) = u. Por tanto f establece una particular correspondencia entre los vectores de E y los vectores de E que, además, reproduce en E las relaciones de dependencia entre vectores de E. En este caso se podrían identicar los dos espacios E y E , pero es a menudo necesario distinguir entre distintos tipos de correspondencias, es decir, nos interesa saber exactamente qué función lineal biyectiva estamos considerando entre los dos espacios. Por ejemplo, la función identidad en R2 es lineal y biyectiva, pero también lo es la función rotación de un ángulo de π . La primera función identica trivialmente las 4 dos copias del espacio R2 mientras que la segunda nos dice que, como espacios vectoriales, son equivalentes. Estas consideraciones justican la siguiente denición de espacios isomorfos.

Denición 3.4.1 Siendo E y E dos K − e.v., se dice que E y E son isomorfos si existe una función f : E → E tal que f es lineal y biyectiva. Si f : E → E es lineal y biyectiva, se dice que f es un isomorsmo (no singular). Proposición 3.4.2 Si f : E → E es un isomorsmo, f −1 : E → E es
también un isomorsmo.

Demostración Si f : E → E es biyectiva entonces f −1 : E → E es

también biyectiva. Veamos que en las condiciones del enunciado f −1 : E → E es lineal. 1. Sean u , v ∈ E . Por ser f : E → E biyectiva ∃! u, v ∈ E tales que

f (u) = u

y f (v) = v

166 o, lo que es lo mismo, tales que f −1 (u ) = u y f −1 (v ) = v. Luego

Álgebra

f −1 (u + v ) = f −1 (f (u) + f (v)) = (por ser f lineal) = f −1 (f (u + v)) = u + v = f −1 (u ) + f −1 (v ).
2. Sean u ∈ E y α ∈ K. Razonando de igual modo que en el apartado anterior, si f −1 (u ) = u o, lo que es lo mismo, f (u) = u , resulta que

f −1 (αu ) = f −1 (αf (u)) = = f −1 (f (αu)) = αu = αf −1 (u ). 2

vista algebraico son iguales o indistinguibles, en el sentido de que toda propiedad relacionada con la estructura de espacio vectorial que posea E se transere automáticamente al espacio E a través del isomorsmo y recíprocamente.

Observación 39 Si dos K − e.v. E y E son isomorfos, desde un punto de

Ejercicio 3.4.1 Comprobar que si f : E → E es un isomorsmo, entonces
{v1 , ...., vm } ⊆ E es libre si y solo si {f (v1 ), ..., f (vm )} es libre.

Ejemplo 3.4.3 Las funciones
IC : Kn (x1 , ..., xn )
y

→ Mn×1 (K)   x1  .  ;  .  . xn

IF :

Kn (x1 ...xn )

→ ;

M1×n (K) x1 · · · xn

son isomorsmos. A IC le denominaremos isomorsmo columna y a IF isomorsmo la.

Álgebra

167

3.5

Funciones lineales en espacios vectoriales de dimensión nita

3.5.1 Determinación de funciones lineales en espacios vectoriales de dimensión nita
El siguiente teorema fundamental establece un procedimiento para denir funciones lineales entre espacios vectoriales de dimensión nita, en el sentido de que, conocidas las imágenes de los elementos de una base del espacio dominio, la función lineal queda completamente determinada.

{v1 , ...., vn } un sistema cualquiera de n vectores de E . En estas condiciones existe una única función lineal f : E → E tal que ∀i ∈ {1, ..., n}
Además se verica que

Teorema 3.5.1 Sean E y E dos K − e.v., {u1 , ...., un } una base de E y

f (ui ) = vi .

a) f es inyectiva ⇔ {v1 , ...., vn } es libre; b) f es sobreyectiva ⇔ L({v1 , ...., vn }) = E ; c) f es un isomorsmo ⇔ {v1 , ...., vn } es una base de E . Demostración i) Existencia. Sea u ∈ E; puesto que {u1 , ...., un } es una
base de E, tendremos que ∃!(α1 , ...., αn ) ∈ Kn tal que u = entonces f (u) =
n i=1 n i=1

αi ui . Denimos

αi vi . Veamos que la función f así denida para cada
n i=1

u ∈ E satisface las dos condiciones requeridas.
1. f es lineal : dados u, v ∈ E y λ, µ ∈ K, si u =

αi ui y v =

n i=1

β i ui ,

168 resulta que
n n

Álgebra

f (λu + µv) = f (λ ·
i=1 n

α i ui

+µ·
i=1

βi ui ) =
n

= f(
i=1 n

(λαi + µβi )ui ) =
i=1 n

(λαi + µβi )vi = = λf (u) + µf (v).

= λ
i=1

αi vi


i=1

βi ui

2. ∀i ∈ {1, ..., n} f (ui ) = vi . Dado i ∈ {1, ..., n}, se tiene

ui = 0 · u1 + ... + 1 · ui + ... + 0 · un
y, por consiguiente,

f (ui ) = 0 · v1 + ... + 1 · vi + ... + 0 · vn = vi .
ii) Unicidad. Si g : E → E es una función lineal tal que

∀i ∈ {1, ..., n} g(ui ) = vi ,
resulta que, siendo w un vector cualquiera de E, al ser {u1 , ...., un } una base de E, ∃(α1 , ...., αn ) ∈ Kn tal que
n

w=
i=1

α i ui .

Ahora bien,
n

g(w) = g(
i=1

αi ui ) =
n

= (por ser g lineal) =
n

=
i=1 n

αi g(ui ) =
i=1

αi vi =

=
i=1

αi f (ui ) = (por ser f lineal) =
n

= f(
i=1

αi ui ) = f (w),

Álgebra es decir, ∀w ∈ E g(w) = f (w), con lo que concluímos que f = g. Finalmente, comprobemos que se verican a), b) y c). a)  ⇒ Sea
n i=1

169

αi vi = 0. Entonces
n n n

0=
i=1

αi vi =
i=1 n i=1

αi f (ui ) = f (
i=1

αi ui ).

Ya que f es inyectiva,

αi ui = 0 y, puesto que {u1 , · · · , un } es libre,
n i=1

(α1 , · · · , αn ) = (0, · · · , 0). 

⇐ Si w ∈ Ker(f ), siendo w =
n

αi ui resulta que
n n

f (w) = 0 = f (
i=1

αi ui ) =
i=1

αi f (ui ) =
i=1

αi vi ,

y puesto que {v1 , ...., vn } es libre, concluímos que

(α1 , ...., αn ) = (0, ..., 0),
con lo que w = 0. b) Si vericamos que Im(f ) = L(v1 , · · · , vn ), entonces f es sobreyectiva ⇔ L(v1 , · · · , vn ) = E . Ya que L(v1 , · · · , vn ) Im(f ), hace falta solo comprobar que Im(f ) ⊆ L(v1 , · · · , vn ) : si v ∈ Im(f ), existe u = que
n n n i=1

αi ui ∈ E tal

v = f (u) =
i=1

αi f (ui ) =
i=1

αi vi ∈ L(v1 , · · · , vn ).

Así que Im(f ) = L(v1 , · · · , vn ) = E . c) Es consecuencia inmediata de los dos apartados anteriores. A la vista del teorema anterior, se verica que:

2

si E y E son K − e.v. y {u1 , ...., un } ∈ En es una base de E, cualquier función lineal f : E → E queda completamente determinada por el sistema {f (u1 ), ..., f (un )}.

170

Álgebra

Ejercicio 3.5.1 Dada la función lineal f : R2 → R3 determinada por las
condiciones

f (1, 0) = (3, 4, 1), f (0, 1) = (−1, 0, 1),
determinar f (3, 1) y f (2, −1).

mensión nita), entonces

Corolario 3.5.2 Si E y E son dos K − e.v. nitamente generados (de diE y E son isomorfos ⇔ dim(E) = dim(E )

y {u1 , ...., un } es una base de E, por el apartado c) del teorema anterior, {f (u1 ), ...., f (un )} es una base de E y, en consecuencia, dim(E) = dim(E ) = n.  ⇐ Si dim(E) = dim(E ) = n, {u1 , ...., un } es una base de E y {v1 , ...., vn } es una base de E , considerando la función lineal f : E → E tal que ∀i ∈ {1, ..., n} f (ui ) = vi , resulta, por la proposición anterior, que f es un isomorsmo, y en consecuencia E y E son isomorfos. 2 Como vimos en el capítulo 2, al introducir una base ordenada en un espacio vectorial podemos asociar a cada vector del espacio sus coordenadas respecto de esta base. También vimos que las coordenadas de un vector son únicas. El siguiente corolario arma que la correspondencia entre un vector y sus coordenadas respecto de una base jada es un isomorsmo.

Demostración  ⇒ Si E y E son isomorfos, f : E → E es un isomorsmo,

Corolario 3.5.3 Si E es un K−e.v. y B = (u1 , ...., un ) es una base ordenada
de E, la función que asocia a todo vector la matriz de sus coordenadas respecto de la base B, (·)B : E → Mn×1 (K) , v ; (v)B donde
n

v=
i=1

 α1  .  αi ui ⇒ (v)B =  .  , . αn 

es un isomorsmo.

Álgebra

171

Demostración Siendo ∀i ∈ {1, ..., n}
ei : {1, ..., n} × {1} → (j, 1) ; Mn×1 (K) 1 si j = i 0 si j = i ,

o, lo que es lo mismo, siendo (e1 , ..., en ) la base canónica de Mn×1 (K), que empleando la notación habitual de matrices se escribiría       0 0 1  0   0   1        (e1 , ..., en ) =  .  ,  .  , · · · ,  .  ,  .   .   .  . . .

0

0

1

observando que (·)B es la única función lineal tal que

∀i ∈ {1, ..., n}
y teniendo en cuenta que

(ui )B = ei

Bc = (e1 , ..., en )
es una base de Mn×1 (K), es inmediato comprobar que (·)B es un isomorsmo.2

Observación 40 Teniendo en cuenta que si dos K − e.v. E y E son iso-

morfos, toda propiedad relacionada con la estructura de espacio vectorial que posea E se transere automáticamente al espacio E a través del isomorsmo y recíprocamente, si un K − e.v. E tiene dimensión  n y B es una base de E, considerando el isomorsmo (·)B : E →Mn×1 (K) podemos estudiar las propiedades de los vectores de E estudiando las que poseen sus coordenadas respecto de B, es decir, sus imágenes mediante el isomorsmo (·)B . En particular, si {v1 , ...., vm } es un sistema de vectores de E, resulta que

{v1 , ...., vm } es ligado ⇔ el sistema {(v1 )B , ...., (vm )B } de Mn×1 (K) es ligado; {v1 , ...., vm } es libre ⇔ el sistema {(v1 )B , ...., (vm )B } de Mn×1 (K) es libre; {v1 , ...., vn } es una base de E ⇔ {(v1 )B , ...., (vn )B } es una base de Mn×1 (K).

172

Álgebra

1. En el R − e.v. R3 con su estructura de espacio vectorial habitual el sistema {(−1, 1, 1), (1, 1, 1), (1, −1, 0)} es libre (respectivamente ligado) si y sólo si el sistema de M3×1 (R) formado por sus coordenadas respecto de la base canónica Bc de R3 ,       −1 1 1 { 1  ,  1  ,  −1 } 1 1 0 es libre (respectivamente ligado). 2. En el C − e.v. P4 (C) = {f ∈ C[x] |

Ejemplos.

gr(f ) ≤ 4}, el sistema

{x + 3x2 , 2 + x, −3 + x3 , 1 + x4 }
es libre (respectivamente ligado) si y sólo si el sistema de M4×1 (C) formado por sus coordenadas respecto de la base usual de P4 (C), {1, x, x2 , x3 , x4 },         0 2 −3 1  1   1   0   0          { 3  ,  0  ,  0  ,  0 }          0   0   1   0  0 0 0 1 es libre (respectivamente ligado).

3.5.2 Dimensiones del núcleo y de la imagen
Si, por ejemplo, en el espacio tridimensional R3 consideramos la función proyección ortogonal sobre el plano xy (isomorfo a R2 ), obtenemos una función lineal sobreyectiva y tal que su núcleo es todo el eje de las z. Por tanto, el rango de esta proyección es 2, su nulidad es 1 y la suma de estos dos números coincide con la dimensión del dominio de la función. El siguiente teorema generaliza este ejemplo a toda función lineal entre espacios de dimensión nita.

Teorema 3.5.4 (Teorema de la dimensión para funciones lineales)

Si f : E → E es una función lineal tal que los subespacios Ker(f ) e Im(f ) son de dimensión nita, entonces E es también de dimensión nita y

dim(E) = dim(Ker(f )) + dim(Im(f )) = nulidad(f ) + rango(f ).

Álgebra

173

Demostración Sean {u1 , ...., ur } una base de Ker(f ) y {v1 , ...., vp } una
base de Im(f ). Sean, por otra parte, {w1 , ..., wp } tales que

∀i ∈ {1, ..., p},

f (wi ) = vi .

El teorema estará demostrado si comprobamos que {u1 , ...., ur , w1 , ..., wp } es una base de E. a) {u1 , ...., ur , w1 , ..., wp } es libre. Supongamos que

(α1 , ...., αr , β1 , ..., βp ) ∈ Kr+p
es tal que
r p

αi ui +
i=1 j=1 p

βj wj = 0.

(3.1)

En ese caso

r

f
i=1

α i ui +
j=1

βj wj

= f (0) = 0.

Pero, teniendo en cuenta que f es lineal, resulta que
r p

αi f (ui ) +
i=1 j=1

βj f (wj ) = 0,
p

y puesto que los vectores u1 , ...., ur están en Ker(f ), tendremos que pero entonces la relación (3.1) queda
r

βj vj =
j=1

0, con lo que, al ser {v1 , ...., vp } libre, obtenemos que (β1 , ..., βp ) = (0, ..., 0);
es libre, obtenemos que (α1 , ...., αr ) = (0, ..., 0). En denitiva, (α1 , ...., αr , β1 , ..., βp ) = (0, ..., 0). b) {u1 , ...., ur , w1 , ..., wp } es un sistema generador de E. Sea u ∈ E. Ahora bien, f (u) ∈ Im(f ), y puesto que {v1 , ...., vp } es una base de Im(f ),
i=1

αi ui = 0, y puesto que {u1 , ...., ur }

∃(β1 , ..., βp ) ∈ Kp tal que f (u) =
p

p

i=1 p

βi vi . Pero en ese caso,
p

f (u) =
i=1

βi vi =
i=1

βi f (wi ) = f (
i=1

βi wi ),

174 o sea,
p

Álgebra

0 = f (u) − f (
i=1

βi wi ) =

= (por ser f lineal) =
p

= f (u −
i=1

βi wi ),

con lo que

p

u−
i=1

βi w i

∈ Ker(f ),

y como Ker(f ) = L({u1 , ...., ur }),
p r

∃(α1 , ...., αr ) ∈ K .. u −
i=1 p r j=1

r

βi w i

=
j=1

αj uj ,

y resulta que , u =

βi wi
i=1

+

αj uj

.

2

3.5.3 Matriz asociada a una función lineal
Si E y E son dos K − e.v. nitamente generados, f : E → E es una función lineal y B = {u1 , ...., un } es una base de E, según hemos visto, la función f queda completamente determinada por el sistema {f (u1 ), ...., f (un )}. Así, siendo B = {v1 , ..., vm } una base de E y, conocido el sistema de vectores de Mm×1 (K)

{(f (u1 ))B , ...., (f (un ))B },
vamos a obtener una expresión que nos permita calcular, para todo vector w ∈ E, las coordenadas de f (w) respecto de B sin más que conocer las coordenadas de w respecto de B. Así pues, supongamos que   α1j  .  ∀j ∈ {1, ..., n} (f (uj ))B =  .  ∈ Mm×1 (K), . αmj

Álgebra o lo que es lo mismo, que
m

175

∀j ∈ {1, ..., n}

(f (uj ))B =
i=1 n

αij (vi )B .

Sea w ∈ E, y supongamos también que w =

j=1

xj uj , es decir, que

 x1  .  (w)B =  .  . . xn
En ese caso, f (w) = f ( cuenta que
n

x j uj ) = → ;

n j=1

j=1

xj f (uj ), con lo que , teniendo en

(·)B : E v
es un isomorsmo,
n

Mm×1 (K) (v)B

n

(f (w))B

=
j=1 n

xj f (uj )
B m

=
j=1

xj · (f (uj ))B =
n m

=
j=1

xj
i=1 n m

αij (vi )B xj αij

=
j=1 i=1

xj (αij (vi )B ) = .

=
i=1 j=1

(vi )B

Es decir,

     =   
n j=1

 xj α1j
. . .

(f (w))B

n j=1

xj αnj

    ,   

176

Álgebra

con lo que, teniendo en cuenta como está denido el producto de matrices, resulta que     α11 · · · α1n x1  . .  ·  . . .   .  (f (w))B =  . . . . αm1 · · · αmn xn   α11 · · · α1n  . .  , tendremos que .  En denitiva, si A =  . . . αm1 · · · αmn

(f (w))B = A · (w)B .
A la matriz A la denominaremos matriz asociada a la función lineal f B respecto de las bases B y B y la denotaremos por MB (f ). B Nótase que MB (f ) ∈ Mm×n (K), donde m = dim(E ) y n = dim(E). En resumen:
B ∀w ∈ E, (f (w))B = MB (f ) · (w)B

cho de que ∀j ∈ {1, ..., n} su columna j − esima es la matriz ´   α1j  .  (f (uj ))B =  .  ∈ Mm×1 (K). .

B Observación 41 Nótese que la matriz MB (f ) está caracterizada por el he-

αmj

Observación 42 Nótese la disposición de las bases B del espacio dominio
E y B de E en la expresión:

B (f (w))B = MB (f ) · (w)B .

EJEMPLOS:
1. Si consideramos en R3 y R2 sus estructuras habituales de R − e.v. y la función lineal f : R3 → R2 determinada por √ f (1, 0, 0) = (1, 2), f (0, 1, 0) = (0, 1) y f (0, 0, 1) = (3, 2),

Álgebra resulta que, siendo

177

B3 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, B2 = {(1, 0), (0, 1)},
B3 MB2 (f ) =

1 0 √ 3 2 1 2

.

Por otra parte, si consideramos la base de R3

B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}
(verifíquese que efectivamente es una base), tendremos que, puesto que f es lineal,

f (1, 1, 1) = f ((1, 0, 0) + (0, 1, 0) + (0, 0, 1)) = = f (1, 0, 0) + f (0, 1, 0) + f (0, 0, 1)) = √ √ = (1, 2) + (0, 1) + (3, 2) = (4, 3 + 2),
y de forma análoga

f (0, 1, 1) = (3, 1 +
con lo que
B MB2 (f ) =

2),

4√ 3√ √ 3 2 3+ 2 1+ 2

.

2. Es evidente que siendo Bn la base canónica de Kn ,
Bn MBn (IdKn ) = In ∈ Mn (K).

K − e.v. E,

En general, si B = {u1 , ...., un } es una base cualquiera de un
B MB (IdE ) = In ∈ Mn (K).

Sin embargo, siendo B = B ,
B MB (IdE ) = In .

Así por ejemplo, siendo

B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)},
resulta

 1 0 0 B MBn (IdKn ) =  1 1 0  . 1 1 1

178 3. Si consideramos la función proyección i − esima, ´

Álgebra

pi :

Kn −→ K , (x1 , ..., xn ) ; xi

siendo Bn y B1 las bases canónicas de, respectivamente, Kn y K, se verica que
Bn MB1 (pi ) = ( 0 · · ·

0 1(i) 0 · · ·

0 ).

4. Si en el C − e.v.

P3 (C) = {f ∈ C[x] | gr(f ) ≤ 3 },
consideramos la base usual

B = {1, x, x2 , x3 }
y la función lineal f : P3 (C) → P3 (C) tal que

f (1) f (x) f (x2 ) f (x3 )
resulta que

= = = =

x + 3x2 , 2 + x, −3 + x3 1 + x3 ,  2 −3 1 1 0 0  . 0 0 0  0 1 1

0  1 B MB (f ) =   3 0

3.5.4 Algoritmo para hallar una base del núcleo y de la imagen
Dada una función lineal f : E → E entre dos K-espacios vectoriales de dimensiones nitas n y m, queremos hallar una base del núcleo y una base de la imagen de f . Fijadas dos bases B = {u1 , · · · , un } y B de E y E , respectivamente, sea B MB (f ) la relativa matriz asociada a f. Nuestro método consiste en el aplicar

Álgebra el método de Gauss a la matriz
A P
B MB (f ) In

179 hasta obtener una matriz de la forma

B , donde A es la forma gaussiana de la matriz MB (f ). Las columnas de B la matriz MB (f ) son las coordenadas de los vectores {f (u1 ), · · · , f (un )} respecto de la base B y las columnas de la matriz In son las coordenadas de los vectores {u1 , · · · , un } respecto de la base B. Ya que f es lineal, si v = k αi ui , entonces f (v) = f ( k αi ui ) = k αi f (ui ). Se sigue que, i=1 i=1 i=1 al aplicar el método de Gauss sin intercambiar el orden de las columnas a B MB (f ) la matriz , las nuevas columnas obtenidas son todavía de la forma In

(las transformaciones elementales usadas son lineales). Así que las columnas de P que aparezcan bajo las columnas nulas de A constituyen una base del núcleo de f y las columna no nulas de A constituyen una base de la imagen de f .

(f (v))B (v)B

Ejemplo 3.5.5 Sea f : R3 → R2 denida por f (x, y, z) = (x + 2y − 3z, x −
2y + z). Sean B y B las bases canónicas de R3 y R3 . Entonces   
B MB (f )

In

 1 2 −3   1 −2 1 =  1 0 0   0 1 0 0 0 1

  c2 = c2 − 2c1   c3 = c3 + 3c1   →    1 0 0   1 −4 0   1 −2 1   0 1 1  0 0 1

      

1 0 0   1 −4 4   1 −2 3   0 1 0  0 0 1

  c3 = c3 + c2    →  

y {(1, 1), (0, −4)} es una base de Im(f ) y {(1, 1, 1)} es una base de Ker(f ).

3.5.5 Matriz asociada a la composición de funciones lineales
En esta sección vamos a determinar la matriz asociada a una función h = g◦f que es la compuesta de dos funciones lineales f y g a partir de las matrices asociadas a f y a g.

180

Álgebra

Utilizaremos los siguientes resultados para determinar fácilmente la nueva matriz que queda asociada a una función lineal si cambiamos las bases de su dominio y codominio.

Lema 3.5.6 Sean A, B ∈ Mm×n (K). En estas condiciones
1. (A = (0) ∈ Mm×n (K)) ⇔ (∀X ∈ Mn×1 (K), A · X = (0) ∈ Mm×1 (K)) ; 2. A = B ⇔ (∀X ∈ Mn×1 (K), A · X = B · X) .

Demostración 1.  ⇒ Es evidente.

1.  ⇐ Siendo Bc = {e1 , ..., en } la base canónica pleando la notación habitual de matrices se escribiría      1 0  0   1        {e1 , ..., en } = { .  ,  .  , ...,  .   .   .  .

de Mn×1 (K), que em-

0 0 . . . 1

   }, 

0

0

resulta que, por hipótesis, ∀i ∈ {1, ..., n}, A · ei = (0) ∈ Mm×1 (K), pero por otra parte, ∀j ∈ {1, ..., m}
n

(A · ei )(j, 1) =
k=1

(A(j, k) · ei (k, 1)) = A(j, i),

es decir, A · ei = Ai (i.e., la columna i − esima de la matriz A), y puesto que ´

∀i ∈ {1, ..., n}

A · ei = (0) = Ai ,

resulta que A = (0). 2. A = B ⇔ A − B = (0) ⇔ ∀X ∈ Mn×1 (K) (A − B) · X = (0) ⇔ ∀X ∈ Mn×1 (K) A · X = B · X. 2

y B son bases de E, E y E respectivamente, y f : E → E y g : E → E son funciones lineales, entonces se verica que
B B B MB (g ◦ f ) = MB (g) · MB (f ),

Proposición 3.5.7 Si E, E y E son K − e.v. de dimensión nita, B , B

donde  · es el producto usual de matrices.

Álgebra

181

Las hipótesis de la proposición se pueden representar por medio de la siguiente tabla, donde se supone que

dim(E) = n,

dim(E ) = m, −→
g◦f

dim(E ) = p.

EB (·)B Mn×1 (K)

−→

f

EB (·)B

−→

g

EB (·)B

B MB (f )

−→

Mm×1 (K)
B MB (g◦f )

B MB (g)

−→

Mp×1 (K)

−→

La conclusión es que
B B B MB (g ◦ f ) = MB (g) · MB (f ).

Demostración Supongamos que dim(E) = n. Puesto que la función (·)B :

E → Mn×1 (K) es un isomorsmo, ∀X ∈ Mn×1 (K) ∃u ∈ E tal que X = (u)B . Por otra parte, ∀u ∈ E,
B B B B MB (g) · MB (f ) · (u)B = MB (g) · MB (f ) · (u)B = B = MB (g) · (f (u))B = (g(f (u)))B = = ((g ◦ f )(u))B .

Además es decir, ∀u ∈ E,

B MB (g ◦ f ) · (u)B = ((g ◦ f )(u))B ,

B B B MB (g) · MB (f ) · (u)B = MB (g ◦ f ) · (u)B ,

o lo que es lo mismo, ∀X ∈ Mn×1 (K),
B B B MB (g) · MB (f ) · X = MB (g ◦ f ) · X,

182 con lo que, por el lema anterior,
B B B MB (g) · MB (f ) = MB (g ◦ f ).

Álgebra

2

R − e.v. y las funciones lineales f : R3 → R2 y g : R2 → R2 tales que
B3 MB2 (f ) =

Ejemplo 3.5.8 Si consideramos en R3 y R2 sus estructuras habituales de
0 1 2 2 1 1 −1 0 0 −1 ,

y
B2 MB2 (g) =

resulta que
B3 B2 B3 MB2 (g ◦ f ) = MB2 (g) · MB2 (f ) =

−1 0 0 −1

·

0 1 2 2 1 1

=

=

0 −1 −2 −2 −1 −1

.

Observación 43 Es importante observar, tanto en la proposición como en el ejemplo anterior, el orden en el que se multiplican las matrices y la coincidencia de la bases que aparecen en la expresión
B2 B3 MB2 (g) · MB2 (f )

según la dirección Noroeste-Sureste.

Observación 44 La representación de una función lineal entre espacios vec-

toriales de dimensión nita mediante un producto de matrices así como la proposición (3.5.7), justican la denición dada en el capítulo 1 del producto de matrices.

Álgebra

183

3.5.6 Matrices semejantes y cambios de base
Dado un K − e.v. E de dimensión  n, teniendo en cuenta que la función IdE : E → E es lineal, resulta que, siendo B y B bases de E, tendremos que ∀u ∈ E, B (u)B = MB (IdE ) · (u)B , es decir, podemos obtener mediante un producto de matrices las coordenadas de cualquier vector respecto de la base B , sin más que conocer sus coordenadas respecto de la base B y la matriz de transición de B a B B MB (IdE ). Es más, teniendo en cuenta que
B B MB (IdE ) = In = MB (IdE ),

y que, como consecuencia de la proposición (3.5.7),
B B B B In = MB (IdE ) = MB (IdE ◦ IdE ) = MB (IdE ) · MB (IdE ) B B B B In = MB (IdE ) = MB (IdE ◦ IdE ) = MB (IdE ) · MB (IdE ), B obtenemos en denitiva que la matriz MB (IdE ) es invertible y que además B MB (IdE ) −1 B = MB (IdE ).

En consecuencia,

si E es un K − e.v. de dimensión  n y A ∈ Mn (K) es tal que
B A = MB (IdE ),

entonces la matriz A es invertible, y además
B A−1 = MB (IdE ).

Otra de las aplicaciones de la proposición (3.5.7) consiste en que nos B aporta un método para obtener la matriz MB (f ) de una función lineal f :

E → E respecto de otras bases (tanto de E como de E ). Así, por ejemplo,

184

Álgebra

si B1 es otra base de E, considerando la función lineal IdE : E → E, resulta que B B B B (3.2) MB 1 (f ) = MB 1 (f ◦ IdE ) = MB (f ) · MB 1 (IdE ), y si B es otra base de E , considerando la función lineal IdE : E → E , resultará que
B B B B MB (f ) = MB (IdE ◦ f ) = MB (IdE ) · MB (f ).

(3.3)

En particular, sean B y B dos bases del mismo K − e.v. E de dimensión B B nita n y f : E → E una función lineal. Sean MB (f ) y MB (f ) las matrices asociadas a f respecto de las bases B y B . Utilizando las ecuaciones (3.2), (3.3) y la proposición (3.5.7), se obtiene que
B B B B MB (f ) = MB (f ◦ IdE ) = MB (f )MB (IdE ) = B B B B B = MB (IdE ◦ f )MB (IdE ) = MB (IdE )MB (f )MB (IdE ).

Entonces,

B B B B MB (f ) = (MB (IdE ))−1 MB (f )MB (IdE ).

(3.4)

Esta última ecuación justica la siguiente denición:

Denición 3.5.9 Sean A, B ∈ Mn (K). Se dice que A y B son semejantes
si existe una matriz invertible P ∈ Mn (K) tal que B = P −1 AP.

equivalencia.

Observación 45 La relación de semejanza sobre Mn (K) es una relación de

Ejercicio 3.5.2 Si consideramos en R3 y R2 sus estructuras habituales de
R − e.v. y la función lineal f : R3 → R2 tal que
B3 MB2 (f ) =

0 1 2 2 1 1

,

siendo

B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}, y B = {(1, 1), (0, 1)},
B B B obtener las matrices MB2 (f ), MB 3 (f ) y MB (f ).

Álgebra

185

Ejemplo 3.5.10 Si consideramos en R2 su estructura habitual de R − e.v.
y las bases B2 (la base canónica) y B = {(0, 2), (1, 1)}, resulta que
B MB2 (IdR2 ) =

0 1 2 1

;

B por otra parte, para hallar MB 2 (IdR2 ) , podemos, o bien calcular por cualB quier método que se conozca la matriz inversa de MB2 (IdR2 ), o bien, tener B en cuenta que los vectores columna de MB 2 (IdR2 ) son las coordenadas de los vectores de la base canónica respecto de B. Si resolvemos el sistema de ecuaciones en α, β, γ y δ que se obtiene al escribir

(1, 0) = α(0, 2) + β(1, 1) y
llegamos a que

(0, 1) = γ(0, 2) + δ(1, 1),

α γ β δ

=

−1 1 2 2 1 0

B = MB 2 (IdR2 ).

3.5.7 Ecuaciones paramétricas e implícitas de un subespacio vectorial
En esta sección se denen y se muestra como hallar las ecuaciones paramétricas e implícitas de un subespacio cualquiera de un espacio vectorial de dimensión nita. En el capítulo 5 veremos como estas ecuaciones se utilizan en el contexto de los códigos lineales. En el capítulo 2 vimos que una recta r y un plano π por (0, 0, 0) son subespacios de R3 . Sus ecuaciones paramétricas son:  x = λa  r : y = λb λ ∈ R,   z = λc donde el vector u = (a, b, c), paralelo a r, es una base de r. Notar que R = Rdim(r) y que la función

g : R −→ R3 ,

186 denida por

Álgebra

g(λ) = (λa, λb, λc),
es lineal, inyectiva y

r = Im(g).
Se sigue que g : R −→ r es un isomorsmo. Para el plano π las ecuaciones paramétricas son  x = λu1 + µv1  π : y = λu2 + µv2 λ, µ ∈ R,   z = λu3 + µv3 donde los vectores u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ), linealmente independientes, forman una base de π. Notar que, en este caso, R2 = Rdim(π) y que la función

g : R2 −→ R3 ,
denida por

g(λ, µ) = λu + µv,
es lineal, inyectiva y

π = Im(g).
Se sigue que g : R2 −→ π es un isomorsmo. En general, sean E un K − e.v. tal que dim(E) = n y H E, H = {0}, de manera que dim(H) = r > 0. Según hemos visto, los espacios Kr y H son isomorfos. Si g : Kr → H es un isomorsmo y u ∈ E, tendremos que

u ∈ H ⇔ u ∈ Im(g) ⇔ ∃(α1 , ..., αr ) ∈ Kr tal que u = f (α1 , ..., αr ).
Siendo B una base cualquiera de E y Br la base canónica de Kr , tendremos que   α1  .  B u = g(α1 , ..., αr ) ⇔ (u)B = (g(α1 , ..., αr ))B = MB r (g) ·  .  .

αr
es decir,

Álgebra

187

 α1  .  B u ∈ H ⇔ ∃(α1 , ..., αr ) ∈ Kr ..(u)B = MB r (f ) ·  .  . . αr
A la expresión

 α1  .  B (u)B = MB r (f ) ·  .  . αr 

la denominaremos ecuaciones paramétricas de H respecto de la base B .

Ejemplo 3.5.11 Consideramos el espacio R3 con su base canónica B3 y

sea H el subespacio generado por el sistema {(1, 1, 0), (1, 2, 1)}. Teniendo en cuenta que este sistema es libre, resulta que dicho sistema es una base de H y que H es un plano por (0, 0, 0). Dado entonces (x, y, z) ∈ R3 , resulta que (x, y, z) ∈ H si y solo si ∃(α, β) ∈ R2 tal que (x, y, z) = α(1, 1, 0) + β(1, 2, 1), es decir, (x, y, z) = (α + α  2β, β). Si g  R2  H es el β, + : → 1 1  1  y g(0, 1) =  2  , entonces isomorsmo denido por g(1, 0) = 0 1   1 1 B2  1 2 . MB3 (g) = 0 1     1 1  1  , ((1, 2, 1))B3 =  2  , Teniendo en cuenta que ((1, 1, 0))B3 = 0 1 las ecuaciones paramétricas de H respecto de la base B3 se escribirían:

(u)B3

 1 1 = 1 2 · 0 1 

α β

 x o, en forma de sistema de ecuaciones, siendo  y  las coordenadas respecto z de B3 de un vector genérico de H ,

188

Álgebra

  x=α+β y = α + 2β .  z=β
Volviendo al caso de una recta r y un plano π por (0, 0, 0) en R3 , vimos que sus ecuaciones implícitas son

r:
y

h1 (x, y, z) = a1 x + b1 y + c1 z + d1 = 0 h2 (x, y, z) = a2 x + b2 y + c2 z + d2 = 0 π : h(x, y, z) = ax + by + cz + d = 0.

En el caso de la recta r, si denimos la función h : R3 −→ R2 como h(x, y, z) = (h1 (x, y, z), h2 (x, y, z)), resulta que

r = {(x, y, z) : h(x, y, z) = 0} = Ker(h).
Notar que el codominio de h es R2 = R3−dim(r) . Para el plano π, se puede denir la función h : R3 −→ R como h(x, y, z) = ax + by + cz + d y resulta que

π = {(x, y, z) : h(x, y, z) = 0} = Ker(h).
Notar que el codominio de h es, en este caso, R = R3−dim(π) . El caso general es el contenido de la siguiente proposición.

E, H = {0}, H = E, de manera que 0 < dim(H) = r < n. En estas condiciones existe una función lineal h : E −→ Kn−r tal que H = ker(h).

Proposición 3.5.12 Sean E un K − e.v. tal que dim(E) = n y H

extensión de una base, ∃{ur+1 , ..., un } ⊆ E tal que {u1 , ..., un } es una base de E. Siendo {e1 , ..., en−r } la base canónica de Kn−r consideramos la función lineal h : E →Kn−r determinada por las condiciones: 0 si i ≤ r ∀i ∈ {1, ..., n}, h(ui ) = . Evidentemente H ⊆ Ker(h), y ei−r si i > r puesto que el conjunto {e1 , ..., en−r } ⊆ Im(h), resulta que dim(Im(h)) = n− r, con lo que, teniendo en cuenta que dim(E) = n, resulta que dim(Ker(h)) =

Demostración Sea {u1 , ..., ur } ⊆ H una base de H. Por el teorema de

Álgebra

189

r = dim(H), es decir, H = Ker(h).

2

Vista la proposición anterior, si B = {u1 , ..., un } es una base de E y h : E →Kn−r es una función lineal tal que Ker(h) = H, siendo Bn−r la base canónica de Kn−r resulta que
B u ∈ H ⇔ h(u) = 0 ⇔ MBn−r (h) · (u)B = (0)

en denitiva,
B u ∈ H ⇔ MBn−r (h) · (u)B = (0)

A la expresión

B MBn−r (h) · (u)B = (0)

(o a su versión equivalente como sistema homogéneo de ecuaciones) la denominaremos ecuaciones implícitas de H respecto de B.

subespacio generado por el sistema {(1, 1, 0), (1, 2, 1)}. Teniendo en cuenta que este sistema es libre, resulta que dicho sistema es una base de H y que H es un plano. Extendiendo este sistema con el vector (0, 1, 0), resulta que

Ejemplo 3.5.13 Sea H el subespacio de R3 del ejemplo anterior, i.e., el

B = {(1, 1, 0), (1, 2, 1), (0, 1, 0)}
es un sistema libre (verifíquese) y en consecuencia es una base de R3 . Si ahora consideramos la función lineal h : R3 →R, determinada por las condiciones h(1, 1, 0) = 0, h(1, 2, 1) = 0 y h(0, 1, 0) = 1, resulta que H = Ker(h), y en consecuencia, siendo B1 la base canónica de R, u ∈ H ⇔ h(u) = 0 ⇔ B MB1 (h) · (u)B = (0), es decir, las ecuaciones implícitas de H respecto de   x  y  las B son 0 0 1 · (u)B = (0), o lo que es lo mismo, siendo z   x coordenadas de un vector genérico de H, 0 0 1 ·  y  = (0), que z escritas en forma de sistema de ecuaciones se reducen a z = 0.

190

Álgebra

Si ahora quisiéramos obtener las ecuaciones implícitas de H respecto de otra base, por ejemplo la base canónica de R3 , B3 , es suciente con cambiar la matriz considerada, es decir, las ecuaciones implícitas de H respecto de B3 B3 B3 B B son MB1 (h) · (u)B = (0) y, puesto que MB1 (h) = MB1 (h) · MB 3 (Id), teniendo  −1   1 1 0 1 0 −1 −1 B B =  1 2 1  =  0 0 1 , en cuenta que MB 3 (Id) = MB3 (Id) 0 1 0 −1 1 −1 resulta que las ecuaciones implícitas de H respecto de B3 son     1 0 −1 x  0 0 1  ·  y  = (0), 0 0 1 · −1 1 −1 z es decir, −x + y − z = 0.

3.6 Ejercicios
3.6.1 Ejercicios resueltos
1. Razonar si las siguientes funciones son o no lineales (en cada uno de los conjuntos considerados se considera su estructura habitual de espacio vectorial):

a) f :

R3 → R b) f : R3 → R (x, y, z) x + 2y − 3z (x, y, z) xyz c) f : R2 → R (x, y) x2 + y

2. Dada la función lineal f : R2 → R3 determinada por las condiciones

f (1, 0) = (3, 4, 1), f (0, 1) = (−1, 0, 1),
determinar f (3, 1) y f (2, −1). 3. Determinar si la función T : M2 (R) → R, donde

Álgebra

191

a b = 3a − 4b + c − d c d a b b) T = a 2 + b2 c d es una transformación lineal.
a) T 4. Sea T : R2 → R2 el operador lineal denido por la expresión T (x, y) = (2x − y, −8x + 4y). ¾Cuáles de los siguientes vectores están en R(T )? a) (1,-4) b) (5,0) c) (-3,12)

T (x, y) = (2x − y, −4(2x − 4)).
5. Sea T : P2 → P3 la transformación lineal denida por T (p(x)) = xp(x). ¾Cuáles de los siguientes vectores están en Ker(T )? a) x3 b) 0 c)1 + x 6. En cada inciso, usando la información proporcionada obtener la nulidad de T. a) T : R5 → R7 tiene rango 3. b) T : P4 → P3 tiene rango 1. c) T (R6 ) = R3 . d) T : M2 (R) → M2 (R) tiene rango 3. 7. Sea T : R2 → R2 la proyección ortogonal sobre la recta y=x. a) Encontrar el núcleo de T. b) ¾Es T uno a uno? Justicar la conclusión. 8. En cada inciso, usando la información dada determinar si (la función lineal) T es uno a uno. a) T : Rn → Rm ; nulidad(T) =0. b) T : Rn → Rn ; rango(T) = n-1. c) T : Rm → Rn ; n<m. d) T : Rn → Rn ; R(T) = Rn . 9. Sea T : P2 → P1 la transformación lineal denida por T (a0 + a1 x + a2 x2 ) = (a0 + a1 ) − (2a1 + 3a2 )x. a) Encontrar la matriz para T con respecto a las bases B2 = {1,x,x2 } y B1 = {1,x} para P2 y P1 . B1 b) Comprobar que la matriz (T)B2 ,B1 = MB2 (T ) obtenida en el inciso a) satisface la fórmula : A(p(x))B2 = (T(p(x)))B2 .

192 10. Sea T1 : P1 → P2 la transformación lineal denida por

Álgebra

T1 (c0 + c1 x) = 2c0 − 3c1 x
y sea T2 : P2 → P3 la transformación lineal denida por T2 (c0 + c1 x + c2 x2 ) = 3x(c0 + c1 x + c2 x2 ). Sean B1 = {1,x}, B2 = {1,x,x2 } y B3 = {1,x,x2 ,x3 }. B1 B2 B1 a) Encontrar MB3 (T2 ◦ T1 ), MB3 (T2 ), MB2 (T1 ). b) Escribir una fórmula que relacione las matrices del inciso a). c) Comprobar que las matrices del inciso a) satisfacen la fórmula planteada en el inciso b). 11. Sean A y B matrices semejantes. Demostrar lo siguiente: a) At y Bt son semejantes. b) Si A y B son invertibles, entonces A−1 y B−1 son semejantes. 12.(Teorema alternativo de Fredholm) Sea T : V → V un operador lineal sobre un espacio vectorial n dimensional. Demostrar que se cumple exactamente una de las siguientes proposiciones: i) La ecuación T(x) =b tiene una solución para todo los vectores b en V. ii) Nulidad de T > 0. 13. Sea la función lineal f : R4 → R3 determinada por las condiciones

f (1, 1, 1, 1) = (0, 0, 1), f (1, 0, 1, 0) = (1, 1, −1), f (1, 1, 1, 0) = (0, 0, −1), f (−1, −2, 0, 0) = (1, 1, 1). R3 .
a) Hallar la matriz asociada a f respecto de las bases canónicas de R4 y

b) La dimensión y las ecuaciones de Ker(f ) e Im(f ) respecto de las bases canónicas de R4 y R3 . 14. Sea E un espacio vectorial de dimensión 3 y B = {e1 , e2 , e3 } una base de E. Consideramos la función lineal f : E → E tal que su matriz asociada sea   15 −11 5 B MB (f ) =  20 −15 8  . 8 −7 6

Álgebra

193

Hallar la matriz asociada a f respecto de la base B = {u1 , u2 , u3 }, donde

u1 = 2e1 + 3e2 + e3 , u2 = 3e1 + 4e2 + e3 , u3 = e1 + 2e2 + 2e3 .

15. Hallar una base del núcleo y una base de la imagen de la siguiente función lineal: f : R4 → R3 determinada por las condiciones:

f (1, 0, 0, 0) = (1, 0, 1), f (0, 1, 0, 0) = (2, 1, −1), f (0, 0, 1, 0) = (3, 0, −1), f (0, 0, 0, 1) = (1, 1, 1).

16. En R2 se considera la base B = {u1 , u2 }, donde

u1 = 2e1 + 3e2 , u2 = 3e1 + 4e2 ,
y B2 = {e1 , e2 } = {(1, 0), (0, 1)}. Siendo la función lineal f : R2 → R2 tal que su matriz asociada respecto de B es
B MB (f ) =

3 15 2 10

,

hallar una base de Ker(f ) y una base de Im(f ).

3.6.2 Ejercicios propuestos
1. Razona si las siguientes funciones son o no lineales (en cada uno de los conjuntos considerados se considera su estructura habitual de espacio vectorial): f: R3 −→ R (x, y, z) → 2x + 1

g: h:

R3 −→ R2 (x, y, z) → (x − y, y 2 )

R4 −→ R2 (x, y, z, t) → (2x − 3y + t, z − t)

194

Álgebra

2. Prueba que para toda aplicación R-lineal f : R −→ R existe un número real a tal que f (x) = ax, ∀x ∈ R. 3. Prueba que dado un Kespacio vectorial E , una aplicación lineal

f : E −→ K
no nula es sobreyectiva. 4. Sea D((a, b), R) el conjunto de funciones derivables reales de variable real denidas en el intervalo (a, b) ⊂ R. (a) Demuestra que D((a, b), R) es un subespacio vectorial de F((a, b), R). (b) Prueba que la aplicación derivada

D : D((a, b), R) −→ F ((a, b), R) f → D(f ) = f
es una aplicación lineal. (c) ¾Cuál es el núcleo de dicha aplicación? 5. Sea C([a, b], R) el espacio vectorial de funciones reales continuas denidas en el intervalo [a, b] ⊂ R. Prueba que la aplicación integral denida

I : C([a, b], R) −→ R b f → I(f ) = a f (x)dx
es una aplicación lineal. 6. Considera el espacio vectorial P3 (R) de polinomios de grado menor o igual que 3 y las bases:

B3 = {1, x, x2 , x3 } y B = {1, (x − 1), (x − 1)2 , (x − 1)3 }.
B B Calcula las matrices de cambio de base: MB 3 (IdP3 (R) ) y MB3 (IdP3 (R) ). Halla las coordenadas respecto de B de los polinomios:

2x + 4x2 + x3 , 1 + x3 , 2 + 2x, 2 + x2 − x3 .

Álgebra

195

7. Sea B3 = {e1 , e2 , e3 } la base canónica de R3 . Sea f la única aplicación lineal de R3 en R4 vericando:

f (e1 ) = (2, 0, −1, 0) f (e2 ) = (1, 3, −2, 3) f (e3 ) = (1, 1, −1, 1)
(i) Halla f (x, y, z) para (x, y, z) ∈ R3 . (ii) Calcula una base de Ker(f ). (iii) Calcula una base de Im(f ). 8. Considera la aplicación lineal denida por:

f : R3 −→ R3 ,

3 f (x, y, z) = (x + 2y − 2z, x + 4y − 3z, x + 3y − 2z) 2
¾Qué dimensión tiene

Calcula las ecuaciones implícitas de Im(f ). Ker(f )?

9. Estudia la inyectividad, sobreyectividad y biyectividad de las aplicaciones lineales:

f:

R3 −→ R3 (x, y, z) → (2x + y − z, 3x + 2y − 4z, x + 2y − z)

g:

R4 −→ R3 (x, y, z, t) → (2y − 3z − 3t, −x + 2z + 4t, −2x + y + z) h : R2 −→ R4 denida por e1 → h(e1 ) = (2, −1, 0, 3) e2 → h(e2 ) = (1, 0, −1, −7)

10. Siendo f , g y h las aplicaciones lineales del ejercicio anterior, responde a las siguientes preguntas:

• ¾Pertenecen (3, −1, 0) y (2, 0, −1) a Im(f )? • ¾Pertenecen (2, −7, 11, 3) y (14, 15, 13, −3) a Ker(g)? • ¾Pertenecen (1, −1, 1, 10) y (1, 2, −5, −3) a Im(h)?

196 11. Sea f la aplicación lineal de R3 a R3 cuya canónica B3 = {e1 , e2 , e3 } es:  −3 5 B3 4 MB3 (f ) =  2 5 −2

Álgebra matriz respecto de la base

 0 2 5

Sea B = {v1 = (2, 2, −2), v2 = (0, 1, 2), v3 = (1, 2, 2)}. - Comprueba que B es una base de R3 .
B B B - Calcula las matrices MB 3 (IdR3 ), MB3 (IdR3 ) y MB (f )

12. Para cada n ∈ N, sea Pn (R) el espacio vectorial de polinomios en una variable de grado menor o igual que n con coecientes en R. Sea Bn = {1, x, . . . , xn } la base canónica de dicho espacio. Sea Dn la restricción de la aplicación derivada D a Pn (R):

Dn : Pn (R) −→ Pn−1 (R) p → D(p) = p
Para n = 3, calcula la matriz de la aplicación D3 respecto a las bases B3 y B2 . ¾Cuál será la forma general de la matriz de Dn respecto a las bases Bn y Bn−1 ?

Capítulo 4 Espacios vectoriales euclídeos
En el capítulo 2 hemos recordado la denición de producto escalar de vectores en R2 y R3 y hemos denido el producto escalar de vectores de Rn . La longitud de un vector y la√ distancia entre dos vectores quedaban denidas por las expresiones u = u · u y d(u, v) = u − v = (u − v) · (u − v). Hay situaciones en las que es necesario utilizar otras distancias entre objetos, por ejemplo, cuando se pretende obtener la mejor aproximación de una función por medio de funciones que pertenecen a un subespacio vectorial determinado. Esto puede conseguirse deniendo un producto escalar adecuado. A lo largo del capítulo consideraremos sólo espacios vectoriales sobre R. La teoría para espacios vectoriales euclídeos complejos es una generalización de la aquí presentada para espacios reales.

4.1

Producto escalar
<, >: E × E −→ R (u, v) < u, v >

Denición 4.1.1 Si E es un R − e.v. se dice que una función

es un producto escalar real (o producto interior real) si:

(p.e. 1) (p.e. 2) (p.e. 3) (p.e. 4)

∀u, v, w ∈ E < u + v, w >=< u, w > + < v, w > . ∀u, v ∈ E ∀α ∈ R < αu, v >= α < u, v > . ∀u, v ∈ E < u, v >=< v, u > . ∀u ∈ E < u, u >≥ 0 y < u, u >= 0 ⇔ u = 0.
197

198

Álgebra

Si <, >: E × E −→ R es un producto escalar, al par (E, <, >) le denominaremos espacio vectorial euclídeo (e.v.e.).

Ejemplo 4.1.2 En R2 la función
<, >: R2 × R2 −→ R
denida para cada par de vectores (x, y),(x , y ) ∈ R2 mediante la expresión

(x1 , x2 ), (y1 , y2 ) = x1 y1 + x2 y2
es un producto escalar. Como vimos, este producto escalar es el producto escalar usual de R2 .

Ejemplo 4.1.3 En general en el R − e.v. Rn la función
<, >: Rn × Rn −→ R
denida para cada par de vectores

(x1 , ..., xn ), (y1 , ..., yn ) ∈ Rn
mediante la expresión
n

(x1 , ..., xn ), (y1 , ..., yn ) = x1 y1 + ... + xn yn =
i=1

xi y i

es un producto escalar (verifíquese). Este producto escalar es el producto escalar usual de Rn .

Ejemplo 4.1.4 En el R − e.v. de los polinomios con coecientes reales R[x] consideraremos los productos escalares siguientes (verifíquese):
<, >1 : R[x] × R[x] −→ R
1

(p(x), q(x))
−1

p(x) · q(x)dx,

<, >0 : R[x] × R[x] −→ R
min{n,m}

(p(x), q(x))
i=0

ai bi ,

donde p(x) = an xn + ... + a1 x + a0 y q(x) = bm xm + ... + b1 x + b0 .

Álgebra

199

Es importante señalar que en el ejemplo anterior, los espacios vectoriales euclídeos (R[x], <, >0 ) y (R[x], <, >1 ), aún teniendo el mismo conjunto base, son distintos. Por ejemplo,
1

< 3, x2 >1 =
−1

3x2 dx = 2 y

< 3, x2 >0 = 3 · 0 = 0.

Observación 46 Nótese que si (E, <, >) es un e.v.e., a partir de las propiedades del producto escalar se verica que
∀u, v, w ∈ E
y ∀u, v ∈ E

< u, w + v >=< w + v, u >= =< w, u > + < w, v >=< u, w > + < v, w >

∀α ∈ R < u, αv >=< αv, u >= α < v, u >= α < u, v > .

Además, si α1 , ..., αn ∈ R y u1 , ..., un , v ∈ E,
n

α1 u1 + ... + αn un , v = α1 < u1 , v > +... + αn < un , v >=
i=1

αi < ui , v > .

Ejercicio 4.1.1 Demostrar que si (E, <, >) es un e.v.e., α1 , ..., αn , β1 , ..., βm ∈
R y u1 , ..., un , v1 , ..., vm ∈ E, entonces α1 u1 + ... + αn un , β1 v1 + ... + βm vm = = α1 β1 < u1 , v1 > +... + α1 βm < u1 , vm > + +α2 β1 < u2 , v1 > +... + αn βm < un , vm >= =
n m

αi βj < ui , vj > .

i=1 j=1

Se sigue que un producto escalar es lineal en la primera y segunda variables, es decir, es una función bilineal. Además, por valer las propiedades (p.e. 3) y (p.e. 4), se dice que <, > es una función bilineal, simétrica y denida positiva.

Ejercicio 4.1.2 Sea E un R − e.v.e. con producto escalar (·, ·) y sea v0

cualquier vector jo de E. Sea f : E → R la función denida por f (u) = (u, v0 ) ∀u ∈ E. Vericar que f es lineal.

200

Álgebra

4.2 Longitud o norma euclídea de un vector
Siguiendo la línea directriz marcada en la introducción, tomando el concepto de producto escalar como un concepto primario, vamos a denir a partir de él las nociones de norma, distancia y ángulo en espacios euclídeos.

es número real, u , tal que

Denición 4.2.1 Si (E, <, >) es un e.v. y u ∈ E, una norma (o módulo)
(n. 1) ∀u ∈ E u ≥0 y u = 0 ⇔ u = 0, (n. 2) ∀u ∈ E ∀k ∈ R ku = |k| u , (n. 3) ∀u, v ∈ E u+v ≤ u + v (desigualdad triangular).

Denición 4.2.2 Si (E, <, >) es un e.v.e. y u ∈ E, llamaremos norma euclídea (o módulo) de u al número real
u = √ < u, u >.
Antes de poder vericar que una norma euclídea verica la denición general de norma, necesitamos estudiar algunas de sus propiedades.

4.2.1 Propiedades de la norma euclídea
A partir de las propiedades que debe satisfacer la función <, > por ser un producto escalar, es fácil obtener las propiedades: (n. 1)∀u ∈ E u ≥ 0 y u = 0 ⇔< u, u >= 0 ⇔ u = 0. (n. 2)∀u ∈ E ∀k ∈ R

ku =

< ku, ku > =

k 2 < u, u > = |k| · u .

Otras propiedades de la norma euclídea que se pueden obtener fácilmente a partir de las propiedades del producto escalar son las que aparecen enunciadas en el ejercicio siguiente. 

ca que:

Ejercicio 4.2.1 Sea (E, <, >) un e.v.e.. Demostrar que ∀u, v ∈ E, se veri1. 2. 3. u+v 2+ u−v 2 =2 u 2+ v < u, v >= 1 u + v 2 − u 2 − v 2 < u, v >= 1 u + v 2 − u − v 2 4
2 2

(ley del paralelogramo)

A las propiedades 2 y 3 se las conoce como identidades de polarización.

Álgebra

201

Además de las propiedades anteriores, vamos a obtener otras propiedades de la norma que derivan básicamente del siguiente resultado conocido como desigualdad de Cauchy-Schwarz.

Teorema 4.2.3 Si (E, <, >) es un e.v.e., ∀u, v ∈ E se verica que
|< u, v >| ≤ u · v .
Además

|< u, v >| = u · v ⇔ {u, v} es ligado.

Demostración ∀λ ∈ R consideramos el vector u + λv. Por las propiedades
del producto escalar,

∀λ ∈ R
pero

< u + λv, u + λv >≥ 0

< u + λv, u + λv >=< u, u > +2λ < u, v > +λ2 < v, v > .
Si denimos a =< v, v >, b =< u, v > y c =< u, u > y consideramos la función f: R → R λ f (λ) = aλ2 + 2bλ + c según es sabido, el grafo de f es una parábola de R2 y, puesto que si {u, v} es libre, u + λv = 0, ∀λ ∈ R y

∀λ ∈ R

< u + λv, u + λv >= aλ2 + 2bλ + c > 0,

tendremos que eso sólo es posible si ∀λ ∈ R la ecuación de segundo grado anterior no tiene raíces reales, es decir, si su discriminante es negativo:

∆ = 4b2 − 4ac < 0
o, lo que es lo mismo, con lo que

b2 − ac < 0,

< u, v >2 − < u, u >< v, v > < 0,

202 es decir,

Álgebra

|< u, v >| <
Además

< u, u > ·

< v, v > = u · v .

|< u, v >| = ⇔ ⇔ ⇔ ⇔ ⇔

u · v ⇔ b2 − ac = 0 ⇔ ∃λ ∈ R tal que < u, u > +2λ < u, v > +λ2 < v, v >= 0 ∃λ ∈ R tal que < u + λv, u + λv >= 0 ∃λ ∈ R tal que u + λv = 0 ∃λ ∈ R tal que u + λv = 0 {u, v} es ligado. 2

A partir del resultado anterior se obtiene la propiedad (n. 3), la desigualdad triangular o desigualdad del triángulo, para norma euclídeas. Por tanto, una norma euclídea es una norma.

Proposición 4.2.4 Si (E, <, >) es un e.v.e., ∀u, v ∈ E se verica que
u+v ≤ u + v .

Demostración
u+v
2

= < u + v, u + v >=< u, u > +2 < u, v > + < v, v >= = u 2 + v 2 + 2 < u, v >≤ u 2 + v 2 + 2 |< u, v >| ≤ ≤ u 2 + v 2 + 2 u · v = ( u + v )2 ,

de donde, extrayendo raíces cuadradas

u+v ≤ u + v . 2

Ejercicio 4.2.2 Determinar las normas euclídeas asociadas a los productos escalares denidos en los ejemplos anteriores.

Álgebra

203

Ángulo entre dos vectores
A partir del producto escalar, también podemos recuperar el concepto de ángulo. Si (E, <, >) es un e.v.e. y u, v ∈ E, u = 0, v = 0, como consecuencia de la desigualdad de Cauchy-Schwarz y de las propiedades que satisface el valor absoluto resulta que

−1 ≤

< u, v > ≤ 1. u · v

Denición 4.2.5 Si (E, <, >) es un e.v.e. y u, v ∈ E, u = 0, v = 0, se denomina ángulo entre los vectores u y v al número real uv ∈ [0, π] tal que
cos(uv) = < u, v > . u · v

Denición 4.2.6 Si (E, <, >) es un e.v.e., y u, v ∈ E, se dice que u y v son ortogonales (o perpendiculares) si
< u, v >= 0.

Ejercicio 4.2.3 Compruébese que si u, v ∈ (E, <, >), u = 0, v = 0, entonces
uv =
y

π ⇔ u y v son ortogonales. 2

{u, v} es ligado ⇔ uv = 0 ó uv = π.
Para probar esta última parte, téngase en cuenta que, si por ejemplo uv = 0, entonces |< u, v >| = u · v y que, en tal caso, valen las conclusiones del teorema (4.2.3).

Ejercicio 4.2.4 En el e.v.e. (R3 , <, >), donde <, > es el producto escalar
usual, determinar el ángulo formado por los vectores (1, 0, 1) y (0, 0, 1).

Ejercicio 4.2.5 Determinar el ángulo que forman los vectores 1 + x, x2 ∈
R[x] en los e.v.e. (R[x], <, >1 ) y (R[x], <, >0 ).

204

Álgebra

Distancia euclídea
Finalmente, a partir del producto escalar, también podemos denir la distancia entre vectores.

Denición 4.2.7 Si (E, <, >) es un e.v.e. y u, v ∈ E se denomina distancia euclídea de u a v y se denota por d(u, v) al número real
d(u, v) = u − v = √ < u − v, u − v >.
A partir de las propiedades vistas de la norma euclídea, es fácil ver que se satisfacen las propiedades que debe vericar cualquier función distancia, a saber:

1. ∀x, y ∈ E 2. ∀x, y ∈ E 3. ∀x, y, z ∈ E

d(x, y) ≥ 0. d(x, y) = 0 ⇔ x = y d(x, z) ≤ d(x, y) + d(y, z).

usual, determinar la distancia entre los vectores (1, 0, 1) y (0, 1, 1).

Ejercicio 4.2.6 En el e.v.e (R3 , <, >), donde <, > es el producto escalar

Ejercicio 4.2.7 En el e.v.e (R[x], <, >1 ) determinar d(1 + x, x2 ). Ejercicio 4.2.8 En el e.v.e (R[x], <, >0 ) determinar d(1+x, x2 ). Compárese
el resultado obtenido con el del ejercicio anterior.

4.3 Método de ortogonalización de Gram-Schmidt
Denición 4.3.1 Sean (E, <, >) un e.v.e. y {u1 , ..., ur } un sistema de vectores de E. Se dice que el sistema {u1 , ..., ur } es ortogonal si se verica:
1. ∀i ∈ {1, ..., r} ui = 0 2. ∀i, j ∈ {1, ..., r} (i = j ⇒< ui , uj >= 0)
Si además de ser un sistema ortogonal, el sistema {u1 , ..., ur } satisface

3. ∀i ∈ {1, ..., r}

ui = 1

se dice que el sistema {u1 , ..., ur } es ortonormal.

Proposición 4.3.2 Sean (E, <, >) un e.v.e. y {u1 , ..., ur } un sistema de
vectores de E \ {0}. Se verica que

{u1 , ..., ur } ortogonal ⇒ {u1 , ..., ur } libre.

Álgebra

205

Demostración Supongamos que
α1 u1 + ... + αr ur = 0.
En ese caso

∀i ∈ {1, ..., r}

α1 u1 + ... + αr ur , ui =< 0, ui >= 0.

Pero por otra parte, ∀i ∈ {1, ..., r},

α1 u1 + ... + αr ur , ui = = α1 < u1 , ui > +... + αi < ui , ui > +... + αr < ur , ui >= = αi ui 2 ,
puesto que si j = i < uj , ui >= 0. En denitiva,

∀i ∈ {1, ..., r} αi = 0
y en consecuencia {u1 , ..., ur } es libre.

2

Observación 47 Es importante notar que existen sistemas libres que no son
ortogonales, por ejemplo dos vectores que no son ni paralelos, ni perpendiculares.

Denición 4.3.3 Sean (E, <, >) un e.v.e y B = {u1 , ..., un } una base de E. Se dice que B es una base ortogonal si el sistema {u1 , ..., un } es ortogonal y, obviamente, se dice que B es una base ortonormal si el sistema {u1 , ..., un }
es ortonormal.
Obviamente si (E, <, >) un e.v.e. tal que dim(E) = n y {u1 , ..., un } es un sistema ortogonal, necesariamente {u1 , ..., un } es una base ortogonal, siendo libre como consecuencia de la proposición anterior. En el siguiente teorema expondremos un método, conocido como método de ortogonalización de Gram-Schmidt, que nos va a permitir construir un sistema ortogonal a partir de un sistema dado (en particular una base ortogonal a partir de una base dada). La idea consiste en, partiendo del primer vector del sistema dado, que coincidirá con el primer vector del sistema ortogonal obtenido, ir construyendo el sistema de manera que cada vector que añadimos sea ortogonal a los vectores ya construidos.

206

Álgebra

Teorema 4.3.4 Sean (E, <, >) un e.v.e. y {u1 , ..., ur } un sistema libre de
E. En estas condiciones existe un sistema ortogonal {v1 , ..., vr } tal que ∀i ∈ {1, ..., r} L({v1 , ..., vi }) = L({u1 , ..., ui }).

Base de inducción: Si r = 1 no hay nada que probar, puesto que si {u1 } es libre, u1 = 0 y obviamente (según la denición) {u1 } es ortogonal. Paso de inducción: Supongamos cierto el resultado para todo sistema libre de r vectores. Sea {u1 , ..., ur+1 } un sistema libre. En ese caso, puesto que {u1 , ..., ur } es un sistema de r vectores, podemos aplicar la hipótesis de inducción, es decir, existe un sistema ortogonal {v1 , ..., vr } tal que

Demostración Razonamos por inducción sobre r : .

∀i ∈ {1, ..., r} L({v1 , ..., vi }) = L({u1 , ..., ui }).
Veamos cómo construir vr+1 de manera que satisfaga las condiciones requeridas. Puesto que L({v1 , ..., vr }) = L({u1 , ..., ur }), buscamos vr+1 ∈ E de manera que

L({v1 , ..., vr , vr+1 }) = L({u1 , ..., ur , ur+1 }).
Resulta que debe suceder que

vr+1 ∈ L({v1 , ..., vr , vr+1 }) = L({u1 , ..., ur , ur+1 }) = L({v1 , ..., vr , ur+1 }).
Pongamos

vr+1 = ur+1 + λ1 v1 + ... + λr vr
y veamos cómo deben ser los coecientes λ1 , ..., λr ∈ R para que se satisfaga la condición de ortogonalidad, es decir, que

∀i ∈ {1, ..., r}
Dado i ∈ {1, ..., r},

< vr+1 , vi >= 0.

< vr+1 , vi >=< ur+1 + λ1 v1 + ... + λr vr , vi >= = < ur+1 , vi > +λ1 < v1 , vi > +... + λr < vr , vi >= = < ur+1 , vi > +λi < vi , vi >

Álgebra

207

puesto que el resto de los términos son nulos, al ser ortogonal el sistema {v1 , ..., vr } . Imponiendo entonces la condición

< vr+1 , vi >= 0 =< ur+1 , vi > +λi < vi , vi >
resulta que

λi = − qed

< ur+1 , vi > . < vi , v i >

Método de ortogonalización de Gram-Schmidt
De la demostración anterior se deduce que, en denitiva, dado el sistema libre {u1 , ..., ur } , el método de ortogonalización de Gram-Schmidt consiste en denir el sistema de vectores

v1 = u1

v2 = u2 − v3

vr

< u 2 , v1 > · v1 < v 1 , v1 > < u3 , v2 > < u 3 , v1 > · v1 − · v2 = u3 − < v 1 , v1 > < v 2 , v2 > . . . < ur , vr−1 > < ur , v1 > · v1 − ... − · vr−1 , = ur − < v 1 , v1 > < vr−1 , vr−1 >

que es un sistema ortogonal y además satisface la condición

∀i ∈ {1, ...r − 1} L({v1 , ..., vi }) = L({u1 , ..., ui }).

Observación 48 Nótese que si {v1 , ..., vr } es ortogonal, deniendo
∀i ∈ {1, ..., r} wi = vi vi

el sistema {v1 , ..., vr } es ortonormal, puesto que

∀i ∈ {1, ..., r}

wi =

vi vi

=

1 · vi = 1. | vi |

208

Álgebra

servación anterior, si (E, <, >) es un e.v.e., con E de dimensión nita, y {u1 , ..., un } es una base de E, utilizando el método de Gram-Schmidt podemos obtener, a partir de ella, una base ortogonal y, posteriormente, dividiendo cada vector por su norma, obtendremos una base ortonormal de (E, <, >). En consecuencia, podemos armar que todo e.v.e. de dimensión nita tiene una base ortonormal.

Observación 49 Nótese que como consecuencia del teorema y de la ob-

Ejercicio 4.3.1 A partir de la base
{(1, 1, 1), (1, 1, 0), (1, 0, 0)},
obtener por el método de Gram-Schmidt una base ortonormal de (R3 , <, >), donde <, > es el producto escalar habitual.

Coordenadas ortonormales
La pregunta que es natural hacerse es ¾porqué nos interesa trabajar con bases ortonormales? Aunque más adelante veremos otras propiedades que tienen que ver con la mejor aproximación o aproximación óptima de un vector por vectores de un subespacio, la primera ventaja, que resulta evidente, es la siguiente. Si B = {w1 , ..., wn } es una base ortonormal de (E, <, >), las coordenadas de cualquier vector u ∈ E respecto de dicha base se pueden obtener en función del producto escalar de u por los vectores de B, pues si

u = α1 w1 + ... + αn wn
resulta que ∀i ∈ {1, ..., n}

< u, wi > = < α1 w1 + ... + αn wn , wi >= = α1 < w1 , wi > +... + αn < wn , wi >= = αi < wi , wi >= αi wi 2 = αi ,
con lo que
n

u =< u, w1 > w1 + ...+ < u, wn > wn =
i=1

< u, wi > wi .

El resultado de la siguiente proposición se conoce como identidad de Parseval y es una generalización del teorema de Pitágoras.

Álgebra

209

Proposición 4.3.5 Si B = {w1 , ..., wn } es una base ortonormal del e.v.e.
(E, <, >), entonces ∀u ∈ E se verica que
n

u

2

=
i=1

< u, wi >2 .

Demostración Sea B = {w1 , ..., wn } una base ortonormal de (E, <, >).
En ese caso
n

u=
i=1

< u, wi > wi ,

con lo que
n n

u

2

= < u, u >=<
i=1 n

< u, wi > wi ,
j=1 n

< u, wj > wj >=

=
i=1 n

< u, wi >< wi ,
j=1 n

< u, wj > wj >= < u, wj >< wi , wj > =

=
i=1 n

< u, wi >
j=1

(teniendo en cuenta que la base es ortonormal)

=
i=1 n

< u, wi > (< u, wi >< wi , wi >) =
n

=
i=1

< u, wi >

2

wi

2

=
i=1

< u, wi >2 . 2

4.3.1 Descomposición QR de una matriz
Si A ∈ Mm×n (R) tiene vectores columna (A1 , A2 , · · · , An ) = (u1 , u2 , · · · , un ) linealmente independientes, es decir, si rango(A) = n, el método de ortogonalización de Gram-Schmidt nos proporciona una manera de determinar, a partir del sistema libre (u1 , u2 , · · · , un ), un sistema ortonormal (q1 , q2 , · · · , qn ). Si ahora denotamos con Q ∈ Mm×n (R) a la matriz cuyos vectores columna son los vectores obtenidos (q1 , q2 , · · · , qn ), ¾cuál es la relación entre A y Q?

210

Álgebra

Siendo (q1 , q2 , · · · , qn ) una base ortonormal del espacio columna de A, L(u1 , u2 , · · · , un ), se sigue que
n

∀j ∈ {1, · · · , n}

uj =
i=1

< uj , qi > q i .

Sea R = (< qi , uj >) ∈ Mn (R) la matriz cuyas columnas son las coordenadas de los vectores (u1 , u2 , · · · , un ) respecto de la base (q1 , q2 , · · · , qn ). Entonces   < u 1 , q1 > < u 2 , q 1 > · · · < u n , q 1 >  < u 1 , q2 > < u 2 , q 2 > · · · < u n , q 2 >    R= , . . . . . . . .   . . . .

< u 1 , q n > < u2 , q n > · · · ∀j ∈ {1, · · · , n} Aj = (QR)j

< un , qn >
y A=QR .

Además, siendo qi ortogonal a u1 , u2 , · · · R es triangular superiormente:  < u 1 , q 1 > < u2 , q 1 >  0 < u2 , q2 >  R= . . . .  . . 0 0

, ui−1 para todo i ≥ 2, la matriz ··· ··· . . . ···  < un , q1 > < un , q2 >    . .  . < un , qn >

e invertible, ya que < ui , qi >= 0, para todo i ∈ {1, · · · , n}. Hemos así obtenido la descomposición QR de la matriz A en el producto de una matriz Q con vectores columna ortogonales por una matriz R invertible y triangular superiormente. La descomposición QR se utiliza en varios algoritmos numéricos y, en particular, en el cálculo numérico de autovalores de matrices grandes.

Ejemplo 4.3.6 Sea A ∈ M3×2 (R) denida por
  1 1 A = 0 1 . 1 1     1 1 0 y u2 = 1 . Entonces u1 = 1 1

Álgebra

211

Aplicando el método de Gram-Schmidt se obtiene la base ortogonal       1 1 0 < u2 , v1 > 1 − 2 0 = 1 . v 1 = u1 , v 2 = u2 − · v1 = < v1 , v1 > 2 1 1 0 Una base ortonormal del espacio columna de A es 1   √ 0 2 v2 v1 =  0 , = 1 . q2 = q1 = v1 v2 1 √ 0 2 Por tanto, 1

Q=0
y A = QR.

2

1 √ 2

 0 1 , 0

R=

< u1 , q1 > < u 2 , q1 > 0 < u2 , q2 >

√ =

2 0

2 1

4.4

Proyecciones ortogonales

Denición 4.4.1 Sean (E, <, >) un e.v.e. y A ⊆ E. Diremos que v ∈ E es
un vector ortogonal a A si ∀u ∈ A, < v, u >= 0.

Ejemplo 4.4.2 En (R3 , <, >), donde <, > es el producto escalar usual de Observación 50 Nótese que el vector 0 ∈ E es ortogonal a cualquier sub-

R3 , cualquier vector de la recta L((0, 0, 1)) es ortogonal al conjunto A = {(1, 1, 0), (0, 1, 0)}.
conjunto A ⊆ E. Pues, siendo A cualquier subconjunto de E, ∀u ∈ A se verica que

< u, 0 >=< u, u − u >=< u, u > − < u, u >= 0
o, si se preere,

< u, 0 >=< u, 0 · 0 >= 0· < u, 0 >= 0.

Proposición 4.4.3 Sean (E, <, >) un e.v.e. y A ⊆ E. Se verica que el
conjunto

A⊥ = {v ∈ E |∀u ∈ A < v, u >= 0 }

es un subespacio vectorial de E. A este subespacio se le denomina subespacio ortogonal de A.

212

Álgebra

Demostración Ejercicio. Observación 51 En el caso particular de que (E, <, >) sea un e.v.e. de
dimensión nita y H

complemento ortogonal de H.
estas condiciones se verica que

E, al subespacio ortogonal de H se le denomina E. En

Proposición 4.4.4 Sean (E, <, >) un e.v.e. con dim(E) = n y H
dim(H ⊥ ) = n − dim(H).

que dim(H) = r > 0. En ese caso, siendo {u1 , ..., ur } una base de H, por el teorema de extensión de una base, existen ur+1 , ..., un tales que el sistema {u1 , ..., ur , ur+1 , ..., un } es una base de E. Utilizando el método de GramSchmidt y posteriormente dividiendo cada vector por su norma, obtenemos una base ortonormal {w1 , ..., wr , wr+1 , ..., wn } de (E, <, >) tal que

Demostración Si H = {0} el resultado es evidente. Supongamos, pues,

L(w1 , ..., wr ) = L(u1 , ..., ur ) = H.
La proposición estará demostrada si comprobamos que

{wr+1 , ..., wn }
es una base de H ⊥ . Evidentemente {wr+1 , ..., wn } es un sistema libre, puesto que es un subsistema de un sistema libre. Veamos que es también un sistema generador de H ⊥ : si v ∈ H ⊥ , como H ⊥ ⊂ E y {w1 , ..., wr , wr+1 , ..., wn } es una base de E, existirán α1 , ..., αr , αr+1 , ..., αn ∈ R tales que

v = α1 w1 + ... + αr wr + αr+1 wr+1 + ... + αn wn .
Ahora bien, como ∀u ∈ H < v, u >= 0, en particular

∀i ∈ {1, ..., r} < v, wi >= 0,
y puesto que {w1 , ..., wr , wr+1 , ..., wn } es ortonormal, resulta que

∀i ∈ {1, ..., n} < v, wi >= αi ,

Álgebra con lo que obtenemos que α1 = α2 = · · · = αr = 0 y

213

v = αr+1 wr+1 + ... + αn wn ∈ L({wr+1 , ..., wn }). 2

vectorial H y {w1 , ..., wr , wr+1 , ..., wn } es una base ortonormal del espacio E, por la proposición anterior {wr+1 , ..., wn } es una base de H ⊥ , con lo que

Observación 52 Si {w1 , ..., wr } es una base ortonormal de un subespacio

∀u ∈ E ∃!(α1 , ..., αr , αr+1 , ..., αn ) ∈ Rn tales que u = α1 w1 + ... + αr wr + αr+1 wr+1 + ... + αn wn .
Si denotamos por

h = α1 w1 + ... + αr wr ∈ H
y por resulta que

h⊥ = αr+1 wr+1 + ... + αn wn ∈ H ⊥

∀u ∈ E

∃!h ∈ H

y

∃!h⊥ ∈ H ⊥

tales que

u = h + h⊥ .

Denición 4.4.5 Siendo (E, <, >) un e.v.e. de dimensión nita, H
u ∈ E, si u = h + h⊥

E y

con h ∈ H y h⊥ ∈ H ⊥ , al vector h se le denomina proyección ortogonal de u sobre el subespacio H y se le denota por p⊥ (u). H subespacio de dimensión nita r de E. Si B = (w1 , w2 , · · · , wr ) es una base ortonormal de H , sea p⊥ : E → H la función proyección ortogonal de E H sobre H, denida por

Ejercicio 4.4.1 Sea E un R − e.v.e. con producto escalar < ·, · > y H un

p⊥ (u) =< u, w1 > w1 + < u, w2 > w2 + · · · + < u, wr > wr H
Vericar que p⊥ es lineal. H

∀u ∈ E.

214

Álgebra

4.4.1 Método para hallar una proyección ortogonal
Para calcular la proyección ortogonal de un vector u sobre un subespacio H procederemos como sigue: a partir de una base del subespacio H obtenemos (por el método de Gram-Schmidt) una base ortonormal {w1 , ..., wr } de H. La proyección de u sobre H será entonces el vector

p⊥ (u) = h = α1 w1 + ... + αr wr =< u, w1 > w1 + ...+ < u, wr > wr . H
En el caso particular de que H = L({v}), puesto que v { } v es una base ortonormal de H, la proyección ortogonal de u sobre H será el vector v v < u, v > h =< u, >· = · v. v v v 2

Ejemplo 4.4.6 En (R[x], <, >1 ) donde
<, >1 : R[x] × R[x] −→ R
1

(p, q)

< p, q >1 =
−1

p(x) · q(x)dx,

obtener la proyección ortogonal del vector x2 sobre el subespacio H = L({x, 1+ x}). Siendo {x, 1 + x} un sistema libre, es también una base de H. Aplicando el método de Gram-Schmidt, se obtiene la base ortogonal

u1 = x,

u2 = 1 + x −

2 < 1 + x, x >1 x = 1 + x − 3 x = 1. 2 < x, x >1 3

Una base ortonormal es

w1 =
Entonces

u1 u1

=
1

x
2 3

=

3 x, 2

w2 =

u2 u2

1

1 =√ . 2

p⊥ (x2 ) H

√ 1 2 =< x , w1 >1 w1 + < x , w2 >1 w2 = 1 = w2 . 3 3
2 2

R3 , obtener la proyección ortogonal del vector (1, 2, 1) sobre los subespacios H = L((1, 0, 1)) y H = L((1, 0, 1), (1, 0, 0)).

Ejercicio 4.4.2 En (R3 , <, >) donde <, > es el producto escalar usual de

Álgebra

215

4.4.2 Aproximación óptima de un vector.
Siendo (E, <, >) un e.v.e. (de dimensión nita o no), u ∈ E y H E, H = L({u1 , ..., um }), buscamos el vector de H que mejor aproxima al vector u o, lo que es lo mismo, buscamos el vector de H que está a la menor distancia posible de u. Como veremos, dicho vector es la proyección ortogonal de u sobre H y, según hemos visto, la forma de obtener dicha proyección ortogonal es a través de una base ortonormal de H. Antes de obtener el resultado central de esta sección, veamos un lema previo.

Lema 4.4.7 Si {w1 , ..., wr } es un sistema ortonormal del e.v.e. (E, <, >) y
u ∈ E, se verica que ∀i ∈ {1, ..., r} el vector
r

u−
j=1

< u, wj > wj

es ortogonal al vector wi .

Demostración Sea i ∈ {1, ..., r}. En ese caso
r

< u−
j=1

< u, wj > wj
r

, wi >= =

= < u, wi > −
j=1

< u, wj >< wj , wi >

(puesto que el sistema es ortonormal) = < u, wi > − < u, wi >< wi , wi >= = < u, wi > − < u, wi >= 0.

2

Teorema 4.4.8 Sean {w1 , ..., wr } un sistema ortonormal del (E, <, >) y
H = L(w1 , ..., wr ). Entonces, para todo u ∈ E, se verica que d(u, p⊥ (u)) ≤ d(u, w) H
En otras palabras, p⊥ (u) = H
r i=1

∀w ∈ H.

< u, wi > wi es el vector de H = L({w1 , ..., wr })

que está a menor distancia de u (i.e., el que mejor lo aproxima).

216

Álgebra

Demostración Por denición
r r

d(u, p⊥ (u)) = d(u, H
i=1

< u, wi > wi ) = u −
i=1

< u, wi > wi

.

Según hemos visto en el lema anterior, el vector
r

u−
i=1

< u, wi > wi

es ortogonal a cada uno de los vectores w1 , ..., wr y, en consecuencia, también será ortogonal a cualquier combinación lineal de dichos vectores. Por otra parte, si w =
r i=1

αi wi es un vector de H,
r 2

d(u, w) = u −
i=1 r

2

αi wi

=
2

= =

u−
i=1

αi wi p⊥ (u)) H +

− p⊥ (u) + p⊥ (u) H H
r

=
2

(u −

(< u, wi > −αi )wi
i=1 r

=

por la identidad de Parseval, ya que u −

p⊥ (u) H +

∈H y
i=1 r

(< u, wi > −αi )wi ∈ H,
2

=
con lo que

u−

2 p⊥ (u) H

(< u, wi > −αi )wi
i=1

u − p⊥ (u) H

2

≤ d(u, w)2 . 2

R3 , hallar la mejor aproximación del vector (1, 0, 1) por vectores del subespacio H = L((1, 2, 1), (1, 0, 0)).

Ejercicio 4.4.3 En (R3 , <, >), donde <, > es el producto escalar usual de

Álgebra

217

Ejercicio 4.4.4 En (R[x], <, >1 ) donde
<, >1 : R[x] × R[x] −→ R
1

(p, q)

< p, q >1 =
−1

p(x) · q(x)dx,

Hallar la mejor aproximación del vector x por vectores del subespacio H = L({1 + x}).
A lo largo de la práctica 4 veremos como la propiedad de aproximación de la proyección ortogonal de un vector sobre un subespacio se puede utilizar para determinar, por mínimos cuadrados, soluciones aproximadas óptimas de problemas que utilizan datos experimentales y, por tanto, datos que contienen un error (ruido).

4.5

Ejercicios

4.5.1 Ejercicios resueltos
1. En el espacio vectorial euclídeo R3 con el producto escalar usual se considera el sistema de vectores

{(1, 2, −1), (0, 1, 1)}.
Se pide obtener, mediante el método de Gram-Schmidt, una base ortonormal del subespacio L({(1, 2, −1), (0, 1, 1)}) y la proyección ortogonal del vector (1, 1, 1) sobre dicho subespacio.

4.5.2 Ejercicios propuestos
1. Calcula, mediante el metodo de Gram-Schmidt, una base ortonormal del subespacio de R3

V = L({(1, 2, −2), (0, −4, 3)})
Completa dicha base a una base ortonormal B de R3 y calcula la proyección ortogonal del vector (2, 1, 3) sobre V . Calcula también las coordenadas de los vectores de la base canónica de R3 respecto de B .

218

Álgebra

2. Considera la función proyección ortogonal p⊥ de R3 sobre el subespacio V V del ejercicio anterior como aplicación de R3 a R3 . Calcula:
B3 B MB (p⊥ ) y MB3 (p⊥ ) V V

siendo B3 la base canónica de R3 . 3. Calcula la descomposición QR de  −1 2 2 la matriz  0 3 −1 0 −2 1

4. Calcula las ecuaciones implícitas y paramétricas del complemento ortogonal de los siguientes subespacios:

V = L({(1, −1, 1, 0), (0, 1, 0, 3)})

R4 ,

W = L({1, 2, −3)})

R3

5. Considera el espacio vectorial P2 (R) de polinomios de grado menor o igual que dos como espacio vectorial euclídeo con el producto escalar denido por:
1

p(x), q(x)

1

=
−1

p(x) · q(x)dx

• Obtén, mediante el método de Gram-Schmidt, una base ortonormal de (P2 (R), , 1 ) a partir de la base B3 = {1, x, x2 }. • Calcula las normas de los vectores de B3 y los ángulos que forman dos a dos.

Capítulo 5 Códigos lineales
5.1 Introducción

En nuestros días, la generalización en el uso de instrumentos electrónicos conlleva la necesidad de transmitir una gran cantidad de datos de forma rápida y segura. Ejemplos de lo anterior son la transmisión de imágenes de televisión a y desde satélites y la comunicación telefónica. Otros ejemplos, en los que hay menos distancia entre el emisor y el receptor de la información, son la transmisión de datos entre ordenadores conectados a una red o entre distintas unidades de un mismo ordenador. La teoría de códigos tiene su origen en el artículo de Claude Shanon The Mathematical Theory of Communication , publicado en la revista Bell System Technical Journal 27, 1948 y en los trabajos de Marcel Golay (1949) y Richard Hamming (1950). Deseamos transmitir información a través de un canal con ruido según el esquema: Transmisor >>>>>>>>> Receptor
↑ ↓ RU IDO

Codicador

Decodicador

Mensaje original

Mensaje decodicado

Se quieren detectar y, si es posible, corregir los errores de transmisión. El esquema general es el siguiente: 219

220

Álgebra

• Se utiliza el alfabeto binario Z2 = {0, 1}. • Se codica el mensaje original utilizando palabras (cadenas) binarias (un error es una confusión entre un 0 y un 1). • Se transmite el mensaje, que se corrompe. • Se corrige el mensaje (si es posible). • El codicador traduce el mensaje.
Es conveniente utilizar palabras de la misma longitud. Hay 2n palabras binarias de longitud n ∈ N.

Ejemplo 5.1.1 Si n = 3,
Z3 = {000, 100, 010, 001, 110, 101, 011, 111} 2
es el conjunto de las palabras binarias de longitud 3.
Cada uno de los símbolos de una palabra es un bit (binary digit). Un código binario C de longitud n es un cualquier subconjunto de

Zn . 2

Ejemplo 5.1.2 Supongamos que queremos enviar los siguientes mensajes:
ARRIBA,
Código C1 C2 C3 Longitud 2 3 6

ABAJO,
ARRIBA 00 000 000000

IZQU IERDA,
ABAJO 10 110 111000

DERECHA.
DERECHA 11 101 110011

Vamos a utilizar varios códigos, denidos en la siguiente tabla: IZQUIERDA 01 011 001110

Entonces: C1 no tiene capacidad de detectar errores (alterando un bit se obtiene una palabra del código). C2 es capaz de detectar un error individual (alterando un bit se obtiene una palabra que no puede ser del código) y no puede corregir errores. Por ejemplo, 111 puede ser el resultado de un único error en las tres palabras del código 110, 011 o 101. C3 es capaz de detectar un error individual y corregirlo (dos palabras distintas del código no pueden transformarse en la misma palabra si hay un único error).

Álgebra Simplicaremos el modelo suponiendo que:

221

• El canal es binario (los mensajes que se transmiten son cadenas de ceros y unos). • El canal es simétrico (la probabilidad p de cambiar un 0 por un 1 en la transmisión es la misma que la de cambiar un 1 por un 0). • El canal no tiene memoria (la probabilidad p de cambiar un 0 por un 1 en la transmisión no depende de los símbolos previamente enviados). La probabilidad p es conocida como probabilidad de error del canal binario simétrico. • No hay errores de sincronización (el número de símbolos recibidos es igual al número de símbolos enviados). • Enviamos información redundante: para poder detectar y corregir los errores de transmisión se utiliza un código de tipo (n, k), n > k, donde un mensaje formado por k símbolos se transforma en una palabra de n > k símbolos, por tanto hay n − k símbolos redundantes
mensaje ∈Z
k 2

palabra ∈Z2

k+(n−k)

1 0 . . . 1

→ codicador →

1 0 . . . 1 . . .

transmisi´n o

=⇒

k+(n−k) Z2

transmisi´n o

=⇒

? ? . . . ? . . .

mensaje ∈Zk 2

→ decodicador →

1 0 . . . 1

.

Así, para enviar un mensaje formado por k símbolos 0 ó 1 (es decir un elemento de Zk ), en primer lugar construimos una palabra (o secuencia 2

222

Álgebra de ceros y unos) del código compuesto por cadenas de longitud k + (n − k) = n (código de tipo (n, k), es decir, con n − k símbolos de información redundante). A continuación transmitimos dicha palabra y, dependiendo de la información recibida, el decodicador detecta si se ha producido error en la transmisión. En el caso de que sea posible, reconstruye el mensaje.

Observación 53 Un código de tipo (n, k) es, pues, un subconjunto de Zn . 2

5.2 Distancia de Hamming, detección y corrección de errores
Denición 5.2.1 La distancia de Hamming d(a, b) entre dos palabras a
y b de un código C es el número de bits (símbolos) en que dieren a y b.

Ejemplo 5.2.2
d(1101, 1000) = 2, d(1010101, 1100100) = 3.

distancia, es decir que, ∀ a, b, c ∈ C :

Ejercicio 5.2.1 Vericar que la distancia de Hamming d(a, b) ≥ 0 es una
i) d(a, b) = 0 ⇔ a=b ii) d(a, b) = d(b, a) iii) d(a, b) ≤ d(a, c) + d(c, b).

Denición 5.2.3 Dado un código C con distancia de Hamming d(a, b), la distancia mínima dmin entre pares de palabras distintas de C es el número:

dmin = min{d(a, b) : a, b ∈ C, a = b}.

producen más que dmin − 1 errores en la transmisión de una palabra, el receptor será capaz de reconocer que la palabra recibida no es del código. La justicación de esta armación es la siguiente: introduciendo un número de errores menor o igual que dmin − 1 en una palabra del código no se obtiene otra palabra del código.

Observación 54 Si la distancia mínima de un código C es dmin y no se

Álgebra

223

El principio del vecino más próximo (o criterio de la mayoría gana) nos dice que si recibimos una palabra errónea, deberíamos suponer que la palabra del código enviada es la más cercana a la recibida (en el sentido de la distancia de Hamming). Es decir, si r < s es más probable que se hayan producido r errores que s errores.

Teorema 5.2.4 Aplicando el principio del vecino más cercano, un código C
puede corregir e errores si la distancia mínima cumple la condición

dmin ≥ 2e + 1.

Demostración Sea c ∈ C la palabra original y sea z la palabra recibida,
que contiene e errores. Entonces d(c, z) = e. Si b ∈ C es otra palabra del código,

2e + 1 ≤ dmin ≤ d(b, c) ≤ d(b, z) + d(z, c) = d(b, z) + e
y por tanto

d(b, z) ≥ e + 1.
Se sigue que c es la única palabra de C a distancia e de z.

2

5.2.1 Código de paridad: detección de errores simples
La tabla ASCII para representar los caracteres alfanuméricos está formada por 128 = 27 símbolos codicados en palabras binarias de longitud 8: los primeros 7 bits contienen la información y el octavo el control de paridad, es decir 0 si el número de unos que aparecen en los 7 primeros bits es par y 1 en caso contrario. Por ejemplo las palabras

10000010 y 01000111
son palabras del código mientras que 01000110 no lo es. Esta codicación (8, 7) permite detectar algunos errores de transmisión pero no corregirlos. Más exactamente podemos reconocer aquellas situaciones en las que se produce un número impar de errores en la transmisión de los 8 bits. Por tanto la probabilidad de error no detectable en la transmisión es:

224

Álgebra

Perr = P2 + P4 + P6 + P8 = 8 = p2 (1 − p)6 + 2 8 + +p4 (1 − p)4 4 8 +p6 (1 − p)2 + 6 +p8
Por ejemplo si la probabilidad p de error en el canal es 0.01 la probabilidad de error no detectable con esta codicación es 0.0026368.

5.2.2 Código de repetición: corrección de errores simples
Si los mensajes son simplemente los símbolos 0 y 1, podemos codicarlos del siguiente modo: mensajes 0 1 código 000 111

Para decodicar seguimos el criterio de la mayoría gana: palabra recibida 000 001 010 011 100 101 110 111 decodicación 0 0 0 1 0 1 1 1

Ya que dmin = 3, la condición dmin ≥ 2e + 1 implica e ≤ 1. Con este código (3, 1) detectamos hasta 2 errores, corregimos correctamente las

Álgebra

225

situaciones en las que se produce un único error y fallamos en aquéllas en las que se produce más de un error. Por ejemplo, si recibimos la palabra 011, la decodicación 111 es correcta si e = 1 y es incorrecta si e ≥ 2. La probabilidad de error no detectable en la transmisión es:

Perr = P2 + P3 = p2 (1 − p)

3 + p3 2

Por ejemplo si la probabilidad p de error en el canal es 0.01 la probabilidad de error en la decodicación es menor que 0.0003.

5.3

Códigos lineales

Como veremos, si un código tiene estructura de espacio vectorial sobre el cuerpo Z2 , podemos estudiar sus propiedades utilizando los resultados obtenidos para espacios vectoriales generales. En particular, estos tipos de códigos se pueden describir en términos de sus ecuaciones paramétricas e implícitas.

Denición 5.3.1 Diremos que un código C ⊆ Zn es lineal si C es un sub2
espacio vectorial de Zn . 2

Ejemplo 5.3.2 No es difícil vericar que, para los códigos denidos en la
tabla del ejemplo 5.1.2, C1 y C2 son lineales y C3 no lo es.

Ejercicio 5.3.1 ¾Es lineal el código de paridad? Ejercicio 5.3.2 ¾Es lineal el código de repetición?
Sean C Zn un código lineal y {u1 , u2 , · · · , uk } una base de C. Si Bk = 2 {e1 , e2 , · · · , ek } es la base canónica de Zk , la función lineal 2

g : Zk −→ Zn 2 2
denida por

g(ei ) = ui

(i = 1, · · · , k),

es inyectiva (siendo {u1 , u2 , · · · , uk } libre) y Im(g) = C. Por tanto la función g dene las ecuaciones paramétricas del código C.

226

Álgebra

Denición 5.3.3 Si C

Zn es un código lineal y {u1 , u2 , . . . , uk } es una 2 base de C llamaremos matriz generadora del código C a la matriz n × k (asociada a la función lineal g denida arriba) cuyas columnas son las coordenadas de u1 , u2 , . . . , uk respecto de la base canónica de Zn : 2 G= (u1 )Bn (u2 )Bn · · · (uk )Bn

Si C Zn es lineal y dim(C) = k, entonces C es un código de tipo (n, k) 2 ya que, por ser C isomorfo a Zk , el número de palabras de C coincide con él 2 de Zk . Además si G es una matriz generadora del código obtenida al elegir 2 las bases canónicas de Zk y Zn , la aplicación 2 2

Zk 2 (x1 , . . . , xk )

−→ →

C   x1  .  t G  .  . xk 

es un isomorsmo que a cada palabra de Zk asocia una palabra de C. 2 La función anterior describe un procedimiento de codicación que aso   x1   .  cia a cada palabra (x1 , . . . , xk ) ∈ Zk la palabra t G  .  ∈ M1×n (Z2 ) ≡ . 2 xk Zn (implícitamente estamos identicando la matrices la de n columnas con 2 los elementos de Zn , circunstancia que mantendremos en todo el desarrollo 2 del capítulo para mayor simplicidad). Teniendo en cuenta que    x1  .  t t G  .  = (x1 . . . xk ) · (G), . xk nuestra pregunta inmediata es ¾cómo invertir el proceso? o, si se preere, ¾existe alguna matriz que permita invertir el proceso de manera que, en la hipótesis de que el canal no tuviese ruidos, nos permitiese recuperar el mensaje original según el esquema siguiente?:

−→ Zk 2 (x1 , . . . , xk ) → (x1

C ... xk ) ·t (G)

−→ →

Álgebra

227

−→ → (x1

...

Zk 2 xk ) ·t (G) · (t (G))−1 = (x1 , . . . , xk )

La respuesta es obviamente negativa, puesto que la matriz t (G) no es una matriz cuadrada. Sin embargo, como veremos posteriormente, la idea es aprovechable empleando el concepto de pseudoinversa de una matriz.

Ejercicio 5.3.3 Obtener la matriz generadora del código de paridad cuyo
producto reproduce el mecanismo de codicación descrito. producto reproduce el mecanismo de codicación descrito.

Ejercicio 5.3.4 Obtener la matriz generadora del código de repetición cuyo
Pasamos ahora a estudiar las ecuaciones implícitas de un código lineal C. Si C Zn es tal que 0 < dim(C) = k < n, la proposición 3.5.12 del 2 capítulo 3 implica que existe una función lineal

h : Zn −→ Zn−k 2 2
tal que C = ker(h). Por tanto la función h determina las ecuaciones implícitas del código C.

Denición 5.3.4 Si C Zn es lineal diremos que una matriz H de orden 2 s×n es una matriz de control si para cualquier (x1 , . . . , xn ) ∈ Zn se verica 2
que:

 x1  .  (x1 , . . . , xn ) ∈ C ⇔ H  .  = 0. . xn
Se sigue que la matriz H que queda asociada a la función lineal h al elegir (n−k) Bn las bases canónicas de Zn y Z2 es H = MBn−k (h) ∈ M(n−k)×n y es una 2 matriz de control para el código C. Siendo C = ker(h), el rango de la matriz H es n − k. Se sigue que

C

Zn es un código lineal de dimensión k, 0 < k < n, si y sólo si existe 2 una matriz de control de C, H ∈ M(n−k)×n , de rango igual a n − k.

Ejercicio 5.3.5 Encontrar una matriz de control del código de paridad. Ejercicio 5.3.6 Encontrar una matriz de control del código de repetición.

228

Álgebra

5.3.1 Paso de una matriz de control a una matriz generadora
Pasar de una matriz de control a una matriz generadora de un código lineal C es equivalente a pasar de sus ecuaciones implícitas a sus ecuaciones paramétricas. Supongamos que H ∈ M(n−k)×n (Z2 ) es una matriz de control de un código lineal C. Determinar una matriz generadora de C es lo mismo que encontrar una base del subespacio C, que coincide con el núcleo de la función lineal denida entre Z2 − e.v. :

h:

Zn 2 (x1 , . . . , xn )

−→ →

n−k Z2   x1  .  t H·  .  . xn

y que dene las ecuaciones implícitas del código C. Por tanto, para denir una matriz generadora de C, podemos emplear el método visto en el capítulo 3 para obtener una base del núcleo de una función lineal, cuyo esquema basíco es el siguiente:

H t1 t2 tk A −→−→ · · · −→ , In P
donde t1 , t2 , . . . , tk son transformaciones elementales por columnas (efectuadas sobre ambas matrices) y A es una matriz gaussiana. En tal circunstancia sabemos que las columnas de P que aparezcan bajo las columnas nulas de A constituyen una base (salvo transposición) del núcleo de h y, por consiguiente, constituyen una matriz generadora de C.

Ejercicio 5.3.7 Determinar una matriz generadora del código cuya matriz
de control es:

H=

1 0 1 0 1 1 1 1

Álgebra

229

5.3.2 Paso de una matriz generadora a una matriz de control
Pasar una matriz generadora a una matriz de control de un código lineal C es equivalente a pasar de sus ecuaciones paramétricas a sus ecuaciones implícitas. Ahora, supongamos que G ∈ Mn×k (Z2 ),

G=

(u1 )Bn (u2 )Bn · · ·

(uk )Bn

,

es una matriz generadora de un código lineal C. Entonces C = Im(g), donde

g : Zk 2 (x1 , . . . , xk )

−→ →

C  x1   .  t G  .  . . xk 

Determinar una matriz H ∈ M(n−k)×n (Z2 ) de control de C, de rango n−k, es lo mismo que encontrar (n − k) las

(a11 (a21

a12 a22

··· ··· . . .

a1n ) a2n ) a(n−k)n )

(a(n−k)1 a(n−k)2 · · ·
tales que: 1. ∀i ∈ {1, . . . , n − k} , se tenga que

ai1 ai2 · · · ain

· (u1 )Bn = 0, · · · ,

ai1 ai2 · · · ain

· (uk )Bn = 0,

o, lo que es lo mismo, que

∀i ∈ {1, . . . , n − k} ,

ai1 ai2 · · ·

ain

· G = 0.

2. El sistema formado por dichas las es un sistema libre. En el supuesto de que tengamos tales las, si denimos la matriz

230

Álgebra

   H= 

a11 a21 . . .

a12 a22 . . .

··· ···

a1n a2n . . . a(n−k)n

    

a(n−k)1 a(n−k)2 · · ·
tendremos que:

1. H · G = 0 y en consecuencia el código C está contenido en el núcleo de la función lineal

h:

Zn 2 (x1 , . . . , xn )

−→ →

Zn−k  2 x1   .  t H·  .  . . xn 

2. La dimensión del núcleo de h es k . Puesto que la dimensión de C también es k, tendremos que C = Ker(h) y en consecuencia

 x1  .  (x1 , . . . , xn ) ∈ C ⇔ H  .  = 0, . xn
es decir, H es una matriz de control del código C. Ahora bien, buscar (n − k) las que constituyan un sistema de vectores libre y de manera que

∀i ∈ {1, . . . , n − k} ,

ai1 ai2 · · ·

ain

G=0

es lo mismo que buscar (n − k) soluciones linealmente independientes del sistema de ecuaciones lineales homogéneo


t

  (G)  

x1 x2 . . . xn

    = 0. 

Álgebra

231

Pero, ¾existen (n − k) soluciones linealmente independientes de tal sistema? Por hipótesis las k columnas de G constituyen un sistema libre y por tanto las k las de t (G) también. Ahora, aplicando el teorema de la dimensión, sabemos que la dimensión del conjunto de soluciones del sistema t (G)X = 0 es n − k, luego existen (n − k) soluciones linealmente independientes. Veamos un algoritmo para obtener dicha matriz H : 1. Construimos la matriz

G In

(recuérdese que G tiene n las).

2. Mediante transformaciones elementales por las construimos, a partir Ik T de G In , una matriz de la forma , donde T ∈ Mk×n (Z2 ), (0) H H ∈ M(n−k)×n (Z2 ) y (0) ∈ M(n−k)×k (Z2 ). 3. Teniendo en cuenta que aplicar una transformación elemental por las es equivalente a multiplicar por la izquierda por una matriz invertible, resulta que si Ik T G In tf1 → ...tfk → , (0) H tendremos que existe una matriz invertible P ∈ Mn (Z2 ), tal que P · G = Ik T T y tal que P · In = , es decir, P = , con lo que el (0) H H rango de H es n − k y

T H

·G=

Ik (0)

.

Teniendo en cuenta cómo está denido el producto de matrices,

T · G = Ik

y

H · G = (0) .

Puesto que la matriz T es tal que T ·G = Ik , resulta que t (T ·G) =t (Ik ) = Ik , es decir, t G ·t T = Ik . En otras palabras, la matriz t T es la matriz que buscábamos, la pseudoinversa de t G, para invertir el proceso de codicación:

−→ Zk 2 (x1 , . . . , xk ) → (x1

C ... xk ) ·t (G)

−→ →

232

Álgebra

−→ → (x1

...

Zk 2 xk ) · (G) ·t (T) = (x1 , . . . , xk ) .
t

Por otra parte, la matriz H así obtenida es una matriz de control del código, pues satisface las dos condiciones requeridas.

Ejercicio 5.3.8 Determinar una matriz de control del código cuya matriz
generadora es:

1  0 G =  1 1

0 1 0 1

 0 0  . 1  1

5.3.3 Detección y corrección de errores
Podemos detectar errores en la transmisión si y sólo si la palabra recibida no pertenece al código. Por tanto si C es un código lineal y H es una matriz de control del mismo, detectaremos error en la transmisión de una palabra recibida u si y sólo si H · (u)Bn = 0. Ahora, la cuestión es ¾Qué podemos hacer en el caso de que detectemos un error en la transmisión? Si al emitir la palabra x ∈ C se produce el error de transmisión e, recibiremos la palabra u = x + e. Al chequear la palabra recibida obtendremos

H· (x + e)Bn = H · (x)Bn +H · (e)Bn = (puesto que x ∈ C ) = H · (e)Bn ,
es decir, obtenemos la actuación de la matriz de control sobre el error de transmisión e.

Denición 5.3.5 Si H ∈ M(n−k)×n (Z2 ) es una matriz de control de un código C y u ∈ Zn llamaremos síndrome de u al producto H · (u)Bn . 2
Evidentemente u pertenece al código C si y sólo si su síndrome es 0 y, según hemos visto, el síndrome de la palabra recibida x + e coincide con el síndrome del error de transmisión e. Por consiguiente, si para cada palabra no perteneciente al código hubiese un único error que tuviese su mismo síndrome, sería sencillísimo corregir el error cometido en la transmisión: bastaría restar el error que tiene el mismo síndrome que la palabra recibida para corregir dicho error. Sin embargo, como ahora veremos, puede haber muchas palabras no pertenecientes al código que tengan el mismo síndrome.

Álgebra

233

Observación 55 Sea H ∈ M(n−k)×n (Z2 ) una matriz de control de un código
lineal C. Si u, v ∈ Zn , entonces 2

H · (u)Bn = H · (v)Bn ⇔ v − u ∈ C,
es decir, dos palabras u y v tienen el mismo síndrome si y sólo si u − v es una palabra del código. Veámoslo:

H · (u)Bn = H · (v)Bn ⇔ H · (v)Bn − H · (u)Bn = 0 ⇔ H · (v − u)Bn = 0 ⇔ v − u ∈ C
síndromes no depende de la matriz de control considerada: si H1 y H2 son matrices de control de C y u, v ∈ Zn tendremos que: 2

Observación 56 El que dos palabras tengan el mismo síndrome o distintos

H1 ·(u)Bn = H1 ·(v)Bn ⇔ v − u ∈ C ⇔ H2 ·(u)Bn = H2 ·(v)Bn . Zn 2
Para identicar las palabras que tienen el mismo síndrome se dene en la siguiente relación de equivalencia: ∀ u, v ∈ Zn , 2

u ∼ v ⇔ H · (u)Bn = H · (v)Bn ⇔ v − u ∈ C.

Ejercicio 5.3.9 Vericar que la relación  ∼ anterior es una relación de
equivalencia en Zn . 2
Entonces el espacio Zn queda dividido entre las clases de equivalencia 2 determinadas por la relación  ∼, que llamaremos cogrupos:

Denición 5.3.6 Si C ⊆ Zn es un código lineal y u ∈Zn , se denomina co2 2 grupo de u módulo C al conjunto {v ∈Zn | v − u ∈ C }. Este conjunto es la 2
clase de equivalencia de u respecto de la relación  ∼ y lo denotaremos por u + C.

Observación 57 La notación
u + C = {v ∈Zn | v − u ∈ C } 2
se justica del siguiente modo:

v ∈ u + C ⇔ ∃c ∈ C tal que v − u = c ⇔ ∃c ∈ C tal que v = u+c.
Por otra parte, puesto que u − u = 0 ∈ C, tendremos que u ∈ u + C. Nótese que C = 0 + C.

234

Álgebra

La siguiente proposición se sigue directamente de las propiedades de las relaciones de equivalencia.

Proposición 5.3.7 Sea C
que:

Zn un código lineal y sean u, v ∈Zn . Se verica 2 2

1. u + C = v + C ⇔ v − u ∈C. 2. Si ( u + C) ∩ (v + C) = ∅ entonces u + C = v + C. 3. Card( u + C) =Card( v + C).

Observación 58 Visto lo anterior, tenemos que los síndromes de dos pala-

bras u y v coinciden si y sólo si u y v pertenecen al mismo cogrupo módulo C, o lo que es lo mismo, si y sólo si

u + C = v + C.

Ejercicio 5.3.10 Construir la tabla de síndromes de la siguiente matriz
H= 1 1 0 0 1 1 .

No podemos corregir todos los errores de transmisión pero sí podemos corregir el error de transmisión más probable. Seleccionemos de cada cogrupo el error que consideremos más probable según el principio del vecino más próximo: normalmente es más probable aquel que tiene menos errores individuales, es decir elegimos uno de entre los que tienen menos unos. Llamaremos a dicho elemento representante del cogrupo. Esta elección es la más razonable ya que, si y ∈ Zn y ey es el representante del cogrupo de 2 y, la corrección de y será la palabra y − ey ∈ C, que es la palabra de C más cercana, en el sentido de la distancia de Hamming, a la palabra recibida y.

tante de cada cogrupo.

Ejercicio 5.3.11 En la tabla del ejercicio anterior elegir el mejor represen-

Una vez realizada la selección de los representantes de los cogrupos, el proceso de corrección de errores quedaría denido por

y

Corrección

−→

y − ey ,

Álgebra

235

donde ey es el representante del cogrupo de síndrome H · (y)Bn (esto es, H · (y)Bn = H · (ey )Bn ). Por tanto, el esquema de codicación, transmisión y decodicación queda concretado del siguiente modo: Codicador Transmisión t u −→ u · (G) = x ⇒ +e ⇒ Decodicador

⇒y =x+e

−→

y ·t (T ) si H · (y)Bn = 0 (y − ey ) ·t (T ) si H · (y)Bn = 0.

Observación 59 Si elegimos a 0 como representante del cogrupo 0+C = C,
se puede simplicar la actuación del Decodicador:

Decodif icador y −→(y − ey ) ·t (T )
rior completar la siguiente tabla:

Ejercicio 5.3.12 Utilizando la elección de representantes del ejercicio antey 0 0 1 1 0 0 1 1 H · (y)Bn 0 1 0 1 0 1 0 1 ey y − ey

0 0 0 0 1 1 1 1

5.4

Ejercicios

5.4.1 Ejercicios resueltos
1. Obtener una matriz generadora y una matriz de control del código de paridad expuesto en los apuntes de clase. 2. Obtener una matriz generadora y una matriz de control del código de repetición expuesto en los apuntes de clase.

236

Álgebra 3. Determinar una matriz de control del código cuya matriz generadora

es:

1  1 G =  1 1

1 0 0 1

 1 0  . 1  1

es:

4. Determinar una matriz generadora del código cuya matriz de control

H=

1 0 1 0 1 1 1 1

5. Determinar una matriz de control y una matriz que permita realizar la decodicación del código generado por los vectores cuyas coordenadas respecto de la base canónica de Z4 son las columnas de la matriz: 2   0 1 1  1 1 0     1 0 1  0 1 1 6. Determinar una matriz de control y una matriz que permita realizar la decodicación del código cuya matriz generadora es   1 1  1 0   G =  1 1  0 1

5.4.2 Ejercicios propuestos
1. Halla la distancia mínima de cada uno de los siguientes códigos:

i) {000, 101, 100, 001} en Z3 , 2 ii) {00000, 01110, 11011, 00101} en Z5 , 2 iii) {000000, 111000, 000111, 111111} en Z6 . 2

Álgebra

237

Determina en cada caso el número de errores que se pueden detectar y el número de errores que se pueden corregir. 2. Para cada código del problema anterior, determinar si es lineal. Si lo es, obtener una matriz generadora, una matriz de control y una matriz que permita realizar la decodicación del código. 3. Determinar una matriz de control y una matriz que permita realizar la decodicación del código lineal C generado por el sistema de vectores S, cuyas coordenadas respecto de la base canónica de Z5 son 2

S = {(1, 0, 1, 0, 0), (1, 0, 1, 0, 1), (0, 0, 0, 1, 0), (1, 0, 1, 1, 0)}.
Hallar todos los elementos del código C. 4. Elegir el mejor representante de cada cogrupo del código lineal

C = {000, 101, 100, 001}
y completar la siguiente tabla:

Z3 2

0 0 0 0 1 1 1 1

y 0 0 1 1 0 0 1 1

H · (y)B3 0 1 0 1 0 1 0 1

ey

y − ey

238

Álgebra

Capítulo 6 Autovalores y autovectores
6.1 Introducción

El objetivo principal de este tema es desarrollar una técnica que nos permita obtener las soluciones de las ecuaciones y sistemas de ecuaciones diferenciales lineales con coecientes constantes y de las relaciones y sistemas de relaciones de recurrencia lineales con coecientes constantes comprobando, de paso, que ambos problemas están estrechamente relacionados. La naturaleza de dicha técnica y de la herramienta matemática que lleva aparejada (teoría de autovalores y autovectores) hace posible su aplicación a una gran variedad de problemas. Veamos unos primeros ejemplos que nos permitan ilustrar y motivar las siguientes deniciones:

Ejemplo 6.1.1 Supongamos que queremos calcular el número de secuencias

de ceros y unos de longitud n que no poseen dos ceros consecutivos. Si An es el conjunto formado por dichas secuencias, buscamos obtener el número de elementos del conjunto An , número al que denotamos por an . Obviamente,

An = Cn ∪ Un
donde Cn es el conjunto formado por las secuencias de longitud n que satisfaciendo dicha propiedad terminan en 0 y Un es el conjunto formado por las secuencias de longitud n que, satisfaciendo dicha propiedad, terminan en 1. Pero las secuencias del conjunto Un se pueden obtener añadiendo un 1 a cada una de las secuencias de longitud n − 1 que no poseen dos ceros consecutivos, por lo que el número de elementos del conjunto Un coincide con el
239

240

Álgebra

número de elementos del conjunto An−1 , es decir, con an−1 . Por otra parte, las secuencias del conjunto Cn se pueden obtener añadiendo 10 a cada una de las secuencias de longitud n − 2 que no poseen dos ceros consecutivos, por lo que el número de elementos de Cn coincide con el número de elementos del conjunto An−2 , es decir, con an−2 . Teniendo en cuenta, ahora, que Cn y Un son disjuntos, resulta que

an = an−1 + an−2 .
Por consiguiente, puesto que a0 = 0, a1 = 2 y a2 = 3 (ya que A0 = ∅, A1 = {1, 0} y A2 = {10, 01, 11}), podemos obtener sucesivamente que a3 = 3+2 = 5, a4 = 5+3 = 8, a5 = 8+5 = 13, .... El problema es que, por ejemplo, para obtener el valor de a100.000.000 necesitamos tener calculados previamente los 99.999.999 valores anteriores. A lo largo del capítulo desarrollaremos una técnica que nos permitirá evitar dicho cálculo previo.
Al poder aplicar la misma técnica a las relaciones de recurrencia (o ecuaciones en diferencias) y a las ecuaciones diferenciales, desarrollaremos las herramientas en el contexto de estas últimas y veremos que dichas herramientas son aplicables también al contexto de las relaciones de recurrencia.

Ejemplo 6.1.2 La determinación de una expresión explícita del término ge-

nérico fn de la bien conocida sucesión de Fibonacci, denida por los siguientes datos iniciales y ecuación en diferencias:  f0 =1  f =1  1  fn+1 = fn + fn−1 (n ≥ 2), se puede resolver, como veremos, por medio de la misma técnica que se emplea para hallar una función compleja f (x) de variable real x que sea solución del problema denido por los siguientes datos iniciales y ecuación diferencial ordinaria (EDO) lineal con coecientes constantes de orden 2:  f (0) = 1  f (1) = 1   f (x) = f (x) + f (x) (x ∈ R).

Álgebra

241

6.2

Autovalores y autovectores

Según sabemos, el conjunto de sucesiones de números complejos F(N, C), o, lo que es lo mismo, el conjunto de las funciones de N en C, tiene estructura de C−espacio vectorial. Por convenio de notación, a la sucesión

a : N −→ C n a(n) = an
la denotamos por {an }n∈N . Si ahora consideramos la función S (de Shif t, desplazamiento),

S : F(N, C) −→ F (N, C) {an }n∈N S({an }n∈N ) = {an+1 }n∈N
es decir,

{an }n∈N {a0, a1 , a2 , ...

S −→

S({an }n∈N ) {a1, a2 , a3 , ...

resulta sencillo comprobar (verifíquese) que dicha función es lineal. Por convenio de notación escribiremos an+1 = S(an ), de manera que la sucesión S({an }n∈N ) la podremos expresar como

S({an }n∈N ) = {S(an )}n∈N = {S(a0 ), S(a1 ), S(a2 ), ... = {a1, a2 , a3 , ...
Veamos qué relación tiene esta función con el problema que nos ocupa. Supongamos que dado λ ∈ C, buscamos las sucesiones {an }n∈N que ∀n ∈ N satisfacen la relación an+1 = λan . Utilizando la notación introducida, dicha ecuación se transforma en

S(an ) = λan ,
y, puesto que dicha expresión es válida para n ≥ 1, la sucesión {an }n∈N satisface dicha relación de recurrencia si

S({an }n∈N ) = {λan }n∈N = λ {an }n∈N .
En otras palabras, las sucesiones que satisfacen la relación de recurrencia

an+1 = λan ,

242

Álgebra

son aquellas sucesiones {an }n∈N que mediante la función S se transforman en vectores proporcionales a sí mismos. En general se introducen las siguientes nociones de autovector y autovalor de una función lineal:

Denición 6.2.1 Si E es un K − e.v. y f : E −→ E es una función lineal, se dice que v ∈ E − {0} es un autovector de f si ∃λ ∈ K tal que f (v) =λv. Denición 6.2.2 Si E es un K − e.v. y f : E −→ E es una función lineal, se dice que λ ∈ K es un autovalor de f si ∃v ∈ E − {0} tal que f (v) =λv. En ese caso se dice v es un autovector asociado al autovalor λ.
currencia

Ejemplo 6.2.3 Las sucesiones {an }n∈N que satisfacen la relación de rean+1 = 5an ,
son las sucesiones {an }n∈N que son autovectores de la función lineal S asociados al autovalor 5. Así por ejemplo, la sucesión {1, 5, 25, ..., 5n , ...} es un autovector de S asociado al autovalor 5, pues

S({1, 5, 25, ..., 5n , ...}) = {5, 25, ..., 5n+1 , ...} = 5 · {1, 5, 25, ..., 5n , ...}.
Obsérvese que la sucesión {3, 15, 75, ..., 3 · 5n , ...} es otro autovector asociado al autovalor 5.

Ejemplo 6.2.4 Teniendo en cuenta que, según vimos, la función derivada
D : C ∞ (R, R) −→ C ∞ (R, R)
es una función lineal, las funciones que satisfacen la ecuación diferencial

D(f ) = −f,
son los autovectores de la función D asociados al autovalor −1. Así por ejemplo, la función

f : R −→ R x e−x
es un autovector de D asociado al autovalor −1. Obsérvese que la función

3f : R −→ R x 3e−x
es otro autovector de D asociado al autovalor −1 y que en general para cualquier k ∈ R la función k · f también lo es.

Álgebra

243

Ejercicio 6.2.1 Determinar los autovectores de la función lineal
f : R3 −→ R3
consistente en girar a cada vector de R3 π radianes en torno al eje z (IndiB3 cación: determinar la matriz MB3 (f )).

Ejercicio 6.2.2 Razonar que la función lineal
f : R2 −→ R2
consistente en girar a cada vector de R2 un ángulo de punto (0, 0) no tiene autovectores.
π 2

radianes en torno al

6.3

Funciones complejas de variable real

En esta sección vamos a recordar la denición de función compleja de variable real y a establecer algunas propiedades necesarias para el desarrollo del resto del capítulo.

Denición 6.3.1 Sean a, b ∈ R ∪ {−∞, ∞} (recta real ampliada), con a < b. Llamaremos función compleja de variable real a cualquier función √

f : (a, b) −→ C. Siendo i la unidad imaginaria (i = −1), si ∀x ∈ (a, b), f (x) = u(x) + iv(x) diremos que u : (a, b) −→ R es la parte real de la función f y que v : (a, b) −→ R es la parte imaginaria de la función f .

Se dice que la función f es continua, diferenciable, dos veces diferenciable, etc., en un punto c ∈ (a, b) si lo son las funciones u y v. Las derivadas y la integral de la función f se denen derivando e integrando de la forma habitual la función f, considerando a la unidad imaginaria i como una constante. Así, si las funciones u, v son derivables en todo punto x ∈ (a, b), diremos que la función f es derivable y a la función f : (a, b) −→ C, denida por la condición ∀x ∈ (a, b), f (x) = u (x) + iv (x), donde ∀x ∈ (a, b), u (x) y v (x) son las derivadas de u y v en el punto x respectivamente, la denominaremos función derivada de f. En general, si u y v admiten derivadas de orden k en todo punto x ∈ (a, b), a la función f k : (a, b) −→ C denida por la condición

∀x ∈ (a, b),

f k (x) = uk (x) + iv k (x)

244

Álgebra

la denominaremos función derivada de orden k de f . Y del mismo modo, si las funciones u y v son integrables en [a, b], diremos que f es integrable en [a, b] y
b b b

f (x)dx =
a a

u(x)dx + i
a

v(x)dx.

Por otra parte, los resultados generales válidos para las funciones reales de variable real también son válidos aquí. En particular, siempre que tengan sentido las expresiones del primer miembro de las siguientes igualdades (i.e., en los casos a), b) y c) siempre que f y g sean derivables), se verica que: a) ∀α, β ∈ C , y ∀ f, g ∈ F ((a, b), C), (αf + βg) = αf + βg b) ∀ f, g ∈ F((a, b), C) , (f · g) = f g + f g c) ∀ f, g ∈ F((a, b), C), ∀t0 ∈ (a, b) tal que g(t0 ) = 0,

f f g − fg ( ) (t0 ) = (t0 ) g g2 d) (∀x ∈ (a, b) f (x) = 0) ⇒ f es constante
e) ∀x ∈ (a, b),
d ( dx x

f (t)dt) = f (x).
a

Observación 60 En lo sucesivo, C k (a, b), k ≥ 1, denotará al conjunto de

funciones complejas denidas sobre el intervalo (a, b) y que admiten derivada hasta el orden k, siendo la derivada k -ésima continua. C(a, b) será el conjunto de funciones complejas continuas denidas sobre el intervalo (a, b).

6.3.1 La exponencial compleja
Si dado x ∈ R denimos

eix = (cos x + i · senx),
cualquier número complejo z ∈ C se puede representar de la forma

z =| z | · eiα ,
siendo α ∈ R uno cualquiera de sus argumentos. Esta representación del número complejo z es denominada forma exponencial del número complejo z.

Álgebra Si z = x + iy, se dene

245

ez = ex (cos y + iseny).
Utilizando esta expresión se dene la función exponencial f de constante λ = α + βi ∈ C y parámetro t ∈ R del siguiente modo:

f : R −→ C t → eλt ,
donde

f (t) = eλt = e(α+iβ)t = eαt (cos βt + isenβt).

Propiedades de la función exponencial compleja
La función exponencial tiene las siguientes propiedades (análogas a las que se verican en el caso real):

• ∀λ, µ ∈ C, e(λ+µ)t = eλt · eµt . • ∀λ ∈ C,
d (eλt ) dt

= λeλt .
b

• ∀λ ∈ C − {0},
a

eλt dt =

(eλb −eλa ) . λ

Demostración
1. Si λ = α + iβ y µ = δ + iε, tendremos que

eλt · eµt = = + =
2. Si λ = α + iβ,

eαt (cos βt + isenβt) · eδt (cos εt + isenεt) = eαt eδt ((cos βt(cos εt) − senβt(senεt)) + i(senβt(cos εt) + senεt(cos βt))) = eαt+δt (cos(β + ε)t + isen(β + ε)t = e(λ+µ)t .

d αt d d d λt (e ) = (e (cos βt + isenβt)) = (eαt cos βt) + i (eαt senβt) = dt dt dt dt αt αt αt = (αe cos βt − βe senβt) + i(βe cos βt + αeαt senβt) = = eαt (α(cos βt + isenβt) + β(i cos βt − senβt)) = = eαt (α + iβ)((cos βt + isenβt) = λeλt .

246 3. ∀λ ∈ C − {0},
b b

Álgebra

e dt =
a a b

λt

eαt (cos βt + isenβt)dt =
b

=
a

e cos βtdt + i
a αt

αt

eαt senβtdt =
b

=

e (α cos βt + βsenβt) α2 + β 2

eαt (αsenβt − β cos βt) +i α2 + β 2 a
b

b

=
a

eαt (cos βt + isenβt)(α − iβ) = = α2 + β 2 a 1 1 = eαt (cos βt + isenβt) = eλt . α + iβ λ 2

6.4 Ecuaciones diferenciales
6.4.1 La ecuación de primer orden
Entenderemos por ecuación diferencial ordinaria (EDO) lineal con coecientes constantes de primer orden cualquier expresión de la forma

f − λf = g

(I)

donde g es una función compleja de variable real continua, λ ∈ C, f es la variable de la ecuación (I) que representa a una función compleja de variable real con derivada continua y f representa la derivada de f . Por ejemplo la siguiente expresión es una ecuación diferencial de primer orden: f + f = cos(x) también se puede escribir esta misma ecuación de los siguientes modos:

df + f = cos(x) dx

Álgebra

247

D(f ) + f = cos(x)
Entenderemos por solución de la ecuación a cualquier función compleja de variable real con derivada continua que, reemplazada en lugar de la variable f, haga cierta la igualdad. Por ejemplo la función e−x es una solución de la ecuación f + f = 0. Veamos cuales son los aspectos esenciales que nos van a permitir resolver la ecuación (I): 1. Es evidente que el problema de encontrar las soluciones de la ecuación (I) equivale a encontrar la preimagen de g mediante la función lineal

D − λId : C 1 (a, b) → C(a, b) f ; f − λf
En lo sucesivo, para no sobrecargar demasiado la notación, escribiremos C k en lugar de C k (a, b). 2. La ecuación f − λf = 0, conocida como ecuación homogénea asociada a la ecuación (I), tiene siempre solución y el conjunto de sus soluciones tiene estructura de subespacio vectorial, puesto que el conjunto de soluciones es el núcleo del operador D − λId. En particular la función 0 es solución. Además

dim(Ker(D − λId)) = 1.
Veámoslo: evidentemente la función f (x) = eλx es solución de la ecua¯ ción f − λf = 0. Veamos que si f es otra solución de dicha ecuación, ¯ entonces existe un escalar k ∈ C tal que f (x) = keλx . Puesto que ¯ f ∀x ∈ R, eλx = 0, tiene sentido considerar la función eλx . Su función derivada es

¯ ¯ ¯ ¯ ¯ f eλx − f λeλx f − λf 0 f ) = = = λx = 0 λx 2λx λx e e e e
, es decir,

¯ f = k ∈ C, eλx ∀x ∈ R, ¯ f (x) = keλx .

por lo que

248

Álgebra

d 3. Teniendo en cuenta que el operador dx − λId = D − λId es la suma de dos funciones lineales y que por tanto es lineal, se puede vericar que

si y entonces

s1 es solución de s2 es solución de s1 + s2 es solución de

f − λf = h1 f − λf = h2 , f − λf = h1 + h2 .

Esta propiedad es conocida como principio de superposición de soluciones. Como consecuencia de esta propiedad, y de forma análoga a lo que sucedía con las ecuaciones lineales, la solución general de la ecuación (I) se obtiene sumando a una solución particular de dicha ecuación todas las soluciones de la ecuación homogénea asociada. 4. La función lineal D − λId : C 1 → C es sobreyectiva o, lo que es lo mismo, la ecuación f − λf = g tiene solución cualquiera que sea g ∈ C . Para comprobarlo, vamos a vericar que la función

f (x) = eλx ·
0

x

g(t) dt eλt

es una solución particular de dicha ecuación: si f − λf = g, entonces

(
de donde

f f eλx − f λeλx f − λf g ) = = = λx , λx 2λx λx e e e e f (x) = e
λx x

·
0

g(t) dt. eλt

5. El núcleo de esta función lineal es de dimensión 1 y está generado por el vector f (x) = eλx . Este hecho hace que el conjunto de soluciones de la ecuación sea: f ∈ C 1 (a, b)|∃α ∈ C tal que

∀x ∈ (a, b), f (x) = eλx ·
0

x

g(t) dt + αeλx . eλt

Álgebra

249

Ejemplo 6.4.1 Se quieren determinar las soluciones de la EDO
f (x) + f (x) = cos(x) x ∈ R.
para esta ecuación, g(x) = cos(x) y λ = −1. Las soluciones de la ecuación homogénea asociada f (x) + f (x) = 0 son todas del tipo f (x) = ke−x , k ∈ R. Una solución particular de la ecuación no homogénea es:

fp (x) = e

λx

x

·
0

g(t) dt = e−x · λt e

x 0

et cos(t)dt.

Integrando por partes dos veces, se obtiene que
x 0

e cos(t)dt = = − sin(x)e +
x

t

x − sin(t)et 0 x cos(t)et 0

x

+
0 x

et sin(t)dt =


0

et cos(t)dt =
x

= − sin(x)ex + cos(x)ex − 1 −
0

et cos(t)dt.

Entonces

− sin(x)ex + cos(x)ex − 1 2 y la solución general de nuestra ecuación es fp (x) = e−x f (x) = e−x = − sin(x)ex + cos(x)ex − 1 + ke−x = 2 ¯ k ∈ C.

− sin(x) + cos(x) − e−x − sin(x) + cos(x) ¯ −x + ke−x = + ke 2 2

6.4.2 La ecuación de orden n
En la sección anterior estudiamos la forma general de las soluciones de la ecuación de primer orden f − λf = g . Vimos que este problema admite una formulación algebraica que permite establecer ciertas analogías con la resolución de ecuaciones lineales. En esta sección comprobaremos que es posible asociar a una ecuación diferencial del tipo

f (n) + an−1 f (n−1) + · · · + a1 f + a0 f = h.

250

Álgebra

un sistema de ecuaciones de primer orden, cuya resolución nos permitirá obtener la solución de la ecuación buscada. Comenzaremos planteando de un modo preciso el problema que queremos resolver. Entenderemos por ecuación diferencial ordinaria (EDO) lineal con coecientes constantes de orden n cualquier expresión de la

forma

f (n) (x) + an−1 f (n−1) (x) + · · · + a1 f (x) + a0 f (x) = h (II)
donde h es una función compleja de variable real continua, an−1 , · · · , a1 , a0 son números complejos, f es la variable de la ecuación (II) que representa a una función compleja de variable real con derivada n-ésima continua y f (k) representa la k-ésima derivada de f . Por ejemplo la siguiente expresión es una ecuación diferencial de orden 2:

f (2) (x) + f (1) (x) + f (x) = cos(x) (aquí a1 = 1 y a0 = 1)
también se puede escribir esta misma ecuación de los siguientes modos:

f (x) + f (x) + f (x) = cos(x) d2 f (x) (x) + dfdx + f (x) = cos(x) dx2 D2 (f )(x) + D(f )(x) + f (x) = cos(x)
Entenderemos por solución de la ecuación a cualquier función que reemplazada en lugar de la variable f haga cierta la igualdad. Por ejemplo la función sin(x) es una solución de la ecuación f (x) + f (x) + f (x) = cos(x). Nuestro objetivo es encontrar el conjunto de soluciones de una EDO lineal con coecientes constantes dada. Tras el planteamiento del problema, vamos a seguir una estrategia que, además de permitirnos resolver la ecuación diferencial de orden n

f (n) + an−1 f (n−1) + · · · + a1 f + a0 f = h,
nos dotará de herramientas para resolver lo que denominaremos sistemas de ecuaciones diferenciales de primer orden.

Álgebra

251

6.4.3 Sistemas de ecuaciones diferenciales
Nuestro objetivo es obtener un método sistemático que nos permita resolver el siguiente tipo de problema: Determinar las funciones y1 , y2 , . . . , yn tales que para cualquier t ∈ R se verica que   y1 (t) = a11 y1 (t) + a12 y2 (t) + · · · + a1n yn (t)    y (t) = a21 y1 (t) + a22 y2 (t) + · · · + a2n yn (t) 2 (6.1) .  .  .   y (t) = a y (t) + a y (t) + · · · + a y (t) n1 1 n2 2 nn n n Normalmente para expresar (6.1) utilizaremos la notación matricial extendida:

 ∀t ∈ R ,    

y1 (t) y2 (t) . . . yn (t)

    =  

a11 a12 · · · a21 a22 · · · . . . . . . an1 an2 · · ·

a1n a2n . . . ann

    

y1 (t) y2 (t) . . . yn (t)

    
(6.2)

o la notación matricial compacta:

∀t ∈ R ,

→ − → y (t) = A− (t) y

diferenciales lineales ordinarias de primer orden, con coecientes constantes. Las técnicas para resolver este tipo de problema están encuadradas especícamente dentro del álgebra lineal. Consisten básicamente en realizar una transformación lineal de modo que la resolución de las ecuaciones resultantes sea más sencilla. Además dicha transformación no debe perder información, lo que signica que debe ser posible deshacer la transformación, o lo que es igual, debe ser invertible. Para ilustrar esta idea jémonos en que resolver un sistema determinado de n ecuaciones lineales con n incógnitas:     b1 x1  .   .  A .  =  .  . .

El sistema (6.2) se conoce como sistema homogéneo de n ecuaciones

xn

bn

Consiste básicamente en multiplicar ambos lados de la igualdad por A−1 (esta es la transformación lineal) de modo que la solución del sistema resultante resulte ser trivial o evidente:

252

Álgebra

  x1  .   In  .  = A−1  . xn

 b1 .  .  . bn

Para atacar nuestro problema utilizando transformaciones lineales el primer punto que debemos tratar es el siguiente: ¾Como modican las transformaciones lineales a los sistemas de ecuaciones diferenciales? Antes de abordar la respuesta a esta pregunta, es conveniente hacer la siguiente observación.

Observación 61 Una vez desarrollada una herramienta que nos permita
resolver sistemas de primer orden, podremos también utilizarla para resolver la ecuación diferencial de orden n

f (n) + an−1 f (n−1) + · · · + a1 f + a0 f = h.
La idea consiste en denir, a partir de la ecuación anterior, las siguientes funciones   y1 (t) = f (t)    y2 (t) = f (t) = y1 (t) (6.3) .  .  .   y (t) = f (n−1) (t) = y (t) n n−1 de manera que resolver la ecuación anterior, consiste sistema de primer orden equivalente:     0 1 0 ··· 0 y1 (t)   0 1 ··· 0  y (t)   0  2    .  . . . .  . = .  . .   .   . .  0  0 0 ··· 1 yn (t) −a0 −a1 −a2 · · · −an−1 en resolver el siguiente

y1 (t) y2 (t) . . . . . . yn (t)

      +    

0 0 . . . 0 h(t)

    .  

Ejemplo 6.4.2 Para hallar las soluciones de la ecuación
f (x) + f (x) + f (x) = cos(x),
podemos denir

y1 (x) = y2 (x) =

f (x) f (x) = y1 (x),

Álgebra

253

y resolver el problema de determinar las soluciones del sistema

y1 (x) y2 (x)

=

0 1 −1 −1

y1 (x) 0 + . y2 (x) cos(x)

6.5

La semejanza de matrices y los sistemas de ecuaciones
− → − y (t) = A→(t), y

Consideremos el sistema de n ecuaciones diferenciales

∀t ∈ R ,

(6.4)

donde A es una matriz cuadrada de orden n. Si Q es una matriz cuadrada cualquier solución de (6.4) también lo es de

∀t ∈ R ,

− → → Q· y (t) = Q · A− (t). y

(6.5)

Si además Q es invertible el recíproco es cierto, es decir, cualquier solución de (6.5) también lo es de (6.4). Por tanto si P es una matriz invertible podemos escribir (6.5) usando P −1 , es decir:

∀t ∈ R ,
Ahora, si suponemos que

− → − P−1 · y (t) = P−1 ·A→(t). y

γ11 · · · −1  . P = . . γn1 · · ·
tendremos que:

 γ1n .  .  . γnn

 y1 (t)  .  − e →(t) =  .  , y . yn (t)

254

Álgebra

  γ11 · · · γ1n y1 (t) − →  . .  .  = .  .  P−1 · y (t) =  . . . . γn1 · · · γnn yn (t)     z1 (t)    =        n   γ1i yi (t)   i=1   .  =  . .    n   γni yi (t)   i=1     n    γ1i yi (t)   i=1  
. . .

 n     γni yi (t)    i=1 
zn (t)

         z1 (t)   .   =  . . .   zn (t)      

Luego si introducimos el cambio de variables − (t) = P−1 ·− (t), → → z y tendremos que

− → − → z (t) = P−1 · y (t) − → − z (t) = P−1 ·A→(t). y

y en consecuencia el sistema (6.4) equivale a

∀t ∈ R ,

Ahora, para conseguir que aparezca el mismo tipo de variable a ambos lados de la igualdad, podemos hacer las siguientes transformaciones:

→ − → → z (t) = P−1 ·A− (t) = P−1 ·A · (P · P−1 )− (t) = y y →(t)) = (P−1 ·A · P)− (t). → −1 −1 − = (P ·A · P)(P · y z
Resumiendo, hemos obtenido que si P es una matriz de orden n invertible las siguientes condiciones I e II son equivalentes:

I ∀t ∈ R , − → − y (t) = A→(t) ⇐⇒ ∀t ∈ R , y

II − (t) = P·− (t) → → y z − → → −1 z (t) = (P ·A · P)− (t). z

Álgebra

255

− → − sustituir en un sistema de ecuaciones diferenciales y (t) = A→(t) la matriz y de coecientes A por la matriz (P−1 ·A · P), equivale a realizar el cambio de → → variable lineal − (t) = P·− (t). y z Aplicaremos este resultado del siguiente modo: supuesto que nos plantean el problema I, buscaremos una matriz invertible P de modo que el sistema de ecuaciones diferenciales del problema II sea más sencillo. Entonces, bastará → multiplicar por P la solución − (t) de dicho sistema, para obtener la solución z del problema I.

Observación 62 Vemos que, siendo P una matriz invertible, el efecto de

Observación 63 Vimos que dos matrices cuadradas A y B son semejantes si existe una matriz invertible P, que llamamos matriz de paso, tal que
P−1 ·A · P = B.
A continuación vamos a discutir qué tipos de sistemas de ecuaciones diferenciales vamos a poder resolver directamente.

6.5.1 Sistemas diagonales
Comenzaremos con los sistemas cuya matriz de coecientes es diagonal:

 ∀t ∈ R ,    

y1 (t) y2 (t) . . . yn (t)

    =  

λ1 0 · · · 0 0 λ2 · · · 0 . . .. . . . . . . . . 0 0 · · · λn

    

y1 (t) y2 (t) . . . yn (t)

   . 

Desde luego, como este sistema equivale a   y1 (t) = λ1 y1 (t)    y (t) = λ2 y2 (t) 2 , . . .  . .  .   y (t) = λ y (t)
n n n

sabemos resolverlo y sus soluciones son

y1 (t) = α1 eλ1 ·t , y2 (t) = α2 eλ2 ·t , . . . , yn (t) = αn eλn ·t .
Si queremos expresarlas matricialmente escribiremos:

256

Álgebra

    

y1 (t) y2 (t) . . . yn (t)

     = α1   

eλ1 ·t 0 . . . 0 

  eλ2 ·t    + α2  .   . . 0

0

     + · · · + αn   

eλn ·t

0 0 . . .

   . 

 0 0 0 Ejemplo 6.5.1 Si A = 0 2 0 , entonces λ1 = 0, λ2 = 2 y λ3 = 1. 0 0 1 Se sigue que las soluciones del sistema de ecuaciones que tiene A como matriz asociada son y1 = c1 , y2 = c2 e2t , y3 = c3 et .
¾Sabiendo resolver sistemas diagonales, podemos resolver cualquier otro sistema de ecuaciones diferenciales de primer orden con coecientes constantes? Para poder responder armativamente a esta pregunta tendríamos que ser capaces de transformar por semejanza cualquier matriz en otra que sea diagonal. Aunque más adelante veremos que en general esto no es posible, el estudio de este problema nos dará unas claves fundamentales para resolver los sistemas de ecuaciones diferenciales. Puesto que no toda matriz es diagonalizable, necesitamos buscar otro tipo de matrices que nos permitan simplicar la resolución de sistemas de ecuaciones diferenciales.

6.5.2 Sistemas triangulares
Consideremos ahora los sistemas homogéneos cuya matriz de coecientes es triangular inferiormente:

 ∀t ∈ R ,    

y1 (t) y2 (t) . . . yn (t)

    =  

λ1 a21 . . .

0 λ2 . . .

··· ··· .. .

0 0 . . . λn

    

y1 (t) y2 (t) . . . yn (t)

   . 

an1 an2 · · ·

Álgebra Este caso equivale a:   y1 (t) − λ1 y1 (t) =    y (t) − λ2 y2 (t) =  2  . . .     y (t) − λ y (t) =  n  n n

257

0 a21 y1 (t) .
n−1 i=1

a1i yi (t)

Aunque laborioso, es fácil resolver este tipo de ecuaciones: 1. Resolvemos la ecuación

y1 (t) − λ1 y1 (t) = 0
y obtenemos que

y1 (t) = α1 eλ1 ·t .

2. A continuación, como ya conocemos y1 , resolvemos la segunda ecuación

y2 (t) − λ2 y2 (t) = a21 α1 eλ1 ·t
y obtenemos que

y2 (t) = α2 eλ2 ·t + α1 eλ2 ·t ·
0

t

a21 e(λ1 −λ2 )·x dx.

3. Como ya conocemos y1 e y3 , podemos resolver la tercera ecuación y así sucesivamente hasta la última. Veamos un ejemplo.

Ejemplo 6.5.2 Encontrar las soluciones del siguiente sistema:
     y1 (t) 0 0 0 y1 (t)  y2 (t)  =  1 1 0   y2 (t)  . −1 3 1 y3 (t) y3 (t)
En primer lugar, dicho sistema equivale a   y1 (t) − 0 · y1 (t) = 0, y (t) − 1 · y2 (t) = y1 (t),  2 y3 (t) − 1 · y3 (t) = −y1 (t) + 3y2 (t).

258 1. La solución general de la primera ecuación es

Álgebra

y1 (t) = α1 e0·t = α1 .
2. La segunda ecuación se trasforma en

y2 (t) − y2 (t) = α1
y su solución general es
t 0

y2 (t) = β2 et + et

α1 e−1x dx = (β2 + α1 )et − α1 .

Como β2 es arbitrario, podemos llamar α2 a (β2 + α1 ) y escribir

y2 (t) = α2 et − α1 .
3. Por último, como ya conocemos y1 e y2 , la tercera ecuación se transforma en

y3 (t) − y3 (t) = −α1 + 3 α2 et − α1 = 3α2 et − 4α1 ,
y su solución general viene dada por 1.
t 0

y3 (t) = β3 et + et

3α2 e(1−1)x − 4α1 e−1x dx =

= (β3 − 4α1 ) et + 4α1 + 3α2 tet .
De nuevo, si llamamos α3 a (β3 − 4α1 ), tendremos

y3 (t) = α3 et + 3α2 tet + 4α1 .
Luego, al expresar las soluciones vectorialmente, obtenemos         y1 (t) 1 0 0  y2 (t)  = α1  −1  + α2  et  + α3  0  . y3 (t) 4 3tet et De cara a la resolución de sistemas de ecuaciones, ¾es sucientemente grande el conjunto de matrices triangulares?, dicho de otro modo, ¾cualquier matriz cuadrada es semejante a alguna triangular? Para contestar a esta pregunta necesitamos estudiar los autovalores y autovectores de la matriz del sistema.

Álgebra

259

6.6

Diagonalización y triangulación de matrices

6.6.1 El polinomio característico de una matriz
Observación 64 Si nos jamos en las columnas de una matriz triangular
   T=  λ1 a21 . . . 0 λ2 . . . ··· ··· .. . 0 0 . . . λn     

an1 an2 · · ·

vemos que son linealmente independientes si y sólo si todos los coecientes de la diagonal principal son distintos de cero; una manera directa de vericar esta armación es observar que

det(T) = |T| = λ1 λ2 · · · λn .
En consecuencia las columnas de la matriz  λ1 − x 0 ··· 0  a21 λ2 − x · · · 0  T − xIn =  . . . .. . . .  . . . . an1 an2 · · · λn − x

    

son linealmente dependientes si y sólo si x coincide con algún elemento de la diagonal principal. También podemos expresar esta propiedad diciendo que el determinante de la matriz T − xIn se hace cero si y sólo si x coincide con algún elemento de la diagonal principal. Si ahora desarrollamos |T − xIn |

λ1 − x 0 a21 λ2 − x . . . . . . an1 an2

··· ··· .. . ···

0 0 . . . λn − x

= (λ1 − x) (λ2 − x) · · · (λn − x) ,

vemos que lo dicho hasta el momento es trivial, ya que obtenemos un polinomio de grado n cuyas raíces son precisamente los elementos de la diagonal principal de T. ¾Dónde reside el interés de esta observación? Fundamentalmente en que este determinante es invariante bajo las transformaciones

260

Álgebra

por semejanza: supongamos que las matrices A y T son semejantes, es
decir, T = P−1 AP entonces tenemos

|T − xIn | = =

P−1 AP − xIn = P−1 AP − xP−1 P = P−1 (A − xIn ) P = P−1 |A − xIn | |P| =

= puesto que P−1 = |P|−1 = = |A − xIn | .
Esto signica que el polinomio, cuyas raíces coinciden con los elementos de la diagonal principal de T, puede ser obtenido directamente a partir de A.

Ejemplo 6.6.1 Determinar qué elementos pueden aparecer en la diagonal
principal de una matriz triangular T semejante a la siguiente matriz

A=

4 −2 3 −1

.

Calculemos |T − xIn | = |A − xIn | :

4−x −2 3 −1 − x

= (4 − x) (−1 − x) + 6 = 2 − 3x + x2 ;

luego, |T − xIn | = 2 − 3x + x2 . Los elementos que pueden aparecer en la diagonal principal de T son las raíces de 2 − 3x + x √ 3± 9−8 2 2 ; x − 3x = 2 = 0 ⇒ x = = 1 2 en consecuencia,

|T − xIn | = 2 − 3x + x2 = (2 − x) (1 − x)
y en la diagonal principal de T necesariamente aparecen los valores 2 y 1.

Denición 6.6.2 Dada una matriz cuadrada A de orden n, se denomina polinomio característico de A al polinomio
p(x) = |A − xIn | .
Dada una matriz cuadrada A de orden n, diremos que una matriz columna X de n las es un vector propio de A (o un autovector de A) si:

Álgebra

261

1. X = 0. 2. Existe un escalar λ tal que AX = λX. Asimismo, diremos que un escalar λ es un valor propio de A (o un autovalor de A) si existe un vector propio X de A tal que AX = λX. En tal caso diremos que λ es el valor propio asociado al vector propio X, o también que X es un vector propio asociado al valor propio λ.

Propiedades del polinomio característico
• Si A y B son semejantes, sus polinomios característicos coinciden. • Usando la fórmula de Laplace para el cálculo de determinantes, podemos vericar que el polinomio característico es de grado n (si, por ejemplo, calculamos el determinante de la matriz A − xIn a partir de la primera la, resulta que el primer término de la suma resultante es el un único que contiene una potencia n-ésima de x,) y, por el teorema fundamental del álgebra, tiene n raíces complejas. • Como acabamos de ver, si T es una matriz triangular semejante a la matriz objeto de estudio A, los elementos de su diagonal principal son las raíces del polinomio característico de A (que por otra parte es el mismo que el de T ). Así, aunque todos los coecientes de la matriz A sean números reales, los coecientes de la diagonal principal de T pueden ser números imaginarios. Por ejemplo, la matriz A= 0 −1 1 0

tiene como polinomio característico

|A − xIn | =

−x −1 1 −x

= x2 + 1,

con lo que en la diagonal principal de T necesariamente aparecen los valores i y −i.

• λ es una raíz del polinomio característico de una matriz cuadrada A si y sólo si |A − λIn | = p(λ) = 0. La última condición es equivalente a que

262

Álgebra el rango de la matriz A−λIn sea estrictamente menor que n y, entonces, a que el sistema de ecuaciones lineales homogéneo (A − λIn )X = (0) sea compatible indeterminado, es decir, a que exista X = (0) tal que AX = λX. Se deduce que

λ es una raíz de p(x) ⇔ (existe X = (0) tal que AX = λX) ⇔ ⇔ λ X
es un autovalor de A y es un autovector de A.

Ker(A − λIn ) de las soluciones del sistema de ecuaciones lineales homogéneo (A−λIn )X = (0) se le denomina autoespacio asociado a λ y su dimensión es la multiplicidad geométrica de λ. A la multiplicidad de λ como raíz del polinomio característico de la matriz A se le denomina multiplicidad algebraica de λ.

Denición 6.6.3 Si λ es un autovalor de una matriz cuadrada A, al espacio

m ∈ {1, ..., n}, vectores propios de A asociados, respectivamente, a m valores propios λ1 , ..., λm . En estas condiciones, si ∀i, j ∈ {1, ..., m} λi = λj , se verica que los vectores X1 , ..., Xm son linealmente independientes.

Proposición 6.6.4 Sean A una matriz cuadrada de orden n y X1 , ..., Xm ,

Demostración Por inducción sobre m:
1. Base de inducción: para m = 1 no hay nada que demostrar. 2. Paso de inducción: Sea m > 1 y supongamos que la propiedad es cierta para cualquier sistema de m − 1 vectores propios. Supongamos además que
m i=1

αi Xi = 0.

(1)

Multiplicando a ambos miembros de la igualdad (1) por λ1 obtenemos que
m

(λ1 αi )Xi = 0

(2).

i=1

Álgebra Pero, por una parte, A · (
m i=1 m

263

i=1

αi Xi ) = A · 0 = 0 y, por otra, A · (

m i=1

αi Xi ) =

(λi αi )Xi , puesto que si A · X = λX, entonces A · (αX) = α(A · X) =

α(λX) = (λα)X. En consecuencia:
m

(λi αi )Xi = 0
m i=2

(3)

i=1

Restando (2) a (3) obtenemos que

αi (λi −λ1 )Xi = 0, con lo que, por hipó-

tesis de inducción, ∀i ∈ {2, ..., m}, αi (λi − λ1 ) = 0, de donde ∀i ∈ {2, ..., m}, αi = 0, con lo que la igualdad (1) queda α1 X1 = 0 y en consecuencia α1 = 0. 2

6.6.2 Matrices diagonalizables
Denición 6.6.5 Diremos que una matriz cuadrada A de orden n es diagonalizable, si existe una matriz de paso invertible P de orden n tal que la
matriz

D = P−1 AP

es diagonal.
Los resultados anteriores son obviamente aplicables a aquellas matrices triangulares que en particular sean diagonales. En otras palabras, si A es una matriz diagonalizable y D es una matriz diagonal semejante a A, los elementos de la diagonal principal de D son las raíces del polinomio característico de A (i.e., los valores propios de A). En el caso de que sea D = P−1 AP sea diagonal, ¾podemos saber algo acerca de la matriz P? Vamos a ver que sí. Supongamos que   λ1 0  . .  D =  . ... .  . .

0

λn

es la matriz P−1 AP. Entonces multiplicando a la izquierda de ambas por la matriz P tendremos que

264

Álgebra

AP = PD.
Por tanto la j-ésima columna de AP coincide con la j-ésima columna de PD. Ahora bien, si   p11 · · · p1n  . . , .  P = . . . pn1 · · · pnn tendremos que las j-ésimas columna de AP y PD son respectivamente

 p1j  .  A .  y . pnj

p11 · · ·  .  . . pn1 · · ·

 0    .  p1n .  .  .  λ  = λ  .  j  j .  .  pnn  .  . 0   p1j .  .  . pnj

 p1j .  .  . pnj

y en consecuencia obtenemos que:

∀j ∈ {1, . . . , n} ,

  p1j  .   A  .  = λj  . pnj

(6.6)

Entonces si D = P−1 AP es diagonal necesariamente las columnas de P son vectores propios de A y los coecientes λ1 , ..., λn son los valores propios de A. Podemos completar esta observación con la siguiente propiedad:

Proposición 6.6.6 Una matriz cuadrada A ∈ Mn (K) es diagonalizable si

sólo si existe una base en el espacio Mn×1 (K)de matrices columnas de n las formada por vectores propios de A.

orden n ) tal que P−1 AP es diagonal. Por tanto tendremos que las n columnas de P son vectores propios de A linealmente independientes (por ser P invertible) y en consecuencia constituyen una base en el espacio de matrices columnas de n las formada por vectores propios de A. Recíprocamente supongamos que

Demostración Si A es diagonalizable existe una matriz invertible P (de

Álgebra

265



  p11  .    .  , . . . ,  . pn1

 p1n .  .  . pnn

es una base del espacio de matrices columnas de n las formada por vectores propios de A. Entonces tendremos que por un lado, al constituir estas matrices columna una base, la matriz   p11 · · · p1n  . .  .  P= . . .

pn1

pnn

es invertible. Por otro, al ser vectores propios de A, existen n escalares λ1 , . . . , λn (no necesariamente distintos) tales que:     p1j p1j  .   .  ∀j ∈ {1, . . . , n} , A  .  = λj  .  . . pnj pnj Pero entonces tendremos que:    p11 · · · p1n  . . = .   A . . .

p11 · · · . . . pn1

pn1

pnn

 p1n .  .  . pnn

 λ1 0 . .. .  . . .  . . 0 λn

y en consecuencia, multiplicando por la izquierda P−1 obtenemos:   λ1 0  . .  P−1 AP =  . . . . .  . .

0

λn 2

Tras el resultado anterior, el problema de diagonalización queda reducido al problema de saber encontrar los vectores propios, siempre y cuando ésto sea posible, lo cual, según veremos, no sucede siempre. Teniendo en cuenta que por el teorema 6.6.6 una matriz cuadrada de orden n, A, es diagonalizable si y solo si existen n vectores propios de A linealmente

266

Álgebra

independientes. Si un valor propio λ de A tiene multiplicidad algebraica m(λ) > 1 (como raíz del polinomio característico de A), de la observación 64 se sigue que en la matriz de paso P deberán aparecer m(λ) columnas que sean vectores propios linealmente independientes asociados al valor propio λ. En resumen: A es diagonalizable si y sólo si para todo autovalor λ de A se verica que dim(Ker(A − λIn )) = m(λ), es decir, si la multiplicidad geométrica de λ es igual a su multiplicidad algebraica. Veamos con el siguiente ejemplo que no toda matriz cuadrada es diagonalizable:

Ejemplo 6.6.7 Sea A =
|A − xI2 | =
de donde

3 4 −1 −1

. Su polinomio característico es = x2 − 2x + 1,

3−x 4 −1 −1 − x

1 , por lo que, si A fuese diagonalizable 1 1 0 y P−1 AP fuese una matriz diagonal, necesariamente P−1 AP = , 0 1 siendo los dos vectores columna de P vectores propios asociados al valor propio 1 y linealmente independientes. Sin embargo x2 − 2x + 1 = 0 ⇒ x = dim(Ker(A − 1I2 ) = 2 − rg(A − 1I2 ) = 2 − rg( 2 4 −1 −2 )=1

con lo que no existen dos vectores propios de A linealmente independientes asociados al valor propio 1.

Potencias de matrices diagonalizables
El estudio teórico realizado también nos provee de una herramienta para calcular la potencia n−ésima de una matriz diagonalizable.

Álgebra Si una matriz cuadrada A es diagonalizable y tencia n−ésima, tendremos que   −1  p11 · · · p1n a11 · · · a1n  . .  .   . .  .   .  . . . . .

267 queremos calcular su po-

p11 · · · . . . pn1 · · ·

pn1 · · ·

pnn

an1 · · · ann   λ1 0  . .  =  . ... .  . . 0 λn P−1 AP = D. A = PDP−1 ,

 p1n . = .  . pnn

o, lo que es lo mismo, que Resulta que con lo que

An = PDP−1

n

= PDP−1

PDP−1

PDP−1 ... PDP−1 = P · Dn ·P−1 .

Veamos un ejemplo:

Ejemplo 6.6.8 Hallar

1 1 . 4 −2 Como, según hemos visto en los ejemplos anteriores, 1 1 1 −4
resulta que
−1

1000

·

1 1 4 −2 1 1 1 −4 1 1 1 −4 1 1 1 −4
4 1000 2 5 4 1000 2 5

·

1 1 1 −4 2 0 0 −3 2 0 0 −3

=

2 0 0 −3 1 1 1 −4 1 1 1 −4 ·
−1

,

1 1 4 −2
con lo que

=

·

·

,

1 1 4 −2

1000

1000

−1

= = =

· ·

·

= = .

21000 0 0 (−3)1000
1 1000 2 5 1 1000 2 5

+ 1 (−3)1000 5 − 4 (−3)1000 5

− 1 (−3) 5 + 4 (−3)1000 5

1 4 5 5 1 −1 5 5 1000

268

Álgebra

Nótese que, obviamente

1 1 4 −2

n

=

4 n 2 5 4 n 2 5

+ 1 (−3)n 5 − 4 (−3)n 5

1 n 2 5 1 n 2 5

− 1 (−3)n 5 4 + 5 (−3)n

.

6.6.3 Triangulación de matrices
Volvemos a la pregunta fundamental que nos devuelve al hilo conductor del desarrollo del capítulo: ¾Es cualquier matriz cuadrada A ∈ Mn (C) semejante a alguna triangular? Vamos a ver que sí. Además, la demostración del siguiente teorema constituye un algoritmo que permite la obtención de la matriz triangular semejante a una matriz dada A ∈ Mn (C).

Teorema 6.6.9 Si A es una matriz cuadrada de orden n con coecientes
complejos, existe una matriz semejante a ella, T, que es triangular inferiormente.

Demostración La demostración consiste en probar que se puede construir una cadena de matrices
A = T0 → T1 → · · · → Tn = T,
cada una semejante a la anterior (y en consecuencia todas ellas son semejantes entre sí) y de tal modo que T es triangular inferiormente. Procedemos por inducción sobre la dimensión n de la matriz A. Base de inducción: si n = 1 no hay nada que demostrar. Paso de inducción: sea n ≥ 2 y supongamos que toda matriz cuadrada de dimensión n − 1 es triangulable. Sea ahora A un matriz de dimensión n. Puesto que trabajamos con coecientes complejos, el polinomio característico de A pA (x) = |A − xI| tiene al menos una raíz, a la que por conveniencia denotaremos con λ1 . Llamamos v1 a un autovector asociado a λ1 . Si elegimos una base de Cn cuyo

Álgebra

269

último vector sea v1 , la matriz A resultará ser semejante a una matriz A de la forma:   0  0    . . . A = An−1 .    0 an1 an2 · · · an(n−1) λ1 Entonces

pA (x) = pA (x) = (λ1 − x) |An−1 − xIn−1 |
y el polinomio característico de An−1 tiene n − 1 raíces (los restante autovalores de A). Por la hipótesis de inducción, existe una matriz invertible de paso Pn−1 y una matriz triangular inferiormente Tn−1 tales que
−1 Tn−1 = Pn−1 An−1 Pn−1 .

Si denimos

    P = Pn−1   0 0 ···

 0 0  . , . . 0 0 1

se verica que

 P −1    =   0 0 A.

−1 Pn−1

···

 0 0  . . . 0 0 1

y que

T = P−1 A P.

Se sigue que la matriz triangular inferiormente T es semejante a la matriz 2

pondiente a la matriz

Ejemplo 6.6.10 Triangular por semejanza y hallar la matriz de paso corres-

270

Álgebra

 −2 0 3 A =  3 −2 −9  −1 2 6
En primer lugar determinamos las raíces del polinomio característico de la matriz:

−2 − X 0 3 3 −2 − X −9 −1 2 6−X

= −X + 2X 2 − X 3 = (1 − X)2 (0 − X).

Luego los autovalores A son 1, 1 y 0. Ya que rango(A − Id3 ) = 2, la multiplicidad geométrica de λ1 = 1 es 1 y no coincide con su multiplicidad algebraica. Por tanto A no es diagonalizable. Un autovector asociado a λ1 = 1 es v1 = (1, −2, 1) ∈ Ker(A − Id3 ). Sea ((1, 0, 0), (0, 1, 0), (1, −2, 1)) una base de C3 . La matriz   1 0 1 P1 = 0 1 −2 0 0 1 es tal que

   1 0 −1 −2 0 3 1 0 1 −1 A = P1 AP1 = 0 1 2   3 −2 −9  0 1 −2 = 0 0 1 −1 2 6 0 0 1  −1 −2 0 2 0 . = 1 −1 2 1
Ahora tenemos que triangular la submatriz

A =

−1 −2 1 2

que tiene autovalores 1 y 0. Utilicemos el primero como λ2 . Un autovector asociado a λ2 = 1 es v2 = (−1, 1) ∈ Ker(A − Id2 ). Sea ((1, 0), (−1, 1)) una base de C2 . La matriz

Álgebra

271

 1 −1 0 P2 = 0 1 0 0 0 1
es tal que

  1 1 0 −1 −2 0 1 −1 0 1 0   1  0 2 0 P2 A P2 = 0 0 1 −1 2 1 0   0 0 0 =  1 1 0 , −1 3 1 que es triangular inferiormente y tiene los autovalores Entonces  0 0 −1 −1 −1 P2 A P2 = P2 P1 AP1 P2 =  1 1 −1 3
Se sigue que la matriz de paso es 

 −1 0 1 0 = 0 1

de A en la diagonal.

 0 0 . 1

 1 −1 1 P = P1 P2 =  0 1 −2  , 0 0 1

ya que

−1     1 −1 1 1 −1 1 0 0 0 P −1 AP =  0 1 −2  · A ·  0 1 −2  =  1 1 0  = T. 0 0 1 0 0 1 −1 3 1

6.6.4 Resolución de sistemas de ecuaciones diferenciales por triangulación
A partir de este momento, sabremos resolver un sistema de ecuaciones diferenciales lineales con coecientes constantes, siempre que podamos obtener las raíces del polinomio característico de la matriz de coecientes. Si la dimensión de la matriz del sistema es mayor o igual que cinco, no hay fórmulas cerradas para hallar las raíces del polinomio característico y hace falta usar métodos numéricos de aproximación de autovalores. Algunos de estos métodos están ilustrados en la práctica 6.

272

Álgebra

Sistemas homogéneos
Vamos a ilustrar por medio de un ejemplo el método de resolución de sistemas homogéneos. Sea el siguiente sistema homogéneo de ecuaciones:      y1 (t) −2 0 3 y1 (t)  y2 (t)  =  3 −2 −9   y2 (t)  . −1 2 6 y3 (t) y3 (t)

Paso 1: Hacemos triangular la matriz de coecientes, no olvidando generar
la matriz de paso. Como esto ya ha sido realizado en el ejemplo anterior, simplemente nos traemos el resultado:

    −1  0 0 0 −2 0 3 1 −1 1 1 −1 1  0 1 −2  ·  3 −2 −9  ·  0 1 −2  =  1 1 0  . −1 3 1 0 0 1 −1 2 6 0 0 1 

Paso 2: Resolvemos el sistema triangular
     z1 (t) 0 0 0 z1 (t)  z2 (t)  =  1 1 0   z2 (t)  . z3 (t) −1 3 1 z3 (t)
Como este sistema ha sido resuelto en el ejemplo 6.5.2, nos traemos la solución:         z1 (t) 1 0 0  z2 (t)  = α1  −1  + α2  et  + α3  0  . z3 (t) 4 3tet et

Paso 3: Multiplicamos la solución del sistema triangular por la matriz de
paso:

         y1 (t) 1 −1 1 1 0 0  y2 (t)  =  0 1 −2  α1  −1  + α2  et  + α3  0  = y3 (t) 0 0 1 4 3tet et       et 6 −et + 3tet t t  + α3  −2et  . = α1  −9  + α2  e − 6te et 3tet 4

Álgebra

273

Ejemplo 6.6.11 Resolver la siguiente ecuación:
f − 6f + 9f = 0.
Lo primero es plantear el sistema de primer orden equivalente:

y1 (t) y2 (t)
donde

=

0 1 −9 6

y1 (t) y2 (t)

,

y1 (t) = f (t) . y2 (t) = f (t) = y1 (t) 0 1 −9 6

Ahora hacemos triangular la matriz

A=

,

para lo cual lo primero es determinar las raíces de su polinomio característico:

−X 1 −9 6 − X

= X 2 − 6X + 9 = (3 − X)2 .

Luego los autovalores A son 3,3. A continuación utilizamos el procedimiento visto para triangular la matriz y hallar la matriz de paso. El rango de la matriz A − 3Id2 es 1 y, por tanto, A no es diagonalizable. Un autovector asociado al autovalor λ1 = 3 es v1 = (1, 3) ∈ Ker(A − 3Id2 ). Sea ((0, 1), (1, 3)) una base de C2 . La matriz 0 1 P1 = 1 3 es tal que
−1 A = P1 AP1 =

−3 1 1 0 =

0 1 −9 6

0 1 1 3

=

3 0 . 1 3
−1

Entonces

3 0 1 3

=

0 1 1 3

0 1 −9 6

0 1

1 3

.

274

Álgebra

Ahora resolvemos el sistema triangular

z1 (t) z2 (t)
Dicho sistema equivale a:

=

3 0 1 3

z1 (t) z2 (t)

.

z1 (t) = 3z1 (t) . z2 (t) = z1 (t) + 3z2 (t)
La solución general de la primera ecuación, según sabemos, es z1 (t) = α1 e3t . La segunda ecuación se transforma en z2 (t) − 3z2 (t) = α1 e3t y su solución general es:

z2 (t) = α2 e3t + e3t
0

t

α1 e3x e−3x dx α1 dx =

= α2 e + e

3t

3t 0

t

= α2 e3t + e3t α1 (t) = = e3t (α2 + tα1 ),
es decir,

z2 (t) = α1 te3t + α2 e3t .

Expresando las soluciones vectorialmente tenemos que

z1 (t) z2 (t)

= α1

e3t te3t

+ α2

0 e3t

.

Finalmente, multiplicamos la solución del sistema triangular por la matriz de paso:

y1 (t) y2 (t)

= = α1

0 1

1 3
3t

α1

e3t te3t + α2

+ α2 e3t 3e3t

0 e3t

=

te3t e + 3te3t

y, puesto que la solución buscada es f (t) = y1 (t), concluimos que

f (t) = α1 te3t + α2 e3t .

Álgebra

275

Sistemas no homogéneos
Si la ecuación diferencial de orden n considerada no fuese homogénea, es decir, fuese de la forma

f (n) + an−1 f (n−1) + · · · + a1 f + a0 f = h,
se puede aplicar una ligera variación sobre el método visto. Haciendo el mismo cambio   y1 (t) = f (t)    y2 (t) = f (t) = y1 (t) , (6.7) .  .   .  y (t) = f (n−1) (t) = y (t) n n−1 el sistema de primer orden equivalente sería:

y1 (t)  y (t)  2  .  . . yn (t)

     =   

0 0 . . .

1 0 . . .

0 1

··· ···

0 0 . . .

      

0 0 0 ··· 1 −a0 −a1 −a2 · · · −an−1

y1 (t) y2 (t) . . . . . . yn (t)

      +    

0 0 . . . 0 h(t)

      

con la peculiaridad de que, en este caso, tendríamos el sistema

∀t ∈ R ,

− → − → → y (t) = A− (t) + h (t). y

Razonando de forma similar al caso en el que no teníamos término independiente, si P es una matriz cuadrada invertible, podemos pasar al sistema:

∀t ∈ R ,

− → − → → P−1 · y (t) = P−1 ·A− (t) + P−1 · h (t), y

− → con lo que, si llamamos →(t) a P−1 ·− (t) tendremos que z y − → − → z (t) = P−1 · y (t)
y, en consecuencia, para conseguir que aparezca el mismo tipo de variable a ambos lados de la igualdad, hacemos las mismas transformaciones que en el

276 caso de un sistema homogéneo:

Álgebra

− → − → → z (t) = P−1 ·A− (t) + P−1 · h (t) = y − → − = P−1 ·A · (P · P−1 )→(t) + P−1 · h (t) = y − → → = (P−1 ·A · P)(P−1 ·− (t)) + P−1 · h (t) = y − → − = (P−1 ·A · P)→(t) + P−1 · h (t) z → y, puesto que este sistema es triangular, sabemos resolverlo. Si − (t) es z solución de dicho sistema, deshaciendo el cambio obtendremos que →(t) = P·− (t) − → y z
es la solución buscada.

Ejemplo 6.6.12 Para resolver la ecuación
f − 6f + 9f = 32te−t ,
como en el caso homogéneo, el primer paso es plantear el sistema de primer orden equivalente:

y1 (t) y2 (t)

=

0 1 −9 6

y1 (t) y2 (t)

+

0 32te−t

.

Ahora hacemos triangular la matriz

A=

0 1 −9 6

,

que coincide con la del ejemplo anterior y, según vimos, se verica que

3 0 1 3
Ahora, siendo es decir,

=

0 1

1 3

−1

0 1 −9 6

0 1

1 3

.

− (t) = P−1 ·− (t), → → z y z1 (t) z2 (t) 0 1 1 3
−1

=

y1 (t) y2 (t)

,

Álgebra

277

tenemos que resolver el sistema triangular

z1 (t) z2 (t)
y, puesto que

=

3 0 1 3

z1 (t) z2 (t)

+

0 1

1 3

−1

0 32te−t

0 1 1 3
dicho sistema es equivalente a:

−1

=

−3 1 1 0

,

z1 (t) z2 (t)
es decir:

=

3 0 1 3

z1 (t) z2 (t)

+

−3 1 1 0

0 32te−t

,

z1 (t) = 3z1 (t) + 32te−t z2 (t) = z1 (t) + 3z2 (t)
Y ahora, la solución general de la primera ecuación, según sabemos, es

z1 (t) = α1 e3t + e3t
0

t

32xe−x e−3x dx = 32xe−4x dx = −x −4x e 4
t

= α1 e3t + e3t
0

t

(por partes) = α1 e + 32e

3t

3t

+
0

1 4

t 0

e−4x dx =

=

1 = α1 e3t + 8e3t −te−4t − (e−4t − 1) 4 3t −t −t = α1 e − 8te − 2e + 2e3t = = k1 e3t − 8te−t − 2e−t ,

donde hemos tomado k1 = α1 + 2, ya que α1 es una constante arbitraria. La segunda ecuación se transforma en z2 (t) − 3z2 (t) = k1 e3t − 8te−t − 2e−t y su

278

Álgebra

solución general es:

z2 (t) = α2 e3t + e3t
0

t

(k1 e3x − 8xe−x − 2e−x )e−3x dx (k1 − 8xe−4x − 2e−4x )dx =
t 0

= α2 e3t + e3t
0

t

= α2 e3t + e3t

1 k1 x + e−4x 2

1 1 1 − 8e3t (− te−4t − e−4t + ) = 4 16 16

1 1 1 + 2te−t + e−t − 2e3t = = α2 e3t + e3t k1 t + e−4t − 2 2 2 1 1 1 = α2 e3t + k1 te3t + e−t − e3t + 2te−t + e−t − 2e3t = 2 2 2 1 = e3t α2 − 2 − + k1 t + e−t (1 + 2t) , 2
con lo que, renombrando las variables adecuadamente, obtenemos que

z2 (t) = k1 te3t + α2 e3t + e−t (1 + 2t) .
Expresando las soluciones vectorialmente tenemos que (k1 = C1 , α2 = C2 )

z1 (t) z2 (t)

= C1

e3t te3t

+ C2

0 e3t

+

−8te−t − 2e−t e−t (1 + 2t)

.

Finalmente, multiplicamos la solución del sistema triangular por la matriz de paso:

y1 (t) y2 (t)

= + = =

0 1 1 3

C1

e3t te3t =

+ C2

0 e3t

+

−8te−t − 2e−t e−t (1 + 2t) 0 1 1 3

C1 e3t − 8te−t − 2e−t C1 te3t + C2 e3t + e−t (1 + 2t)

=

C1 te3t + C2 e3t + e−t (1 + 2t) C1 e3t − 8te−t − 2e−t + 3C1 te3t + 3C2 e3t + 3e−t (1 + 2t)

y, puesto que la solución buscada es f (t) = y1 (t), concluimos que

f (t) = C1 te3t + C2 e3t + e−t (1 + 2t) .

Álgebra

279

Ejercicio 6.6.1 Resolver la siguiente ecuación:

D3 f − 5D2 f + 7Df − 3f = 9t − 9. Solución: f (t) = −4 − 3t + C1 et + C2 e3t + C3 et t.

6.7

Relaciones de recurrencia

Las técnicas desarrolladas en este capítulo también se pueden aplicar para resolver otro tipo de problemas, entre otros, el problema del primer ejemplo enunciado al principio del capítulo. Para el desarrollo que sigue, es importante recordar que

N ∪ {0} = {0, 1, 2, 3, ...}.

Denición 6.7.1 Diremos que la sucesión {an }n∈N∪{0} está denida recursivamente o por recurrencia si
1. ∃k ∈ N tal que a1 , ..., ak son conocidos y 2. ∀n ∈ N ∪ {0}, an+k está denido en función de an+k−1 , ..., an .

ferencias.

Las relaciones de recurrencia también se denominan ecuaciones en di-

Denición 6.7.2 Llamaremos relación de recurrencia lineal homogénea de orden k ∈ N con coecientes constantes a cualquier relación de
recurrencia de la forma

an+k = c1 an+k−1 + ... + ck an
donde c1 , ..., ck ∈ C, ck = 0, y n ∈ N ∪ {0}.
Las relaciones del tipo anterior se denominan lineales y homogéneas debido a que la ecuación asociada

an+k − c1 an+k−1 + ... + ck an = 0
de variables an+k , an+k−1 , ..., an es una ecuación lineal y homogénea.

Ejemplo 6.7.3 La ecuación
an+2 = an+1 − 5an

280

Álgebra

es una relación de recurrencia lineal homogénea de grado 2, puesto que su ecuación asociada an+2 − an+1 + 5an = 0 es una ecuación lineal y homogénea (similar a la ecuación x − y + 5z = 0). Si especicamos los valores iniciales a1 y a2 , todos los términos de la sucesión quedan determinados y, por tanto, hay una única sucesión que satisface dicha relación de recurrencia y cuyos dos primeros términos sean a1 y a2 . Dicho de otra forma, el subespacio vectorial de F(N, R)

{{an } : an+2 − an+1 + 5an = 0}
tiene dimensión 2.

Ejemplo 6.7.4 La relación de recurrencia
an+2 =
no es lineal, pues la ecuación

an+1 + 2an

x−

y − 2z = 0

no es lineal. La relación de recurrencia

an+2 = a2 + 5an n+1
tampoco es lineal.
Volvamos al problema original que tenemos planteado, esto es, encontrartodas las soluciones de una relación de recurrencia lineal y homogénea con coecientes constantes. El discurso va a seguir el mismo camino que el visto para las ecuaciones diferenciales. Primero veremos cómo se pueden resolver las relaciones de recurrencia homogéneas de primer orden y luego las no homogéneas para, a continuación, utilizar la técnica desarrollada en el capítulo para resolver sistemas de relaciones de recurrencia, nalizando la exposición con la aplicación del método para resolver ecuaciones de recurrencia de orden k > 1.

Álgebra

281

6.7.1 Relaciones de primer orden
Según vimos, las sucesiones {an }n∈N que satisfacen la relación de recurrencia lineal homogénea de primer orden

an+1 = λan ,

(I)

son las sucesiones {an }n∈N que son autovectores de la función lineal S asociados al autovalor λ, junto con la sucesión nula 0 = {0, 0, 0, ....}. Esto es, el conjunto Ker(S −λId). Por otra parte, si demostramos que dim(Ker(S −λId)) = 1, localizando una solución no nula, es decir, un elemento no nulo de dicho subespacio, el resto de soluciones se obtendrá fácilmente. Veamos que, efectivamente,

dim(Ker(S − λId)) = 1.
Evidentemente, la sucesión

{an } = {λn } = {1, λ, λ2 , λ3 , ...},
es una solución de la ecuación (o relación de recurrencia) (I). Por otra parte, si {bn } es cualquier otra solución de dicha ecuación, vamos a demostrar que existe una constante K tal que

{bn } = K · {λn } = {K · λn },
con lo que {λn } será una base de Ker(S − λId) y dim(Ker(S − λId)) = 1. Puesto que {bn } ∈ Ker(S − λId), es decir, S({bn }) = λ · {bn }, tendremos, por una parte, que

S({bn }) = S({b0 , b1 , b2 , ...}) = λ · {b0 , b1 , b2 , ...} = {λb0 , λb1 , ...}
y, por otra, que

S({bn }) = S({b0 , b1 , b3 , ...}) = {b1 , b2 , ...},
de donde

{λb0 , λb1 , ...} = {b1 , b2 , ...},

282 es decir,

Álgebra

b1 = λb0 b2 = λb1 = λ2 b0 b3 = λb2 = λ3 b0 . . . bn = λbn−1 = λn b0 . . .
. En otras palabras, {bn } = b0 · {λn }, con lo que las soluciones de la ecuación

an+1 = λan

(I)

son las progresiones geométricas de razón λ, progresiones que constituyen el subespacio vectorial Ker(S − λId), siendo una base de dicho espacio la sucesión {λn } = {1, λ, λ2 , λ3 , ...}.

currencia

Ejemplo 6.7.5 Las sucesiones {an }n∈N que satisfacen la relación de rean+1 = 5an

son de la forma

K · {5n } = K · {1, 5, 52 , ..., 5n , ...} = {K, 5K, 52 K, ..., 5n K, ...}.
progresión geométrica sólo es preciso conocer el primer elemento (b0 = K) y la razón de la progresión (λ), conocido el valor inicial a0 , hay una única sucesión {an }n∈N que satisface la relación de recurrencia an+1 = λan , (I).

Observación 65 Puesto que para tener completamente determinada una

Ejemplo 6.7.6 Existe una única sucesión {an }n∈N que satisface las condiciones

a0 = 3 an+1 = 5an .

Dicha sucesión es

a0 · {λn } = 3 · {5n } = {3, 15, 75, ..., 3 · 5n , ...}.

Álgebra

283

Ya sabemos encontrar las soluciones de una ecuación de recurrencia lineal y homogénea con coecientes constantes de primer orden, e incluso hallar la única solución de una ecuación del tipo anterior toda vez que se conozca un valor inicial. Ahora bien, ¾Cómo podemos encontrar las soluciones de un sistema de ecuaciones de recurrencia de primer orden? ¾Podemos emplear la misma técnica de resolución vista para los sistemas de ecuaciones diferenciales? Veremos que la respuesta a esta pregunta es armativa. Pero, para poder aplicarla, necesitamos resolver en primer lugar las relaciones de recurrencia no homogéneas de primer orden con coecientes constantes. La siguiente proposición tiene como consecuencia que cualquier relación de recurrencia lineal y homogénea de primer orden con coecientes constantes tiene solución.

Proposición 6.7.7 ∀λ ∈ C la función lineal
(S − λId) : F(N, C) −→ F (N, C)
es sobreyectiva.

Demostración Dada {an } ∈ F (N, C), hay que probar que ∃{bn } ∈ F (N, C)
tal que

(S − λId)({bn }) = {an }.
Ahora bien, dicha igualdad es equivalente a que S({bn }) − λ({bn }) = {an }, es decir, {bn+1 } − λ({bn }) = {an }. Por consiguiente:

b1 = a0 , b2 = a1 + λa0 , b3 = a2 + λa1 + λ2 a0 , . . . bn = an−1 + λan−2 + ... + λn−1 a0 , . . .
La solución {bn } está determinada por b0 = 0 y, para n ≥ 1,
n

bn =
i=1

λi−1 an−i ,

284 es decir,

Álgebra

{bn } = {0, a0 , a1 + λa0 , a2 + λa1 + λ2 a0 , ..., an−1 + λan−2 + ... + λn−1 a0 , ...},
es tal que (S − λId)({bn }) = {an }, como puede comprobarse fácilmente término a término:

S(b0 ) − λb0 = a0 − λ0 = a0 S(b1 ) − λb1 = b2 − λb1 = (a1 + λa0 ) − λa10 = a1 S(b2 ) − λb2 = b3 − λb2 = a2 + λa1 + λ2 a0 − λ (a1 + λa0 ) = a2 . . . S(bn ) − λbn = an . . .
y, en consecuencia (S − λId) es sobreyectiva.

2

La proposición anterior nos proporciona una herramienta para hallar una solución particular de cualquier relación de recurrencia de primer orden con coecientes constantes. Ahora ¾Cómo podemos obtener todas las soluciones de una ecuación lineal de primer orden no necesariamente homogénea? Razonando de forma análoga a como hicimos con las ecuaciones diferenciales. El resultado similar que se tiene en este contexto queda establecido en la siguiente proposición, cuya demostración se propone como ejercicio.

recurrencia

Proposición 6.7.8 Siendo {bn } una solución particular de la relación de
(S − λId)({xn }) = {an },
se verica que

(I)

{yn } es solución de (I) ⇔ ∃K ∈ C tal que {yn } = {bn } + K · {λn }.

Es decir, vale el principio de superposición de soluciones: la solución de la ecuación no homogénea se obtiene sumando a una solución particular de

Álgebra

285

dicha ecuación todas las soluciones de la ecuación homogénea asociada. Por consiguiente, teniendo en cuenta los resultados obtenidos, podemos concluir que

{yn } es solución de (S − λId)({yn }) = {an } ⇔   y0 = K y n ∃K ∈ C tal que λi−1 an−i + K · {λn }.  n ≥ 1, yn =
i=1

Ejemplo 6.7.9 El conjunto de soluciones de la relación de recurrencia
an+1 = 3an + (−1)n
es el conjunto de sucesiones {an } cuyo término general es de la forma

an = bn + K3n ,
donde K ∈ C y {bn } es la sucesión denida por b0 = 0 y, para n > 1,
n

bn =
i=1

3i−1 (−1)n−i .

En otras palabras, {an } es solución de la relación de recurrencia dada si {an } es de la forma

a1 = K
n−1

an = K3n−1 +
i=1

3i−1 (−1)n−i .

En particular, si buscamos la única sucesión determinada por las condiciones

a0 = 0 an+1 = 3an + (−1)n
dicha sucesión es

  a0 = 0  n ≥ 1 ⇒ an =

n i=1

3i−1 (−1)n−i

,

286

Álgebra

es decir,

b0 b1 b2 b3 bn

= = = =

0 −1, 1 + 3 · (−1), −1 + 3 + 32 (−1), . . . = (−1)n−1 + 3(−1)n−2 + ... + 3n−1 (−1), . . .

(6.8)

Observación 66 Para nalizar este apartado, vamos a hacer una breve re- 

exión sobre la forma que tiene la solución particular que encontramos utilizando el método expuesto. Según hemos visto, la sucesión {bn } determinada por b1 = 0 y, para n ≥ 1,
n−1

bn =
i=1

λi−1 an−i

es una solución particular de la relación de recurrencia

(S − λId)({xn }) = {an }.
La forma de la sucesión {bn } recuerda al producto de polinomios. De hecho, el término general de esta sucesión (donde n ∈ N, n ≥ 1) se podría expresar del siguiente modo:
n

bn =
i=1

λi−1 an−i =
j+k=n−1

λj ak .

6.7.2 Sistemas de relaciones de recurrencia
El planteamiento del problema es similar al visto para ecuaciones diferenciales. En este caso, el problema consiste en resolver sistemas de la forma

  x1 (n + 1) = a11 x1 (n) + a12 x2 (n) + · · · + a1m xm (n),    x2 (n + 1) = a21 x1 (n) + a22 x2 (n) + · · · + a2m xm (n), . .  .    x (n + 1) = a x (n) + a x (n) + · · · + a x (n), m m1 1 n2 2 mm m

Álgebra

287

donde las sucesiones  incógnita son {x1 (n)}, ..., {xm (n)}. Como en el caso de las ecuaciones diferenciales, podemos emplear la notación matricial      x1 (n) a11 a12 · · · a1m x1 (n + 1)  x2 (n + 1)   a21 a22 · · · a2m   x2 (n)       , = .  . . .  . . . . .  .    .  . . . .

xm (n + 1)

am1 am2 · · ·

amm

xm (n)

o, inclusive la notación matricial compacta

− (n + 1) = A− (n). → → x x
A los sistemas del tipo anterior se les conoce como sistemas homogéneos de m ecuaciones de recurrencia de primer orden con coecientes constantes. La técnica para resolver este tipo de sistemas es exactamente la misma que la vista para los sistemas de ecuaciones diferenciales. Así, dado el sistema de ecuaciones

− (n + 1) = A− (n), → → x x
donde A es una matriz cuadrada de orden m. Si P es una matriz cuadrada invertible y consideramos la matriz P−1 , tendremos que

− → P−1 ·→(n) = P−1 · A− (n) x x
y, siendo

− (n) = P−1 ·→(n), → − z x − (n + 1) = P−1 ·A− (n) = P−1 ·A · (P · P−1 )→(n) = → → − z x x →(n)) −1 −1 − = (P ·A · P)(P · x → = (P−1 ·A · P)− (n). z

podemos hacer las siguientes transformaciones:

Por ello, si P−1 ·A · P es triangular, para resolver el sistema original planteado es suciente con resolver dicho sistema triangular y deshacer el cambio realizado − (n) = P·− (n). → → x z para obtener la solución buscada.

288

Álgebra

Ejemplo 6.7.10 Supongamos que queremos encontrar las sucesiones que satisfacen el sistema de relaciones de recurrencia lineales y homogéneas de primer orden con coecientes constantes:

x(n + 1) = x(n) + y(n) y(n + 1) = 4x(n) − 2y(n),
junto con las condiciones iniciales x(0) = 1, y(0) = 6. Si planteamos el sistema de forma matricial, tendremos:

x(n + 1) y(n + 1)

=

1 1 4 −2

·

x(n) y(n)

.

Operando, obtenemos que los autovalores de la matriz del sistema son 2 y −3 y que la forma triangular (en este caso diagonal) de la matriz asociada es

1 1 1 −4

−1

·

1 1 4 −2

·

1 1 1 −4

=

2 0 0 −3

.

Razonando del mismo modo que con los sistemas de ecuaciones diferenciales, procedemos a resolver el sistema

(II)
con

z(n + 1) u(n + 1) x(n) y(n) =

= 1 1 1 −4

2 0 0 −3 ·

· z (n) u(n)

z(n) u(n) .

El sistema (II) es, obviamente, el sistema

z(n + 1) = 2z(n) , u(n + 1) = −3u(n)
cuyas soluciones son, según sabemos,

{z(n)} = α{2n } {u(n)} = β{(−3)n }
Luego

(α, β ∈ C).

x(n) y(n)

=

1 1 1 −4

·

α2n β(−3)n

=

α2n + β(−3)n α2n − 4β(−3)n

(α, β ∈ C).

Álgebra

289

Imponiendo, nalmente, las condiciones iniciales tendremos que

x(0) = 1 = α20 + β(−3)0 = α + β y(0) = 6 = α20 − 4β(−3)0 = α − 4β,
es decir, que

α+β =1 α − 4β = 6,
con lo que, resolviendo el sistema

−5β = 5 ⇒ β = −1 , α=2
de donde las sucesiones que satisfacen el sistema planteado con las condiciones iniciales dadas son:

x(n) y(n)
es decir,

=

2 · 2n − (−3)n 2 · 2n + 4(−3)n

=

2n+1 − (−3)n 2n+1 + 4(−3)n

,

{x(n)} = 2n+1 − (−3)n
y

{y(n)} = 2n+1 + 4(−3)n .

Ejercicio 6.7.1 Comprobar que la solución del sistema de ecuaciones diferenciales

x (t) = x(t) + y(t) , y (t) = 4x(t) − 2y(t)

sujeto a las condiciones iniciales x(0) = 1, y(0) = 6 es

x1 (t) x2 (t)

=

2e2t − e−3t 2e2t + 4e−3t

.

Compárese con la solución del sistema de relaciones de recurrencia del ejemplo anterior.

290

Álgebra

6.8 Ejercicios
6.8.1 Ejercicios resueltos
1. Determinar la sucesión denida recursivamente por las condiciones   an+2 = 7an+1 − 12an a1 = 1  a2 = 3. 2. Encontrar las sucesiones que satisfacen la relación de recurrencia

an+3 = 4an+2 − 5an+1 + 2an .
3. Encontrar las soluciones de la ecuación diferencial

D2 (f ) − 7D(f ) + 12f = e−t .
4. Resolver el problema de valor inicial

D(f ) − 2f = e2t f (0) = 1.
5. Resolver el sistema de ecuaciones diferenciales x1 = 5x1 + 4x2 x2 = x1 + 2x2 sujeto a las condiciones iniciales x1 (0) = 2,

x2 (0) = 3.

6. Resolver el sistema de ecuaciones de recurrencia (ecuaciones en diferencias) an+1 = 5an + 4bn bn+1 = an + 2bn con las condiciones iniciales a1 = 2, b1 = 3. 7. Calcular la potencia n−ésima de la matriz   2 1 1 A =  2 3 2 . 3 3 4

Álgebra

291

6.8.2 Ejercicios propuestos
1. Supuesto que t ∈ R, determinar todas las soluciones de los siguientes sistemas:   y1 (t) = −y1 (t) y1 (t) = sin(t)   y2 (t) = 2y2 (t) y2 (t) = t2 a) b)   y3 (t) = y1 (t) + y2 (t) + y3 (t). y3 (t) = y1 (t) + y2 (t) + y3 (t),

 1 0 2 2. Dada la matriz A =  −1 −1 −1  determinar A100 . 0 0 −1   1 4 −12 3. Dada la matriz A =  0 3 −9 , se pide: 0 1 −3 a) hallar una base del subespacio propio asociado a cada valor propio, b) determinar si la matriz A es diagonalizable. 
4. Dada una matriz A ∈ Mn (K), ¾puede ocurrir que A no sea diagonalizable y A2 sí sea diagonalizable? 5. Triangularizar por semejanza y hallar  3 1  0 2 correspondiente a la matriz A = −1 −1 la matriz de paso  0 1 . 1

6. Supuesto que t ∈ R, determinar todas las soluciones del siguiente  y1 (t) = 3y1 (t) + y2 (t)  y2 (t) = 2y2 (t) + y3 (t) sistema:  y3 (t) = −y1 (t) − y2 (t) + y3 (t). 7. Resolver las siguientes ecuaciones: a) 2f + 3f + f = 0, b) 2f + 3f + f = t. 8. Determinar la sucesión {an } que, empezando en a0 = 0, verica

an+1 = 2an + 5n
para todo n ∈ N

{0}.

292

Álgebra 9. Determinar la sucesión denida recursivamente por las condiciones   an+2 = an+1 + 2an , a1 = 3,  a2 = 4.

10. Resolver el sistema de ecuaciones de recurrencia (ecuaciones en diferencias) an+1 = 2an + 1 bn , 4 bn+1 = −an + bn , con las condiciones iniciales a1 = 2,

b1 = 1.

11. Dada una matriz A ∈ Mn (K), demostrar las siguientes armaciones: a) los autovalores de A coinciden con los de su traspuesta, b) si A es inversible, los autovalores de A−1 son los inversos de los autovalores de A, 12. Dada la matriz

A=

2 a 3 b

,

determinar los valores de a, b ∈ R para que (1, 3) sea un autovector asociado al autovalor λ = 2. 13. Dada una matriz A ∈ Mn (K) idempotente (es decir, tal que A2 = A), estudiar como son los autovalores de A.

Capítulo 7 Soluciones de los ejercicios
7.1 Soluciones de los ejercicios del capítulo 1

1. Representar por su matriz ampliada y resolver por el método de GaussJordan cada uno de los siguientes sistemas de ecuaciones lineales :

  2x1 + x2 + 3x3 = 9 5x1 + 4x2 + 6x3 = 24  x1 + 3x2 − 2x3 = 4 {x3 = 3, x2 = 4, x1 = −2}       2 1 3 x1 9  5 4 6  ·  x2  =  24  1 3 −2 x3 4
La solución del sistema por el método de Gauss-Jordan sería la siguiente:     2 1 3 9 1 3 −2 4 F2 = F2 − 5F1 F ↔ F3   5 4 6 24  1 5 4 6 24  F3 = F3 − 2F1 → −→ 1 3 −2 4 −→ 2 1 3 9   1 3 −2 4  0 −11 16 4  , ... prosiguiendo con las transformaciones elemen0 −5 7 1 293

294

Álgebra

 1 0 0 −2 tales adecuadas hasta obtener la matriz  0 1 0 4 , es decir, 0 0 1 3 {x1 = −2, x2 = 4, x3 = 3} .
Del mismo modo el sistema

3x1 + x2 + x3 − 5x4 = 4 5x1 + 2x2 + 4x3 − 2x4 = 6
se expresaría

3 1 1 −5 5 2 4 −2

 x1  x  · 2 =  x3  x4

4 6

.

Resolviéndolo por el método de Gauss-Jordan obtendremos: F1 = 1 F1 F1 = 1 F1 3 3 3 1 1 −5 4 1 1 1 −5 4 3 3 3 3 F2 = F2 − 5F1 F2 = F2 − 5F1 1 7 19 −2 5 2 4 −2 6 0 3 3 3 3 −→ −→ F2 = 3F2 1 0 −2 −8 2 F1 = F1 − 1 F2 , es decir, el sistema es compa3 0 1 7 19 −2 −→ tible indeterminado, y las soluciones son

{x1 = 2 + 2x3 + 8x4 , x2 = −2 − 7x3 − 19x4 , x3 , x4 } .
Razonando análogamente con el sistema   x1 − x2 + x3 − x4 = 0   2x1 + 3x2 + 4x3 + 5x4 = 0  x1 − x2 + 2x3 − 2x4 = 0   5x1 + 5x2 + 9x3 + 9x4 = 0 obtenemos que es compatible indeterminado, siendo su solución

9 9 x1 = − x4 , x 2 = − x4 , x 3 = x4 , x 4 = x4 , 5 5
o , si se preere,

9 9 x1 = − λ, x2 = − λ, x3 = λ, x4 = λ 5 5

λ∈

R

.

Álgebra

295

2. Considere el sistema de ecuaciones   x + y + 2z = a x+z =b  2x + y + 3z = c Demuestre que para que este sistema sea compatible, a, b y c deben satisfacer c = a+b.   1 1 2 a La matriz ampliada de este sistema es A =  1 0 1 b  . 2 1 3 c

   1 1 2 a 1 0 1 b F2 = F2 − F1 F < − > F2  1 1 2 a  F3 = F3 − 2F1 A= 1 0 1 b  1 → 2 1 3 c 2 1 3 c →    1 0 1 b 1 0 1 b  0 1 1 a − b  F3 = F3 − F2  0 1 1 a−b  → 0 0 0 c−a−b 0 1 1 c − 2b 
Si c = a + b, el sistema no es compatible ya que sería equivalente a un sistema que contiene una ecuación de la forma 0x + 0y + 0z = c − a − b = 0. Si c = a + b, el sistema dado es equivalente al sistema

x = −z + b y = −z + a − b
que es compatible indeterminado y tiene conjunto solución

{(−z + b, −z + a − b, z) : z ∈ R}
.

296

Álgebra

3. Resuelva cada uno de los sistemas siguientes por eliminación de GaussJordan: a)

 2 −3 −2 1 . La matriz ampliada de este sistema es A =  2 1 3 2 1

  2x1 − 3x2 = −2 2x1 + x2 = 1  3x1 + 2x2 = 1

   1 2 −3 −2 2 −3 −2 F1 = 2 F1 F2 = F2 − F1  1  0 4 3  F2 = 1 F2 A= 2 1 4 → 3 2 1 3 2 1 →      1 0 1 −3 −1 F3 = F3 − 3F1 1 0 1 5 2 8 3  3  0 1  0 1 3  F3 = F3 + 2 F2  0 1 F1 = F1 + 2 F2 4 4 → 3 2 1 → 0 13 4 0 0 2
El sistema es incompatible. b)   3x1 + 2x2 − x3 = −15   5x1 + 3x2 + 2x3 = 0   3x1 + x2 + 3x3 = 11  11x1 + 7x2 = −30 

1 8 3 4 −7 8

 .

3  5 La matriz ampliada de este sistema es A =   3 11 sucesión de transformaciones elementales

 2 −1 −15 3 2 0  . La 1 3 11  7 0 −30

1 F3 = F3 − F1 , F1 = F1 , F2 = F2 − 5F1 , F4 = F4 − 11F1 , F4 = F4 − F2 , 3 2 1 7 F1 = F1 + F3 , F2 = −3F2 , F3 = F3 +F2 , F3 = − F3 , F1 = F1 − F3 , F2 = F2 +11F3 3 7 3 transforma A en su forma escalonada reducida

Álgebra

297

1  0   0 0
c)

0 1 0 0

 0 −4 0 2  . La única solución del sistema es (−4, 2, 7). 1 7  0 0   4x1 − 8x2 = 12 3x1 − 6x2 = 9  −2x1 + 4x2 = −6 

 4 −8 12 La matriz ampliada de este sistema es A =  3 −6 9 . La suce−2 4 −6 sión de transformaciones elementales 1 1 −1 F1 = F1 , F 2 = F2 , F 3 = F3 , F2 = F2 − F1 , F3 = F3 − F1 4 3 2   1 −2 3 transforma A en la matriz equivalente  0 0 0 . El conjunto solución 0 0 0 del sistema es {(2t + 3, t) : t ∈ R}.
4. ¾Para qué valores de a el sistema que sigue no tiene soluciones? ¾Tiene exactamente una solución? ¾ Tiene innidad de soluciones?

x + 2y − 3z = 4 3x − y + 5z = 2  4x + y + (a2 − 14)z = a + 2   1 2 −3 4 5 2 . La matriz ampliada de este sistema es A =  3 −1 4 1 a2 − 14 a + 2 Aplicando las transformaciones elementales F2 = F2 − 3F1 , F3 = F3 − 4F1 , F3 = F3 − F2 , F2 =
se obtiene la matriz

 

−1 F2 , F1 = F1 − 2F2 , 7

298

Álgebra

 8 1 0 1 7 10  0 1 . −2 7 2 0 0 a − 16 a − 4
Si a = −4, el sistema es incompatible, ya que la última la sería de la forma 0 = −8. Si a = 4, la última la es una la de ceros y el sistema es compatible indeterminado con conjunto solución

8 10 (−t + , 2t + , t) : t ∈ R . 7 7
1 Si a = ±4, aplicando la transformación F3 = a2 −16 F3 , se obtiene la matriz en forma escalonada   8 1 0 1 7  0 1 −2 10  . 7 1 0 0 1 a+4

En este caso el sistema tiene exactamente una solución para cada valor de a. (Hay tres variables principales) 5. Calcular las inversas de la siguientes matrices:

A=

3 1 5 2

B= F1 = 1 F1 3 →

2 −3 4 4

C=

2 0 0 3 F2 = F2 − 5F1 → 1 0 2 −1 0 1 −5 3 1 0
.
1 3 1 3 1 3 −5 3

3 1 1 0 5 2 0 1 F1 = F1 − F2 →
Entonces A−1

1 1 1 0 3 3 5 2 0 1 F2 = 3F2 →

0 1

1 0 2 −1 0 1 −5 1 3 3 2 −1 = . −5 3

2 −3 1 0 4 4 0 1 1 −3 1 0 2 2 0 10 −2 1

1 1 −3 1 0 F1 = 2 F1 2 2 → 4 4 0 1 1 1 −3 1 F2 = 10 F2 2 2 → 0 1 −1 5

F2 = F2 − 4F1 → F1 = F1 + 3 F1 0 2 1 → 10

Álgebra

299
1 5 −1 5 3 20 1 10

1 0 0 1

.
1 5 −1 5 3 20 1 10

Entonces B −1 =

. 1 0 1 0 2 0 3 0 1
1 F2 = 3 F2 →

2 0 1 0 0 3 0 1
Entonces C −1

1 F1 = 2 F1 → 1 0 2 = . 0 1 3

1 0 1 0 2 0 1 0 1 3

.

6. Verique que las matrices A y B del ejercicio 5) satisfacen la relación (AB)−1 = B −1 A−1 .

B −1 A−1 = 3 1 5 2

1 5 −1 5

3 20 1 10

2 −1 −5 3 =

=

−7 20 −9 10

1 4 1 2

y

AB =

2 −3 4 4

10 −5 18 −7 1 −1 2 18 −7 1 0
−1 2 1 10 −9 10

.
1 10

10 −5 1 0 18 −7 0 1 1 −1 2 0 2 1 0 0 1
1 10 −9 5 −7 20 −9 10

1 F1 = 10 F1 → 1 F2 = 2 F2 →

0

0 1 0
1 2

F2 = F2 − 18F1 → F1 = F1 + 1 F2 2 →

0 1
1 4 1 2

1

. Entonces (AB)−1 = B −1 A−1 .

7. Sea A una matriz invertible y suponga que la inversa de 7A es −1 2 . Encuentre la matriz A. 4 −7

1 7

−1 2 4 −7 −1 2 4 −7

= (7A)−1 =
−1

1 −1 A 7

⇒ A−1 = 7

−1 2 4 −7

⇒ A =

−1 2 1 0 4 −7 0 1

F2 = F2 + 4F1 →

−1 2 1 0 0 1 4 1

F1 = F1 − 2F2 →

300

Álgebra

−1 0 −7 −2 0 1 4 1 7 2 A= 1 = 7 4 1

F1 = −F1 → 1 2 7 . 4 1
7 7

1 0 7 2 0 1 4 1

8. Sea AX = B un cualquier sistema consistente de ecuaciones lineales y supóngase que X1 es una solución ja. Demuestre que toda solución para el sistema se puede escribir en la forma X = X1 + X0 , en donde X0 es una solución para AX = 0. Demuestre también que toda matriz de esta forma es una solución. Sea X2 una solución del sistema AX = B. Ya que X2 = X1 + (X2 − X1 ), será suciente demostrar que (X2 − X1 ) es una solución del sistema AX = 0 y denir X0 = X2 − X1 . En efecto, A(X2 − X1 ) = AX2 − AX1 = B − B = 0. Ahora tenemos que vericar que toda matriz X de la forma X1 +X0 , donde X1 es una solución particular del sistema AX = B y X0 es una solución del sistema homogéneo AX = 0, es también una solución del sistema. En efecto, AX = A(X1 + X0 ) = AX1 + AX0 = B + 0 = B. 9. Encontrar  3  1 a) A =  2 1  0 c) C = 1 la inversa de la matriz dada, si la   4 −1 3 1   2 4 0 3 b) B = 5 −4 −4 2  0 1 1 1  1 0 matriz es invertible:  5 1  −9

a) Aplicando sucesívamente las transformaciones elementales F2 ←→ 2 F3 , F2 = F2 − 3F1 , F3 = F3 − 2F1 , F2 = 1 F2 , F3 = F3 − 5F2 , F3 = 5 F3 , F2 = 4 5 F2 + 2 F3 , F1 = F1 − 3F3   3 4 −1 1 0 0 a la matriz  1 0 3 0 1 0 , obtenemos la matriz 2 5 −4 0 0 1    3 −11 −6  3 1 0 0 2 −11 −6 10 5 2 10 5  0 1 0 −1 1 1  . Por lo que A−1 =  −1 1 1 . 7 2 −1 7 2 0 0 1 −1 10 2 5 2 10 5

Álgebra

301 elementales F3 = F3 + 2F1 y F3 =  0 0 1 0  , obtenemos la matriz 0 1

b) Aplicando las transformaciones 3 1 5 1  2 4 1 0 F3 − F2 a la matriz −4 2 −9 0 

 3 1 5 1 0 0  2 4 1 0 1 0 . 0 0 0 2 −1 1  3 1 5 Por lo tanto la matriz B es equivalente a la matriz  2 4 1  , es decir, 0 0 0 el sistema de ecuaciones lineales homogéneo asociado a la matriz B ,   3x + y + 5z = 0 2x + 4y + z = 0 , es equivalente al sistema homogéneo de dos  −4x + 2y + −9z = 0   3x + y + 5z = 0 ecuaciones en tres variables 2x + 4y + z = 0 , que tiene una innidad de  0=0 soluciones. Por ello la matriz B no puede ser invertible, ya que, si lo fuera, el sistema sería compatible determinado. c) Aplicando las transformaciones elementales F3 F3 − F1 , F3 = = 1 0 1 1 0 F2 , F3 = −1 F3, F1 = F1 −F3 y F2 = F2 −F3 a la matriz  0 1 1 0 1 2 1 1 0 0 0   1 −1 1 1 0 0 2 2 2 1  . se obtiene la matriz  0 1 0 −1 1 2 2 2 1 1 −1 0 0 1 2 2 2  1 −1 1 
Entonces C −1 = 
2 −1 2 1 2 2 1 2 1 2 2 1 2 −1 2

F3 − 0 0 , 1

.

10. Efectúe las operaciones sobre las las que siguen sobre

 3 1 0 A =  −2 1 4  3 5 5

302

Álgebra

multiplicando por una matriz elemental apropiada. En cada caso, verique la respuesta llevando a cabo la operación sobre las las directamente sobre A. a)Intercambie la primera y tercera las. b)Multiplique la segunda la por 1/3. c)Sume el doble de la segunda la a la primera.

   0 0 1 3 5 5 a)  0 1 0  A =  −2 1 4  1 0 0 3 1 0    3 1 0 1 0 0 b)  0 1 0  A =  −2 1 4  3 3 3 3 0 0 1 3 5 5    1 2 0 −1 3 8 c)  0 1 0  A =  −2 1 4  0 0 1 3 5 5
11. Una caja que contiene monedas con las denominaciones de un centavo, cinco centavos y diez centavos tiene 13 de ellas con un valor total de 83 centavos. ¾ Cuántas monedas de cada tipo hay en la caja ? Hay que resolver el sistema de ecuaciones x + y + z = 13 x + 5y + 10z = 83 El sistema anterior es equivalente al sistema x + y + z = 13 4y + 9z = 70, sistema que tiene una innidad de soluciones de la forma ( −18+5z , 70−9z , z). 4 4 En el problema dado 0 ≤ z ≤ 13 y, para que x e y no sean negativos, 4 ≤ z ≤ 7. El único valor de z en este intervalo tal que x e y sean números naturales es 6. Entonces hay 3 monedas de 1 centavo, 4 de cinco centavos y 6 de diez centavos. 12. ¾Para cuál valor, o cuáles valores, de a el sistema siguiente tiene cero, una y una innidad de soluciones?

Álgebra

303

  x1 + x2 + x3 = 4 x3 = 2  2 (a − 4)x3 = a − 2
La matriz ampliada asociada  este sistema es la matriz a  1 1 1 4 1 2  . Si a = −2, la última ecuación es del A =  0 0 2 0 0 a −4 a−2 tipo 0 = −4 y sistema es incompatible. Si a = 2, la matriz A es igual a el  1 1 1 4  0 0 1 2  y el sistema tiene una innidad de soluciones: 0 0 0 0

{(−t + 2, t, 2) : t ∈ R} .
Si a = ±2, podemos aplicar la transformación elemental F3 = matriz A. El sistema es equivalente al sistema   x1 + x2 + x3 = 4 x3 = 2  1 x3 = a+2
1 F a2 −4 3

a la

que es compatible y tiene una innidad de soluciones {(2 − s, s, 2) : s ∈ R} 1 sólo si a+2 = 2, es decir, sólo si a = − 3 . 2 13. Demostrar que la trasposición de matrices satisface las siguientes propiedades. a) ∀A ∈ Mm×n (K) t (t A) = A. Dado (i, j) ∈ {1, ..., m} × {1, ..., n}, aplicando la denición t t ( A)(i, j) =t A(j, i) = A(i, j). Por consiguiente, al ser matrices del mismo orden, t (t A) = A. b) ∀A, B ∈ Mm×n (K) t (A + B) =t A +t B. Dado (i, j) ∈ {1, ..., m} × {1, ..., n}, aplicando la denición
t

(A + B)(i, j) = (A + B)(j, i) = A(j, i) + B(j, i) = = (t A)(i, j) + (t B)(i, j) = (t A +t B)(i, j).

c)∀A ∈ Mm×n (K), ∀B ∈ Mn×p (K) A · B ∈ Mm×p (K), con lo que t (A · B) ∈ Mp×m (K). Por otra parte t B ∈ Mp×n (K),t A ∈ Mn×m (K), . con lo que

304

Álgebra

(t B ·t A) ∈ Mp×m (K), es decir, son matrices del mismo orden. Dado ahora (i, j) ∈ {1, ..., m} × {1, ..., n}, aplicando la denición
n t

(A · B)(i, j) = (A · B)(j, i) =
k=1 n

A(j, k) · B(k, i) =
n

= =
k=1 t

(t A)(k, j) · (t B)(i, k) =
k=1 t

(t B)(i, k) · (t A)(k, j) =

B · A (i, j).

14. Demostrar que si A ∈ Mn (K) es invertible, entonces
t

(A) ∈ Mn (K)
−1

es invertible y t (A−1 ) = (t A) . Si A · A−1 = In y A−1 · A = In , por las propiedades vistas en el problema anterior t (A · A−1 ) =t In = In =t (A−1 ) · (t A) y t (A−1 · A) =t In = In = −1 (t A) ··t (A−1 ) , con lo que t (A−1 ) = (t A) . 15. Si A = (aij ) ∈ Mn (K), se denomina traza de A a la suma de los elementos de la diagonal principal de A, es decir,
n

T r(A) = a11 + ... + ann =
i=1

aii .

Demostrar que ∀A, B, C ∈ Mn (K): a) T r(A + B) = T r(A) + T r(B).

T r(A+B) =

n

i=1

(aii +bii ) = (por las propiedades asociativa y conmutativa
n i=1 n i=1

de +) = (a11 + ... + ann ) + (b11 + ... + bnn ) = b) T r(AB) = T r(BA). Si AB = C y BA = D, T r(AB) =
n n

aii + cii =

n i=1 n

bii .
n

aik bki

=

aik bki

k=1 i=1 n

= (por la propiedad conmutativa de ·) = =

i=1 k=1 n n k=1 i=1

bki aik =

dii

i=1

= T r(BA).

Álgebra Poner un contraejemplo que ponga de maniesto que

305

T r(A.B) = T r(A) · T r(B). 1 1 1 0 1 1 y B = I2 = , A.B = = A, por lo 1 1 0 1 1 1 que T r(A.B) = T r(A) = 2; sin embargo T r(A) · T r(B) = 2 · 2 = 4. c) Siendo C = At A,
Si A =
n n n

T r(A A) = T r(C) =
i=1 n n

t

C(i, i) =

(

A(i, k)t A(k, i)) = a2 . ik

i=1 k=1 n n

=

(
i=1 k=1

A(i, k)A(i, k)) =
i=1 k=1

16. Se dice que una matriz A ∈ Mn (K) es simétrica si t A = A. Demostrar que una condición necesaria y suciente para que el producto de dos matrices simétricas A, B ∈ Mn (K) dé como resultado una matriz simétrica es que AB = BA. Veamos que es condición necesaria: Hipótesis: A y B simétricas y AB simétrica. ¾En estas condiciones es AB = BA? t (AB) = al ser AB simétrica = AB; Pero también t (AB) = (t B)(t A) = ( Al ser A y B simétricas) = AB. Veamos ahora que es condición suciente: Hipótesis: A y B simétricas y AB = BA. ¾Es en estas condiciones AB simétrica? Si AB = BA, tendremos que t (AB) =t (BA) = (t A)(t B) =(Al ser A y B simétricas)=AB, con lo que AB es simétrica. 17. Determinar α ∈ C y β ∈ C para que la matriz A =

2 1 1 2

M2 (C) satisfaga la ecuación A2 + αA + βI2 = (0). Utilizando la relación anterior, y sabiendo que A es invertible, calcular −1 A . 2 1 2 1 5 4 = , luego hay que resolver la ecuación 1 2 1 2 4 5 5 4 4 5 +α 2 1 1 2 +β 1 0 0 1 = 0 0 0 0 ,

306 de donde

Álgebra

5 + 2α + β 4+α 4+α 5 + 2α + β

=

0 0 0 0

, y en consecuencia α =

−4 y β = 3. Por consiguiente A2 −4A+3I2 = (0). Suponiendo que A tiene inversa A−1 , multiplicando por dicha matriz a ambos lados de esa ecuación, obtenemos A−1 (A2 − 4A + 3I2 ) = A−1 (0) = (0), de donde A − 4I2 + 3A−1 = (0), es decir, 2 −1 2 −1 1 1 3 3 = A−1 = 3 (4I2 − A) = 3 . −1 2 −1 2 3 3
18. Se dice que una matriz A ∈ Mn (K) es idempotente si A2 = A. Demostrar que si A ∈ Mn (K) es idempotente, entonces B = In − A es idempotente. Demostrar también que AB = (0) y que BA = (0). B 2 = (I−A)(I−A) = I−A−A+A2 . Al ser A idempotente I−A−A+A2 = I − A = B, luego B es idempotente. Por otra parte AB = A(I − A) = A − A2 = A − A = (0)

BA = (I − A)A = A − A2 = A − A = (0).
19. En una feria de ganado un granjero compró pollos, conejos y terneros. Los pollos los compró a 50 pts., los conejos a 1000 pts. y los terneros a 5000pts. Compró 100 animales y gastó 100.000 pts. Sabiendo que compró animales de las 3 clases, averiguar el número de animales que compró de cada clase. Hay que resolver el sistema de ecuaciones x + y + z = 100 50x + 1000y + 5000z = 100000 El sistema anterior es equivalente al sistema x + y + z = 100 19y + 99z = 1900 Haciendo z = λ, se tiene que y = 100 − 99λ , x = 80λ . De las condiciones 19 19 del enunciado se sigue que las soluciones deben ser enteras y positivas, por lo que λ debe ser múltiplo de 19. Si λ = 0, no compraría terneros. Si λ = 19, z = 19, y = 1, x = 80. Esta es la única solución posible, pues si λ = 19n y n > 1, y sería negativo. 20. En el ámbito de las ciencias de la computación una cadena o  string es una secuencia de items (datos) de algún conjunto (o dominio) de datos dado. En términos matemáticos una cadena es una palabra a1 ...an de longitud n ≥ 0. Para n = 0 se trata de la cadena vacía (a la que en su momento

Álgebra

307

denotamos por λ) y para n ≥ 1 los elementos a1 , ..., an pertenecen al mismo conjunto o alfabeto A. El ejercicio consiste en construir un modelo de tipo abstracto de datos al que denominaremos cadena o  string, teniendo en cuenta que hay que considerar los datos y las cadenas de datos de un conjunto A = {a1 , ..., ak }, que las cadenas son elementos del conjunto A∗ (conjunto de todas las cadenas o palabras denidas sobre el alfabeto A o lenguaje universal sobre A), que hay que considerar la palabra vacía como una constante, y que como operaciones sobre las cadenas consideramos las siguientes: construye, que a partir de un elemento de A construye una lista de longitud 1, la operación concat, denida sobre pares de palabras por concat(a1 ...an , b1 ...bm ) = a1 ...an b1 ...bm , y las operaciones iañade (iadd) y dañade (dadd) que añaden, respectívamente, un elemento a la izquierda o a la derecha de una cadena dada.(Nota: Son sucientes 5 ecuaciones).

CADEN A = CADEN A, ALF ABET O a1 , ..., an ∈ ALF ABET O, 2. Constantes :  vacía ∈ CADEN A  concat : CADEN A × CADEN A → CADEN A   construye : ALF ABET O → CADEN A 3. Operaciones :  iadd : ALF ABET O × CADEN A → CADEN A    dadd : CADEN A × ALF ABET O → CADEN A  ∀c, c , c” ∈ CADEN A, ∀a ∈ ALF ABET O    concat(c, vacía) = c    concat(vacía, c) = c 4. Ecuaciones:   concat(concat(c, c ), c”) = concat(c, concat(c , c”))   iadd(a, c) = concat(construye(a), c)    dadd(c, a) = concat(c, construye(a)) 1. Tipos :

7.2

Soluciones de los ejercicios del capítulo 2

1. Encontrar un vector u diferente de cero cuyo punto inicial es P = (−1, 3, −5) tal que a) u tiene la misma dirección que v = (6, 7, −3).

308 b) u tiene dirección opuesta a la de v = (6, 7, −3).

Álgebra

Sea u = P Q, donde Q = (x, y, z). Entonces u = (x + 1, y − 3, z + 5). Si u tiene la misma dirección que v , u = kv ⇔ (x + 1, y − 3, z + 5) = (6k, 7k, −3k) a) Sea k > 0 y Q = (6k − 1, 7k + 3, −3k − 5). b) Sea k < 0 y Q = (6k − 1, 7k + 3, −3k − 5). 2. Sean u = (−3, 1, 2), v = (4, 0, −8), y w = (6, −1, −4). Encontrar los escalares c1 , c2 , c3 tales que c1 u+c2 v+c3 w = (2, 0, 4). (2, 0, 4) = c1 u + c2 v + c3 w = c1 (−3, 1, 2) + c2 (4, 0, −8) + c3 (6, −1, −4) = = (−3c1 , c1 , 2c1 ) + (4c2 , 0, −8c2 ) + (6c3 , −c3 , −4c3 ) = = (−3c1 + 4c2 + 6c3 , c1 − c3 , 2c1 − 8c2 − 4c3 ). Entonces, tenemos que resolver el sistema   −3c1 + 4c2 + 6c3 = 2 c1 − c3 = 0  2c1 − 8c2 − 4c3 = 4 La solución del sistema por el método de Gauss-Jordan sería la siguiente: 1 aplicando la transformaciones elementales F1 ←→ F2 , F3 = 2 F3 , F3 = F3 − F1 , F2 = F2 + 3F1 , F3 = F3 + F2 , F2 = 1 F2 , F3 = 1 F3 , 4 2 F1 = F1 + F3 , F2 = F2 − 3 F3 a la matriz 4

   −3 4 6 2 1 0 0 2  1 0 −1 0 , se obtiene la matriz  0 1 0 −1 . 2 −8 −4 4 0 0 1 2 La solución del sistema es {c1 = 2, c2 = −1, c3 = 2} .
3. Demostrar que no existen los escalares c1 , c2 , c3 tales que c1 (−2, 9, 6)+ c2 (−3, 2, 1) + c3 (1, 7, 5) = (0, 5, 4). Como en el ejercicio anterior, tenemos que resolver el sistema   −2c1 − 3c2 + c3 = 0 9c1 + 2c2 + 7c3 = 5  6c1 + c2 + 5c3 = 4
1 Aplicando la transformaciones elementales F3 = F3 +3F1 , F1 = − 2 F1 , F3 = 1 − 8 F3 , F2 ←→ F3 , F3 = F3 − 9F1 , F1 = F1 − 3 F2 , 2

Álgebra
2 F3 = − 23 F3 , F3 = F3 − F2 a la matriz     3 −2 −3 1 0 1 0 1 4 1  9 2 7 5 , se obtiene la matriz  0 1 −1 − 2  . 3 6 1 5 4 0 0 0 46 El sistema es incompatible.

309

4. Sean P el punto (2, 3, −2) y Q el punto (7, −4, 1). a) Encontrar el punto medio del segmento de recta que une a P y Q. b) Encontrar el punto sobre el segmento de recta que une a P y Q y está 3 a 4 de la distancia de P a Q. a) Sean v = OP = (2, 3, −2) y w = OQ = (7, −4, 1) y v + w = OR = (9, −1, −1). El segmento OR corta el segmento P Q en un punto M , que es el punto de intersección entre las diagonales del paralelogramo OP RQ. Entonces M es el punto medio de P Q y M = v+w = ( 9 , −1 , −1 ). 2 2 2 2 3 b) El punto sobre el segmento de recta que une a P y Q y que está a 4 de la distancia de P a Q será dado por el punto medio entre M y Q, es decir 1 por N = 2 ( v+w + w) = ( 23 , −9 , 1 ). 2 4 4 4 5. Suponer que la traslación de un sistema de coordenadas xy se hace para obtener un sistema de coordenadas x y cuyo origen O tiene las coordenadas (2, −3). a) Encontrar las coordenadas x y del punto P cuyas coordenadas xy son (7, 5). b) Encontrar las coordenadas xy del punto Q cuyas coordenadas x y son (−3, 6). c) Trazar los ejes de coordenadas xy y x y y localizar los puntos P y Q. Las ecuaciones de traslación de S = (O, x, y) a S = (O , x , y ) y de S = x=x +2 x =x−2 . y (O , x , y ) a S = (O, x, y) son: y =y −3 y =y+3 a) P = (5, 8) en S = (O , x , y ). b) Q = (−1, 3) en S = (O, x, y). 6. Demostrar geométricamente que si u y v son vectores en el espacio bidimensional o en el espacio tridimensional, entonces

u+v ≤ u

+

v

.

310

Álgebra

Utilizando la regla del paralelogramo para denir u + v, la desigualdad u + v ≤ u + v se sigue de que la longitud de uno de los lados de un triángulo es siempre menor o igual a la suma de las longitudes de los otros dos lados. 7. a) Demostrar que v = (a, b) y w = (−b, a) son vectores ortogonales. v · w = −ab + ba = 0. b) Usar el resultado del inciso a) para encontrar dos vectores que sean ortogonales a v = (2, −3). Sea v = (2, −3) = (a, b). Entonces, se sigue de la parte a) que los vectores w1 = (−b, a) = (3, 2) y w2 = −w1 = (b, −a) = (−3, −2) son ortogonales a v. c) Encontrar dos vectores unitarios que sean ortogonales a (−3, 4). Sea v = (a, b) = (−3, 4). Como en la parte b), los vectores w1 = (−b, a) = (−4, −3) y w2 = −w1 = (b, −a) = (4, 3) son ortogonales a v. Entonces los vectores w 3 u1 = w1 = ( −4 , 5 ) y u2 = w2 = ( 4 , −3 ) son unitarios y ortogonales a 5 w2 5 5 1 v. 8. Explicar por qué cada una de las siguientes expresiones carece de sentido. Si u, v, w son vectores en el plano o en el espacio tridimensional y k es un número real, a) u · (v · w) : el producto escalar está denido entre vectores y (v · w) es un escalar. b) (u·v)+w : la suma está denida entre dos vectores o entre dos escalares, no entre un escalar y un vector. c) u · v : la norma es una función denida sobre un vector, no un escalar. d) k · (u + v) : el producto escalar está denido entre vectores y k es un escalar. 9. Sean vectores i, j y k unitarios a lo largo de los ejes positivos x, y y z de un sistema de coordenadas rectangulares en el espacio tridimensional. Si v = (a, b, c) es un vector diferente de cero, entonces los ángulos α, β,y γ entre v y los vectores i, j y k , respectivamente, se denominan ángulos directores de v , y los números cos(α), cos(β) y cos(γ) se denominan cosenos directores de v.

Álgebra a) Demostrar que cos(α) =
a v

311

. i = 1) j = 1) k = 1)

cos(α) = ii·vv = a . (Ya que v b) Encontrar cos(β) y cos(γ). b cos(β) = jj·vv = v . (Ya que cos(γ) =
k·v k v

=

c v v v

. (Ya que

c) Demostrar que
v v

= (cos(α), cos(β),cos(γ)). ,
c v

=

(a,b,c) v

=(

a v

,

b v

) = (cos(α), cos(β),cos(γ)).

d) Demostrar que cos2 (α) + cos2 (β) + cos2 (γ) = 1. cos2 (α) + cos2 (β) + cos2 (γ) = v 2 = ( v )2 = 1. v v 10. Demostrar que si v es ortogonal tanto a w1 como a w2 , entonces v es ortogonal a k1 w1 + k2 w2 para todos los escalares k1 y k2 . Utilizando las propiedades del producto escalar y que v·w1 = 0 y v·w2 = 0, se obtiene que v · (k1 w1 + k2 w2 ) = k1 (v · w1 ) + k2 (v · w2 ) = k1 0 + k2 0 = 0. 11. Encontrar las ecuaciones paramétricas de la recta que pasa por los puntos dados. a) Sean P = (5, −2, 4) y Q = (7, 2, −4). La recta que pasa por P y Q es paralela al vector determinado por el segmento P Q = (2, 4, −8) y sus ecuaciones paramétricas son:   x = 5 + 2k y = −2 + 4k ∞<k<∞  z = 4 − 8k b) Sean P = (0, 0, 0) y Q = (2, −1, −3). La recta que pasa por P y Q es paralela al vector determinado por el segmento P Q = (2, −1, −3) y sus ecuaciones paramétricas son:   x = 2k y = −k ∞<k<∞  z = −3k

312

Álgebra

  x=0 y=t ∞<t<∞ 12. Demostrar que la recta r :  z=t a) pertenece al plano π1 : 6x + 4y − 4z = 0 : ∀t 6 · 0 + 4t − 4t = 0 ⇒ r ⊂ π1 . b) es paralela al plano π2 : 5x − 3y + 3z = 1 y está por abajo de éste: π2 ∩ r = ∅ por qué ∀t 5 · 0 − 3t + 3t = 0 = 1, entonces r es paralela a π2 .
Además O = (0, 0, 0) ∈ r y el punto de intersección de π2 con el eje z es (0, 0, 1 ). 3 c) es paralela al plano π3 : 6x + 2y − 2z = 1 y está por arriba de éste:

π3 ∩ r = ∅ por qué ∀t 6 · 0 + 2t − 2t = 0 = 1, entonces r es paralela a π3 . Además O = (0, 0, 0) ∈ r y el punto de intersección de π3 con el eje z es (0, 0, −1 ). 2
13. Encontrar la ecuación del plano π1 que pasa por el punto P = (3, −6, 7) y es paralelo al plano π2 : 5x − 2y + z − 5 = 0. La dirección normal (ortogonal) al plano π1 está dada por el vector n1 = (5, −2, 1). La ecuación del plano π2 en forma punto-normal es: 5(x − 3) − 2(y + 6) + (z − 7) y en forma general: 5x − 2y + z − 34 = 0. 14.  Demostrar que las rectas   x − 3 = 4t  x + 1 = 12s y−4=t y − 7 = 6s , r1 : ∞ < t < ∞ y r2 : ∞<s<∞   z−1=0 z − 5 = 3s se cortan y encontrar el punto de intersección.    x = 3 + 4t  x = −1 + 12s y =4+t y = 7 + 6s , ∞ < s < ∞ r1 : ∞ < t < ∞ y r2 :   z=1 z = 5 + 3s

  3 + 4t = −1 + 12s 4 + t = 7 + 6s Tenemos que encontrar dos valores de t y s tales que .  1 = 5 + 3s Estos valores son s = −4 y t = −5. El punto de intersección es P = 3 (−17, −1, 1).

Álgebra

313

15.

15. Hallar la ecuación del plano π que contiene las rectas del ejercicio

El plano π tiene que pasar por el punto P = (−17, −1, 1) y ser paralelo a r1 y a r2 . Si n = (a, b, c) es la dirección ortogonal al plano π, se obtiene que π : a(x + 17) + b(y + 1) + c(z − 1) = 0, donde n · (4, 1, 0) = n · (12, 6, 3) = 0, siendo (4, 1, 0) y (12, 6, 3) dos vectores paralelos a las rectas r1 y r2 , respectivamente. La relaciones n · (4, 1, 0) = n · (12, 6, 3) = 0 implican que 4a + b = 0 y 12a+6b+3c = 0. Todos los vectores n = (a, −4a, 4a), ∞ < a < ∞, a = 0, serán ortogonales a las dos rectas dadas. Entonces, π : (x + 17) − 4(y + 1) + 4(z − 1) = x − 4y + 4z + 9 = 0. 16. Demostrar que si v es un vector diferente de cero en Rn , entonces tiene la norma euclídea 1. Utilizando una de las propiedades de la norma euclídea:
v v

v v

=|

1 | v

v =

v v

= 1.

17. ¾Para qué valores de k se cumple que u y v son ortogonales? a) u = (2, 1, 3), v = (1, 7, k). u · v = 2 + 7 + 3k = 9 + 3k = 0 ⇐⇒ k = −3. b) u = (k, k, 1), v = (k, 5, 6). u · v = k 2 + 5k + 6 = 0 ⇐⇒ k = −2 o k = −3. 18. Demostrar la identidad u + v 2 + u − v 2 = 2 u 2 + 2 v vectores en Rn . Interpretar geométricamente este resultado en R2 .
2

para

El resultado es una consecuencia inmediata de las siguientes relaciones: u + v 2 = (u + v) · (u + v) = u · u + u · v + v · u + v · v = u 2 + v 2 u − v 2 = (u − v) · (u − v) = u · u − u · v − v · u + v · v = u 2 + v 2 En R2 , utilizando la regla del paralelogramo para determinar el vector u + v, la identidad u + v 2 + u − v 2 = 2 u 2 + 2 v 2 se puede interpretar como: la suma de los cuadrados de las longitudes de las diagonales de un

314

Álgebra

paralelogramo es igual a la suma de los cuadrados de las longitudes de sus lados. 19. Demostrar que si u y v son vectores ortogonales en Rn tales que √ u = 1 y v = 1, entonces d(u, v) = 2. Interpretar geométricamente este resultado en R2 . d2 (u, v) = u − v 2 = (u − v) · (u√ v) = u · u − u · v − v · u + v · v = − = u 2 + v 2 = 2 =⇒ d(u, v) = 2. En R2 este resultado es una aplicación del teorema de Pitágoras al triángulo rectángulo de lados unitarios u y v. 20. Sea (F(R, R), +, ◦) el espacio vectorial de las funciones de R en R. Determinar si los siguientes conjuntos son o no subespacios vectoriales de F(R, R) : a) {f ∈ F(R, R) |∀x ∈ R f (x) = f (−x)} . b) {f ∈ F(R, R) | f (1) = 0} . c) {f ∈ F(R, R) | f (2) = f (3)} . a) H = {f ∈ F(R, R) |∀x ∈ R f (x) = f (−x)} . Sí es subespacio vectorial, pues obviamente la función nula 0 ∈ H, pues ∀x ∈ R 0(x) = 0 = 0(−x) , y si f, g∈H y α, β ∈ R, (αf + βg)(x) = αf (x) + βg(x) = (puesto que f, g∈H) = αf (−x) + βg(−x) = (αf + βg)(−x). b) H = {f ∈ F(R, R) | f (1) = 0} .Sí es subespacio vectorial, pues obviamente la función nula 0 ∈ H, pues 0(1) = 0 , y si f, g∈H y α, β ∈ R, (αf + βg)(1) = αf (1) + βg(1) = (puesto que f, g∈H) = α0 + β0 = 0. c) H = {f ∈ F(R, R) | f (2) = f (3)} . Sí es subespacio vectorial, pues obviamente la función nula 0 ∈ H, pues 0(2) = 0 = 0(3) , y si f, g∈H y α, β ∈ R, (αf + βg)(2) = αf (2) + βg(2) = (puesto que f, g∈H) = αf (3) + βg(3) = (αf + βg)(3). 21. Demostrar que el subconjunto H formado por todas las n − tuplas de números reales tales que los elementos de cada n − tupla forman una progresión aritmética, es un subespacio vectorial de Rn . Si (a1 , ...., an ) ∈ H, los elementos a1 , ...., an están en progresión aritmética. Por consiguiente, siendo d la razón de la progresión,

(a1 , a2 , ...., an ) = (a1 , a1 + d, ...., a1 + (n − 1)d)
Obviamente (0, 0, ..., 0) ∈ H (progresión aritmética de razón d = 0, y cuyo primer elemento es el 0).

Álgebra

315

Sean (a1 , a1 + d, ...., a1 + (n − 1)d), (b1 , b1 + d , ...., b1 + (n − 1)d ) ∈ H y α, β ∈ R. En ese caso

α(a1 , a1 + d, ...., a1 + (n − 1)d) + β(b1 , b1 + d , ...., b1 + (n − 1)d ) = = (αa1 + βb1 , (αa1 + βb1 ) + αd + βd , ...., (αa1 + βb1 ) + α(n − 1)d + + β(n − 1)d ).
Es decir, es un elemento de H, puesto que es una progresión aritmética de razón αd + βd y cuyo primer elemento es αa1 + βb1 . 22. Se dice que A ∈ Mn (K) es simétrica si t A = A. Si denotamos por Sn (K) al conjunto de las matrices simétricas de orden n, demostrar que Sn (K) es un subespacio vectorial de Mn (K). Veámoslo usando la otra caracterización de los subespacios vectoriales: Obviamente la matriz (0) es simétrica, pues t (0) = (0), luego (0) ∈ Sn (K). Por otra parte, si A, B ∈ Sn (K), se verica que t (A) = A y t (B) = B. Pero t (A + B) =t (A) +t (B) = A + B y, en consecuencia, A + B ∈ Sn (K), y si A ∈ Sn (K) y α ∈ K, t (αA) = αt (A) = αA. Recordemos que una matriz A ∈ Mn (K) es antisimétrica si t A = −A. ¾Constituyen las matrices antisimétricas un subespacio vectorialde Mn (K)? Justifíquese la respuesta. Veamos que si: (0) es antisimétrica, pues t (0) = (0) = −(0). Si A, B son antisimétricas t (A) = −A y t (B) = −B, con lo que t (A + B) =t (A) +t (B) = −A + (−B) = −(A + B), y si A es antisimétrica y α ∈ K, entonces t (αA) = αt (A) = α(−A) = −(αA). 23. En R4 se considera el subespacio vectorial H = L(A) generado por el conjunto A de vectores A = {(1, −1, 0, 0), (0, 1, 1, 0), (2, −1, 1, 0), (3, −3, 0, 0)}. ¾Pertenece el vector (1, 1, 1, 0) al subespacio vectorial H? Como hemos visto, existen varias formas de resolver este problema. La más directa es utilizar el método de Gauss: consideremos la matriz de coordenadas de los 5 vectores anteriores respecto de la base canónica, y mediante transformaciones por columna obtenemos una matriz gaussiana:    1 0 2 3 1 1 0 0 0 0 c3 = c3 − 2c1  −1 1 −1 −3 1   −1 1 1 0 2     c4 = c4 − 3c1 →   0 1 1  0 1 1 0 1   0 1 c5 = c5 − c1 0 0 0 0 0 0 0 0 0 0

316

Álgebra

 1 0 0 0 0  −1 1 0 0 0  c3 = c3 − c2  →  0 1 0 0 −1  c5 = c5 − 2c1 0 0 0 0 0 Como puede observarse, la matriz es gaussiana, con lo que su rango es 3. Sin embargo, el rango correspondiente a la matriz formada por las 4 primeras las es 2 , con lo que los vectores columna c1, c2 y c5 constituyen un sistema libre. El vector (1, 1, 1, 0) no pertenece al subespacio H.
24. En el R − e.v. R3 con su estructura de espacio vectorial habitual determinar si los sistemas de vectores

(1, 1, 1), (1, 1, 0), (1, 0, 0) y (1, 2, 3), (2, 0, 1), (−1, 2, 2)
son libres o ligados. Como en el problema anterior, hay varias formas de resolverlo. La más sencilla es utilizar el método de Gauss, pero lo vamos a hacer de dos formas distintas: a) Modo 1): Sean α, β, γ ∈ R tales que

α(1, 1, 1) + β(1, 1, 0) + γ(1, 0, 0) = (0, 0, 0).
En ese caso

(α + β + γ, α + β, α) = (0, 0, 0),
de donde, resolviendo el sistema de ecuaciones, α = 0, β = 0, γ = 0. Es decir, el sistema {(1, 1, 1), (1, 1, 0), (1, 0, 0)} es libre. Modo 2): Consideramos la matriz cuyas columnas son las coordenadas de los vectores respecto de una base del espacio vectorial considerado (en este caso la base canónica de R3 ) y hallamos el rango de esa matriz. Si el rango de la matríz coincide con el número de vectores, el sistema es libre. Si al hacer transformaciones elementales por columnas obtenemos una columna de ceros, el vector correspondiente a esa columna se puede expresar como combinación lineal de los anteriores y el sistema es ligado. En nuestro caso:   1 1 1  1 1 0  es la matriz. Está claro que es una matriz gaussiana. Por 1 0 0 consiguiente el rango es 3, y el sistema de vectores es libre. b) Lo hacemos del segundo modo:

Álgebra

317

 1 2 −1  2 0 2  ; puesto que no es gaussiana, la convertimos en gaussiana 3 1 2 realizando transformaciones elementales por columnas:     1 2 −1 1 2 −2  2 0 2  c3 = c3 − c1 →  2 0 0  c3 = c3 + c2 → 3 1 −1  3 1 2  1 2 0  2 0 0  3 1 0 Está claro que el rango del sistema de vectores es 2, y que el correspondiente a la última columna se expresa como combinación lineal de los correspondientes a las dos primeras. Por consiguiente el sistema es ligado. 
25. Consideramos el Z2 −espacio vectorial de los bytes (Z8 , +, ·) con la 2 suma y producto por escalares ya denidos. Se pide determinar si el sistema de vectores (1, 0, 0, 0, 1, 1, 1, 0), (0, 1, 1, 1, 1, 1, 1, 0) es libre o ligado y hallar el subespacio vectorial generado por el conjunto de esos dos vectores. Es obvio que el sistema es libre, pues ninguno de los dos vectores que constituyen el sistema se puede expresar en función del otro (como combinación lineal del mismo). De otro modo, si α, β ∈ Z2 son tales que

α(1, 0, 0, 0, 1, 1, 1, 0) + β(0, 1, 1, 1, 1, 1, 1, 0) = (0, 0, 0, 0, 0, 0, 0, 0),
tendremos que

(α, 0, 0, 0, α, α, α, 0) + (0, β, β, β, β, β, β, 0) = (0, 0, 0, 0, 0, 0, 0, 0)
de donde α = β = 0. El subespacio vectorial generado por estos vectores es

H = {(x1 , ..., x8 ) ∈ Z8 | 2 ∃α, β ∈ Z2 ..(x1 , ..., x8 ) = α(1, 0, 0, 0, 1, 1, 1, 0) + β(0, 1, 1, 1, 1, 1, 1, 0)}.
26. En el espacio vectorial P4 (C) de los polinomios de grado menor o igual que 4 con coecientes en C se considera el polinomio p(x) = x4 − x2 + 2.

318

Álgebra

Demostrar que el sistema p(x), p (x), p (x), p (x) formado por el polinomio p(x) y sus sucesivas derivadas (hasta la tercera) es un sistema libre. Lo hacemos por el método de Gauss: p (x) = 4x3 − 2x, p (x) = 12x2 − 2, p (x) = 24x Siendo B = {1, x, x2 , x3 , x4 }, la matriz de coordenadas de los vectores del sistema considerado es   2 0 −2 0  0 −2 0 24     −1 0 12 0  ; la matriz es gaussiana, y por consiguiente su    0 4 0 0  1 0 0 0 rango es igual al número de vectores columna no nulos, es decir, 4. Por tanto una base del subespacio H = L{p(x), p (x), p (x), p (x)} es

{p(x), p (x), p (x), p (x)},
con lo que el sistema {p(x), p (x), p (x), p (x)} es libre. 27. En el espacio vectorial F(N, R) de las sucesiones de números reales, con la suma y producto habituales, consideramos el conjunto

H = {(xn ) ∈ F (N, R) |∀n ∈ N xn+2 = xn+1 + xn }
a) Demostrar que H es un subespacio vectorial de F(N, R). b) Comprobar que dim(H) = 2. a) i) Evidentemente la sucesión nula (0) ∈ H, pues la relación xn+2 = xn+1 + xn se traduciría en este caso en que 0 = 0 + 0, lo cual es cierto. xn+2 = xn+1 + xn ii) Si (xn ), (yn ) ∈ H, tendremos que yn+2 = yn+1 + yn con lo que xn+2 + yn+2 = (xn+1 + yn+1 ) + (xn + yn ), es decir, la sucesión (xn ) + (yn ) ∈ H. iii) Finalmente, si (xn ) ∈ H y α ∈ R, vamos a ver que α(xn ) ∈ H : puesto que (xn ) ∈ H, xn+2 = xn+1 + xn y en consecuencia, multiplicando los dos miembros de la igualdad por α, αxn+2 = αxn+1 + αxn , es decir, la sucesión (αxn ) = α(xn ) ∈ H. b) Para resolver este apartado lo que hay que tener en cuenta es : si la sucesión (xn ) ∈ H, ¾cuántos parámetros me determinan la sucesión?. Es obvio que si ∀n ∈ N xn+2 = xn+1 + xn , conocidos x1 y x2 , la sucesión queda completamente determinada, pues x3 = x1 + x2 , ....

Álgebra

319

Luego si consideramos las sucesiones de (xn ), (yn ) ∈ H que satisfacen las x1 = 1 y1 = 0 ,y , dada cualquier sucesión (zn ) ∈ H , si condiciones x2 = 0 y2 = 1 z1 = α z1 = αx1 + βy1 , resulta que , y, teniendo en cuenta que esos z2 = β z2 = αx2 + βy2 dos valores determinan la sucesión (zn ) ∈ H, resulta que (zn ) = α(xn ) + β(yn ). Por tanto {(xn ), (yn )} es un sistema generador de H. Por otra parte, es inmediato que es libre, pues si α(xn ) + β(yn ) = (0) (sucesión nula), en αx1 + βy1 = 0 α·1+β·0=0 particular , de donde , es decir, α = αx2 + βy2 = 0 α·0+β·1=0 β = 0. Por tanto, dim(H) = 2. 28. Hallar el rango de las siguientes matrices:   1 3 0 2      −1 1 2 1  1 3 2 1 0 1 7 1 1   A =  2 1 1 , B =  2 2 3 0 , C =  2 1 2 1 3 4 .    1 6 2 2  0 2 0 1 2 1 1 3 1 5 1 1 0

   1 3 2 1 0 0 c2 = c2 − 3c1  2 −5 −3  El rango de A es A= 2 1 1  c3 = c3 − 2c1 0 2 0 0 2 0 3.     1 3 0 2 1 4 2 3  −1 1 2 1  c2 = c2 + c1  −1 0 0 0      c = c3 − 1 c2 2 B =  2 2 3 0  c3 = c3 + 2c1  2 4 7 2  3     c4 = c4 − 3 c2 4  1 6 2 2  c4 = c4 + c1  1 7 4 3  5 1 1 0 5 6 11 5     1 4 0 0 1 4 0 0  −1 0 0 0   −1 0 0 0      1  2 4 5 −1  c4 = c4 + c3  2 4 5 0  El rango de B 5      1 7 1 −43   1 7 1 −9  2 4 2 20 5 6 8 1 5 6 8 21 2 10 es 4.     1 0 1 7 1 1 1 0 1 7 1 1 F = F2 − 2F1  0 1 0 −13 1 2  C= 2 1 2 1 3 4  2 F3 = F3 − F1 1 2 1 1 3 1 0 2 0 −6 2 0

320

Álgebra

F3 = F3 − 2F1

 1 0 1 7 1 1  0 1 0 −13 1 2  El rango de C es 3. 0 0 0 20 0 −4 

29. Encontrar una base y hallar la dimensión del espacio de matrices triangulares superiormente T n (K). T n (K) = { A= (aij )∈ Mn (K) | aij = 0 si j < i }. Para todos s =1,...,n y t =i,...,n, sea Est ∈ Mn (K) la matriz denida por 0 si (i, j) = (s, t) Est = . 1 si (i, j) = (s, t) Sea B = {Est : s = 1, ..., n, t = s, ..., n} . Queremos vericar que B es una base de T n (K). B es libre ya que si s=1,...,n t=s,...,n ast Est = (0) ∈ Mn (K), entonces, para todo i=1,...,n y j=i,...,n, se verica que s=1,...,n t=s,...,n ast Est (i, j) = aij Eij (i, j) = aij = 0. B es generador ya que si A= (ast )∈ Mn (K), A= s=1,...,n t=s,...,n ast Est . Para todo s=1,...,n, el número de matrices Est con t=s,...,n es (n-s+1), se sigue que el número de elementos de B es n+(n-1)+(n-2)+...+2+1=n(n+1)/2. 30. En el espacio vectorial Z5 , hallar una base del subespacio vectorial 2

H = L({ 0 1 0 1 1 0 0 0 1 0          c2 = c2 + c1   c4 = c4 + c1        ,

,

0 1 0 0 1

,

0 1 1 1 1 }).           c3 = c3 + c2  

0 1 0 1 1

0 1 0 0 1

0 0 0 1 0

0 1 1 1 1

0 1 0 1 1 0 0 1 0 0

0 0 0 1 0      

0 0 0 1 0

0 0 1 0 0

0 1 0 1 1

0 0 0 1 0

0 0 0 0 0

Álgebra La dimensión de H es 3 y una base es

321

B={ 0 1 0 1 1

,

0 1 0 0 1

,

0 1 1 1 1 }

31. En el espacio vectorial R3 , hallar una base del subespacio vectorial

H = L({(3, 2, −1), (1, 1, 1), (4, 3, 0)}).       3 1 0 3 1 1 3 1 4  2 1 3  c3 = c3 − c1  2 1 1  c3 = c3 − c2  2 1 0  −1 1 1 −1 1 0 −1 1 0   3 4 0 c2 = c2 + c1  2 3 0  . −1 0 0 Entonces la dimensión de H es 2 y una base es B={(3, 2, −1), (1, 1, 1)}.

7.3

Soluciones de los ejercicios del capítulo 3

1. Razonar si las siguientes funciones son o no lineales (en cada uno de los conjuntos considerados se considera su estructura habitual de espacio vectorial):

a) f :

R3 → R b) f : R3 → R (x, y, z) x + 2y − 3z (x, y, z) xyz c) f : R2 → R 2 (x, y) x +y

Unicamente es lineal la del apartado a). La del apartado b) no puesto que, por ejemplo, f ((1, 1, 1) + (1, 1, 1)) = f (2, 2, 2) = 2 · 2 · 2 = 8, mientras que f (1, 1, 1) + f (1, 1, 1) = 1 · 1 · 1 + 1 · 1 · 1 = 2. La del apartado c) no es lineal pues por ejemplo, f (2·(1, 1, 1)) = f (2, 2, 2) = 6, mientras que 2 · f (1, 1, 1) = 2(12 + 1) = 4.

322

Álgebra 2. Dada la función lineal f : R2 → R3 determinada por las condiciones

f (1, 0) = (3, 4, 1), f (0, 1) = (−1, 0, 1),
determinar f (3, 1) y f (2, −1). (3, 1) = 3(1, 0) + 1(0, 1), luego, puesto que f es lineal,

f (3, 1) = f (3(1, 0) + 1(0, 1)) = = 3f (1, 0) + f (0, 1) = 3(3, 4, 1) + (−1, 0, 1) = = (9, 12, 3) + (−1, 0, 1) = (8, 12, 4).
Análogamente, puesto que (2, −1) = 2(1, 0) + (−1)(0, 1),

f (2, −1) = f (2(1, 0) + (−1)(0, 1)) = = 2f (1, 0) + (−1)f (0, 1) = 2(3, 4, 1) + (1, 0, −1) = = (6, 8, 2) + (1, 0, −1) = (7, 8, 1).
3. Determinar si la función T : M2 (R) → R, donde a b = 3a − 4b + c − d a) T c d a b = a 2 + b2 b) T c d es una transformación lineal. a1 b1 a 2 b2 a) Sean k, l ∈ R y A = ,B = ∈ M2 (R). c1 d1 c2 d2 a1 b1 a2 b2 ka1 + la2 kb1 + lb2 T k +l =T = c1 d1 c2 d2 kc1 + lc2 kd1 + ld2 = 3(ka1 +la2 )−4(kb1 +lb2 )+(kc1 +lc2 )−(kd1 +ld2 ) = k(3a1 −4b1 +c1 −d1 )+ a 2 b2 a1 b1 . Entonces T + lT +l(3a2 − 4b2 + c2 − d2 ) = kT c2 d2 c1 d1 es lineal. 1 1 1 0 b) Sean k, l ∈ R y A = ,B = ∈ M2 (R). Entonces, 0 0 0 0 1 1 1 0 2 1 T + =T =5 y 0 0 0 0 0 0

Álgebra

323

1 1 1 0 = 2, T = 1. T no es lineal ya que T (A) + T (B) = 0 0 0 0 T (A + B). 4. Sea T : R2 → R2 el operador lineal denido por la expresión T (x, y) = (2x − y, −8x + 4y). ¾Cuáles de los siguientes vectores están en R(T )? a) (1,-4) b) (5,0) c) (-3,12) T T (x, y) = (2x − y, −4(2x − 4)). a) T (0, 1) = (1, −4) ∈ R(T ). b) (5, 0) no puede estar en R(T ) ya que −4(5) = 0. c) T (0, 3) = (−3, 12) ∈ R(T ).
5. Sea T : P2 → P3 la transformación lineal denida por T (p(x)) = xp(x). ¾Cuáles de los siguientes vectores están en Ker(T )? a) x3 b) 0 c)1 + x a) T (x3 ) = x4 = 0 → x3 ∈ Ker(T ) / b) 0 ∈ Ker(T ) ya que T es lineal. c) T (1 + x) = x + x2 = 0 → x3 ∈ Ker(T ). / 6. En cada inciso, usando la información proporcionada obtener la nulidad de T. a) T : R5 → R7 tiene rango 3, entonces la nulidad de T es 5-3=2. b) T : P4 → P3 tiene rango 1, entonces la nulidad de T es 5-1=4. c) T (R6 ) = R3 ,entonces la nulidad de T es 6-3=3. d) T : M2 (R) → M2 (R) tiene rango 3, entonces la nulidad de T es 4-3=1. 7. Sea T : R2 → R2 la proyección ortogonal sobre la recta y=x. a) Encontrar el núcleo de T. Ker(T) es el subespacio vectorial de R2 que tiene proyección ortogonal (0,0) sobre la recta y=x. Entonces es la recta y=-x. b) ¾Es T uno a uno? Justicar la conclusión. T es lineal y su núcleo es distinto de {0}, entonces T no es inyectiva. 8. En cada inciso, usando la información dada determinar si (la función lineal) T es uno a uno. a) T : Rn → Rm ; nulidad(T) =0. dim(Ker(T))=0, entonces Ker(T)={0} y T es inyectiva.

324

Álgebra

b) T : Rn → Rn ; rango(T) = n-1. dim(Ker(T)) = n-(n-1) =1, entonces Ker(T)={0} y T no es inyectiva. c) T : Rm → Rn ; n<m. Ya que rango(T) ≤ n, dim(ker( T)) = m-rango(T) m-n > 0, entonces T no es inyectiva. d) T : Rn → Rn ; R(T) = Rn . dim(ker( T)) = n-rango(T) = n-n = 0, entonces Ker(T)={0} y T es inyectiva. 9. Sea T : P2 → P1 la transformación lineal denida por T (a0 + a1 x + a2 x2 ) = (a0 + a1 ) − (2a1 + 3a2 )x. a) Encontrar la matriz para T con respecto a las bases B2 = {1,x,x2 } y B1 = {1,x} para P2 y P1 . T(1) = 1, T(x) = 1-2x, T(x2 ) = -3x. La matriz asociada a T es 1 1 0 . A= 0 −2 −3 B1 b) Comprobar que la matriz (T)B2 ,B1 = MB2 (T ) obtenida en el inciso a) satisface la fórmula : A(p(x))B2 (T(p(x)))B2 . =  a0 a0 + a1 1 1 0  a1  = = (T(p(x)))B2 . A(p(x))B2 = −(2a1 + 3a2 ) 0 −2 −3 a2 10. Sea T1 : P1 → P2 la transformación lineal denida por

T1 (c0 + c1 x) = 2c0 − 3c1 x
y sea T2 : P2 → P3 la transformación lineal denida por T2 (c0 + c1 x + c2 x2 ) = 3x(c0 + c1 x + c2 x2 ). Sean B1 = {1,x}, B2 = {1,x,x2 } y B3 = {1,x,x2 ,x3 }. B1 B2 B1 a) Encontrar MB3 (T2 ◦ T1 ), MB3 (T2 ), MB2 (T1 ).

0  6 B1 T2 ◦T1 (1) = 6x, T2 ◦T1 (x) = −9x2 . Entonces MB3 (T2 ◦T1 ) =   0 0  0  3 B2 T2 (1) = 3x, T2 (x) = 3x2 , T2 (x2 ) = 3x3 . Entonces MB3 (T2 ) =   0 0

0 0 −9 0 0 0 3 0

  .   0 0  . 0  3

Álgebra

325

 2 0 B1 T1 (1) = 2, T1 (x) = −3x. Entonces MB2 (T1 ) =  0 −3  . 0 0 b) Escribir una fórmula que relacione las matrices del inciso a). B1 B2 B1 MB3 (T2 ◦ T1 ) = MB3 (T2 )MB2 (T1 ). 
c) Comprobar que las matrices del inciso a) satisfacen la fórmula planteada en el inciso b).      0 0 0 0 0     3 0 0  2 0 B2 B1  = 6 0 = MB3 (T2 )MB2 (T1 ) =   0 3 0  0 −3  0 −9  0 0 0 0 0 0 3
B1 = MB3 (T2 ◦ T1 ).

11. Sean A y B matrices semejantes. Demostrar lo siguiente: a) At y Bt son semejantes. b) Si A y B son invertibles, entonces A−1 y B−1 son semejantes. Por denición de relación de semejanza, existe una matriz invertible P tal que B = P−1 A P. a) Bt = (P−1 A P)t = (A P)t (P−1 )t = Pt At (P−1 )t = Pt At (Pt )−1 (utilizando la propiedades de la tranposición vistas anteriormente ). Ya que Pt es invertible, At y Bt son semejantes. b) B−1 = (P−1 A P)−1 = (A P)−1 (P−1 )−1 = P−1 A−1 P . Entonces A−1 y B−1 son semejantes. 12.(Teorema alternativo de Fredholm) Sea T : V → V un operador lineal sobre un espacio vectorial n dimensional. Demostrar que se cumple exactamente una de las siguientes proposiciones: i) La ecuación T(x) =b tiene una solución para todo los vectores b en V. ii) Nulidad de T > 0. Si no se verica i), entonces existe un vector b en V tal que b no apartenece al imagen de la función lineal T. Entonces el rango de T es estrictamente menor que n, Rango(T) < n, y Nulidad(T) = n - Rango (T) > n -n =0. 13. Sea la función lineal f : R4 → R3 determinada por las condiciones

f (1, 1, 1, 1) = (0, 0, 1), f (1, 0, 1, 0) = (1, 1, −1), f (1, 1, 1, 0) = (0, 0, −1), f (−1, −2, 0, 0) = (1, 1, 1).

326

Álgebra a) Hallar la matriz asociada a f respecto de las bases canónicas de R4 y

R3 .

b) La dimensión y las ecuaciones de Ker(f ) e Im(f ) respecto de las bases canónicas de R4 y R3 . a) El primer apartado se puede hacer de varias maneras. La matriz pediB4 da, MB3 (f ) es la que tiene por columnas las (f (1, 0, 0, 0))B3 , ..., (f (0, 0, 0, 1))B3 . Por tanto necesitamos hallar f (1, 0, 0, 0), ..., f (0, 0, 0, 1). Para calcular esas imágenes, podemos escribir los vectores de B4 como combinación lineal de los vectores que denen f y después hallar f (B4 ), o bien utilizar las matrices de cambio de base según vimos en la pizarra. Lo hacemos por este segundo procedimiento. Siendo B = {(1, 1, 1, 1), (1, 1, 1, 0), (1, 0, 1, 0), (−1. − 2, 0, 0)} una base de 4 R,   0 0 1 1 B 1 1  MB3 (f ) =  0 0 1 −1 −1 1
B4 Como la matriz que buscamos es MB3 (f ), dicha matriz se obtiene considerando el esquema:

B4 IdR4 B f B3 R4 −→ R4 −→ R3 ,

B4 B4 B B con lo que MB3 (f ) = MB3 (f ◦ IdR4 ) = MB3 (f ) · MB 4 (IdR4 ). Necesitamos, B pues, hallar MB 4 (IdR4 ). Para ello, hay que obtener las coordenadas de los vectores de la base canónica B4 respecto de B.   1 1 1 −1  1 1 0 −2  B  De manera directa, MB4 (IdR4 ) =   1 1 1 0  . Según sabemos, 1 0 0 0 −1 B4 B MB (IdR4 ) = MB4 (IdR4 ) . Por lo tanto hay que calcular la inversa de la matriz anterior.    1 1 1 −1 1 0 0 0 1 0 0 0 0 0 0  1 1 0 −2 0 1 0 0   1 1 0 −2 0 1 0   F1 ←→ F4   1 1 1 0  1 1 1 0 0 0 1 0  0 0 1 1 0 0 0 1 1 1 −1 1 0 0 0 0 0 1

 1 0   0  0

Álgebra

327

 0 0 0 0 1 −2 0 1 0 -1   F = F3 − F2 0 0 0 1 -1  3 F4 = F4 − F2 −1 1 0 0 −1  1 -1   F = F4 − F3 0  4 0  1 F = F2 − 2F4 -1  2  F3 = F3 + 2F4 0  F4 = −F4 0  1 -1   0  0   0 0 0 1  −2 1 2 −1  −1 B B  Es decir, MB 4 (IdR4 ) = MB4 (IdR4 ) =  2 −1 −1 0  , con lo −1 0 1 0 B4 B4 B que la matriz buscada es MB3 (f ) = MB3 (f ) · MB (IdR4 ) =       0 0 0 1 0 0 1 1  1 −1 0 0  −2 1 2 −1   1 1  1 −1 0 0  . = 0 0  2 −1 −1 0  = 1 −1 −1 1 −1 0 0 2 −1 0 1 0 1 0 0 F2 = F2 − F1  0 1 0 F3 = F3 − F1   0 1 1 F4 = F4 − F1 0 1 1  1 0 0 0 0 0 0  0 1 0 −2 0 1 0   0 0 1 2 0 -1 1 0 0 1 1 1 -1 0  0 0 0 1 0 0 0  0 1 0 −2 0 1 0   0 0 1 2 0 -1 1 0 0 0 −1 1 0 -1  1 0 0 0 0 0 0  0 1 0 0 -2 1 2   0 0 1 0 2 -1 -1 0 0 0 1 -1 0 1
b) Utilizando el algoritmo que vimos en clase:

         

 1 -1 0 0 1 -1 0 0   −1 0 0 2  c4 =  1 0 0 0  c4 + 2c1  0 1 0 0   0 0 1 0  0 0 0 1

         

 1 -1 0 2 1 -1 0 2   −1 0 0 0  c4 =  1 0 0 2  c4 − 2c2  0 1 0 0   0 0 1 0  0 0 0 1

328

Álgebra

         

 1 -1 0 0 1 -1 0 0   −1 0 0 0   1 0 0 2   0 1 0 -2   0 0 1 0  0 0 0 1

obtenemos que, respecto de las bases canónicas de R4 y R3 , Ker(f ) = L({(0, 0, 1, 0), (2, −2, 0, 1)}) e Im(f ) = L({(1, 1, −1), (−1, −1, 0)}), por tanto la dimensión de Ker(f ) = 2 y la dimensión de Im(f ) = 2. Entonces, respecto de las bases canónicas de R4 y R3 , las ecuaciones paramétricas de Ker(f ) son: u = (u1, u2, u3, u4 ) ∈ Ker(f ) ⇔ ∃ (a, b) ∈ R2 tal que

 0 2  0 −2     1 0  0 1

a b

 u1  u  = 2   u3  u3

y las ecuaciones paramétricas de Im(f ) son: v = (v1, v2, v3 ) ∈ Im(f ) ⇔ ∃ (a, b) ∈ R2 tal que

 1 −1  1 −1  −1 0

a b

 v1 =  v2  . v3

14. Sea E un espacio vectorial de dimensión 3 y B = {e1 , e2 , e3 } una base de E. Consideramos la función lineal f : E → E tal que su matriz asociada sea   15 −11 5 B MB (f ) =  20 −15 8  . 8 −7 6 Hallar la matriz asociada a f respecto de la base B = {u1 , u2 , u3 }, donde

u1 = 2e1 + 3e2 + e3 , u2 = 3e1 + 4e2 + e3 , u3 = e1 + 2e2 + 2e3 .

Álgebra

329

La matriz de f respecto de la base B es la matriz asociada a la siguiente composición de funciones:

B E

IdE B f B IdE B −→ E −→ E −→ E

B B B B MB (f ) = MB (IdE ) · MB (f ) · MB (IdE ),

 2 3 1 B MB (IdE ) =  3 4 2  es la matriz de 1 1 2 de B y  −6 5 B B −1  4 −3 MB (IdE ) = (MB (IdE )) = 1 −1   −6 5 −2 15 −11 B MB (f ) =  4 −3 1   20 −15 1 −1 1 8 −7  

donde

las coordenadas de B respecto

 −2 1  . Entonces, 1   5 2 3 1 8  3 4 2  = 6 1 1 2

 1 0 0 =  0 2 0 . 0 0 3
15. Hallar una base del núcleo y una base de la imagen de la siguiente función lineal: f : R4 → R3 determinada por las condiciones:

f (1, 0, 0, 0) = (1, 0, 1), f (0, 1, 0, 0) = (2, 1, −1), f (0, 0, 1, 0) = (3, 0, −1), f (0, 0, 0, 1) = (1, 1, 1).
De las condiciones enunciadas se sigue  1 B4 MB3 (f ) =  0 1 que

 2 3 1 1 0 1  −1 −1 1

Utilizando el método desarrollado en el aula (he incluido todas las transformaciones por columnas en un solo paso) , tendremos que:

330

Álgebra

          

  1 2 3 1   0 1 0 1  c2 = c2 − 2c1   c = c − 3c  1 −1 −1 1  3  3 1   c4 = c4 − c1 →  1    1  c4 = c4 − c2    3 1  c4 = c4 + 4 c3  1

 1 0 0 0 0 1 0 0 1 −3 −4 0 5 1 −2 −3 − 4 1 −1 3 1 4 1          

de donde

{(1, 0, 1), (0, 1, −3), (0, 0, −4)}
es una base de Im(f ) y

(

−5 3 , −1, , 1) 4 4

es una base de Ker(f ). 16. En R2 se considera la base B = {u1 , u2 }, donde

u1 = 2e1 + 3e2 , u2 = 3e1 + 4e2 ,
y B2 = {e1 , e2 } = {(1, 0), (0, 1)}. Siendo la función lineal f : R2 → R2 tal que su matriz asociada respecto de B es
B MB (f ) =

3 15 2 10

,

hallar una base de Ker(f ) y una base de Im(f ). El algoritmo es el mismo que el empleado en el ejercicio 5, pero en este caso trabajamos con las coordenadas respecto de B :     3 0 3 15      2 10   2 0    c2 = c2 − 5c1 →  .   1 −5   1 1 1

−5 3 y están ex1 2 presadas respecto de la base B = {u1 , u2 }, tendremos que el vector
Luego, teniendo en cuenta que las coordenadas

w = −5u1 + u2 = −5(2e1 + 3e2 ) + 3e1 + 4e2 = = −7e1 − 11e2

Álgebra constituye una base de Ker(f ), y

331

w

= 3u1 + 2u2 = 3(2e1 + 3e2 ) + 2(3e1 + 4e2 ) = = 12e1 + 17e2

constituye una base de Im(f ). En otras palabras, respecto de las coordenadas canónicas de R2 , {(−7, −11)} es una base de Ker(f ) y {(12, 17)} es una base de Im(f ).

7.4

Soluciones de los ejercicios del capítulo 4
{(1, 2, −1), (0, 1, 1)}.

1. En el espacio vectorial euclídeo R3 con el producto escalar usual se considera el sistema de vectores Se pide obtener, mediante el método de Gram-Schmidt, una base ortonormal del subespacio L({(1, 2, −1), (0, 1, 1)}) y la proyección ortogonal del vector (1, 1, 1) sobre dicho subespacio. √ √ Sea v1 = (1, 2, −1), v1 = 1 + 4 + 1 = 6 y sea

v2 = (0, 1, 1) −

(0, 1, 1), (1, 2, −1) (1, 2, −1) = 6 1 2 7 1 = (0, 1, 1) − (1, 2, −1) = (− , , ), 6 6 3 6 v2 = 1 16 49 + + = 36 36 36 11 . 6

B = {w1 =

v1 v2 1 2 −1 −1 4 7 , w2 = } = {( √ , √ , √ ), ( √ , √ , √ )} v1 v2 6 6 6 66 66 66

es una base ortonormal de H =L({(1, 2, −1), (0, 1, 1)}). Sea u = (1,1,1). La proyección ortogonal de u sobre H es:

2 10 2 14 59 p⊥ (u) = u, w1 w1+ u, w2 w2 = √ w1 + √ w2 = ( , , ). 11 11 11 6 66

332

Álgebra

7.5 Soluciones de los ejercicios del capítulo 5
1. Obtener una matriz generadora y una matriz de control del código de paridad expuesto en los apuntes de clase. El código de paridad es lineal ya que pueden ser descrito como el conjunto de soluciones de la ecuación lineal homogénea

x1 + x2 + x3 + x4 + x5 + x6 + x7 + x8 = 0 con xi ∈ Z2
y en consecuencia dicho conjunto es un subespacio vectorial de Z8 . 2 Una matriz generadora del código de paridad es la matriz   1 0 0 0 0 0 0  0 1 0 0 0 0 0     0 0 1 0 0 0 0     0 0 0 1 0 0 0     0 0 0 0 1 0 0     0 0 0 0 0 1 0     0 0 0 0 0 0 1  1 1 1 1 1 1 1 Una matriz de control del código de paridad es

1 1 1 1 1 1 1 1
ya que su dimensión es 1 × 8 y C es el núcleo de la función lineal f (x1 , x2 , x3 , x4 , x5 , x6, x7 , x8 ) = x1 + x2 + x3 + x4 + x5 + x6 + x7 + x8 . 2. Obtener una matriz generadora y una matriz de control del código de repetición expuesto en los apuntes de clase. El código de repetición es lineal ya que pueden ser descrito como el como el conjunto de soluciones del siguiente sistema de ecuaciones lineales:

x1 = x2 con xi ∈ Z2 x2 = x3
que equivale al siguiente sistema de ecuaciones lineales homogéneas:

x1 + x2 = 0 con xi ∈ Z2 . x2 + x3 = 0

Álgebra

333

Una matriz generadora del código de repetición C = {(0,0,0),(1,1,1)} es:   1  1  1 Una matriz de control del código de repetición es la matriz asociada al sistema de ecuaciones lineales homogéneas anterior:

1 1 0 0 1 1
es:

.

3. Determinar una matriz de control del código cuya matriz generadora

1  1 G =  1 1  F2 F3  F4   F1 F2 F2

1 0 0 1

 1 0  . 1  1

1  1   1 1

1 0 0 1

1 0 1 1

1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1

= F2 + F1  = F3 + F1 1  0 = F4 + F1 →  0 = F1 + F2 0 = F2 + F3 ↔ F3

0 0 1 0 0 1 0 0

0 1 0 1

1 0 1 0

0 1 1 0

 0 0   0  1

Luego la matriz de control es la matriz

H=

1 0 0

1

.

es:

4. Determinar una matriz generadora del código cuya matriz de control

H=
Una posible solución es:

1 0 1 0 1 1 1 1

334

Álgebra

       

1 1 1 0 0 0

0 1 0 1 0 0

1 1 0 0 1 0

0 1 0 0 0 1

     c3 = c3 + c1   

       

1 1 1 0 0 0

0 1 0 1 0 0

0 0 1 0 1 0

0 1 0 0 0 1

     c4 = c4 + c2   

       

1 1 1 0 0 0

0 1 0 1 0 0

0 0 1 0 1 0

0 0 0 1 0 1

       

luego la siguiente matriz es generadora  1 0  0 1 G =  1 0 0 1

del código 

 , 

ya que sus columnas forman una base del núcleo de la función lineal cuya matriz asociada es H. 5. Determinar una matriz de control y una matriz que permita realizar la decodicación del código generado por los vectores cuyas coordenadas respecto de la base canónica de Z4 son las columnas de la matriz: 2   0 1 1  1 1 0     1 0 1  0 1 1 Obsérvese que, puesto que las columnas de la matriz forman un sistema ligado, pues c3 = c1 + c2 , y dado que la matriz formada por las dos primeras columnas de la matriz dada es una matriz gaussiana sin ninguna columna nula, resulta que una matriz generadora del código es la matriz formada por las dos primeras columnas, esto es:   0 1  1 1   G=  1 0 . 0 1 Operando ahora con el  0 1 1 0 0  1 1 0 1 0   1 0 0 0 1 0 1 0 0 0 algoritmo estudiado:   F2 = F2 + F1 1 0  F3 = F3 + F2  0 0  →  0 0  F4 = F4 + F1 1 0 F2 ↔ F1

0 1 0 0

1 1 1 1

1 0 1 0

0 0 1 0

 0 0   0  1

Álgebra Luego la matriz de control es la matriz

335

H=

1 1 1 0

1 0 0 1

y la matriz que permite realizar la decodicación es la matriz

T =

1 1 0 1 0 0

0 0

.
realizar

6. Determinar una matriz de control y una matriz que permita la decodicación del código cuya matriz generadora es   1 1  1 0   G =  1 1  0 1    F2 = F2 + F1 1 1 1 0 0 0 1 0 0 1 0  1 0 0 1 0 0  F3 = F3 + F1  0 1 1 1 0     1 1 0 0 1 0  F4 = F4 + F2 →  0 0 1 0 1 0 1 0 0 0 1 0 0 1 1 0 F1 = F1 + F2 Luego la matriz de control es la matriz

 0 0   0  1

H=

1 0 1 1

1 0 0 1

y la matriz que permite realizar la decodicación es la matriz

T =

0 1 0 1 1 0

0 0

.

7.6

Soluciones de los ejercicios del capítulo 6

1. Determinar la sucesión denida recursivamente por las condiciones   an+2 = 7an+1 − 12an a1 = 1  a2 = 3.

336

Álgebra La ecuación característica de la relación de recurrencia homogénea dada

es

x2 − 7x + 12 = 0
cuyas raíces son x = 3 y x = 4. Por consiguiente, las sucesiones que satisfacen esa relación de recurrencia son de la forma:

α{3n } + β{4n }.
Imponiendo que se satisfagan las condiciones iniciales: α3 + β4 = 1 3α + 4β = 1 de donde , de donde β = 0 y α = 1 , 3 α32 + β42 = 3 9α + 16β = 3 con lo que la sucesión buscada es

1 n {3 } = {3n−1 }. 3

2. Encontrar las sucesiones que satisfacen la relación de recurrencia

an+3 = 4an+2 − 5an+1 + 2an .
es La ecuación característica de la relación de recurrencia homogénea dada

x3 − 4x2 + 5x − 2 = 0
ecuación que se puede expresar de la forma (x − 2) (x − 1)2 = 0 y que por tanto tiene una raiz x = 1 de multiplicidad 2 y otra raiz x = 2 de multiplicidad 1. Por consiguiente, las sucesiones que satisfacen esa relación de recurrencia son de la forma:

α{1n } + β{n1n } + γ{2n }.

3. Encontrar las soluciones de la ecuación diferencial

D2 (f ) − 7D(f ) + 12f = e−t .

Álgebra

337

La ecuación característica de la ecuación diferencial homogénea asociada a la ecuación dada es:

x2 − 7x + 12 = 0
ecuación que se puede expresar de la forma (x − 3) (x − 4) = 0. Por consiguiente, una base del espacio de soluciones

Ker(D2 − 7D + 12Id) = Ker((D − 3Id) ◦ (D − 4Id))
de dicha ecuación homogénea será

{e3t , e4t }.
Como por otra parte el término independiente es solución de la ecuación

(D + Id)(f ) = 0 ⇔ D(f ) + f = 0
podemos obtener una solución particular por el método de los coecientes indeterminados: Las soluciones de la ecuación dada lo serán también de la ecuación ((D + Id) ◦ (D − 3Id) ◦ (D − 4Id))(f ) = 0 Como las soluciones de esta última ecuación son de la forma

αe3t + βe4t + γe−t ,
imponiendo que satisfagan la ecuación original dada tendremos que

((D − 3Id) ◦ (D − 4Id))(αe3t + βe4t + γe−t ) = e−t
de donde es decir, de donde 20γ = 1, es decir,

(γe−t + 4γe−t + 3γe−t + 12γe−t ) = e−t (20γ e−t ) = e−t γ=

1 . 20 En denitiva, la solución general de la ecuación dada, con α y β constantes arbitrarias es 1 f (t) = e−t + αe3t + βe4t 20

338

Álgebra

4. Resolver el problema de valor inicial

D(f ) − 2f = e2t f (0) = 1.
Buscamos las soluciones de la ecuación no homogénea dada empleando el método de los coecientes indeterminados: Puesto que e2t es solución de la ecuación diferencial

(D − 2Id) (f ) = 0,
buscamos nuestras soluciones entre las soluciones de la ecuación

((D − 2Id) ◦ (D − 2Id))(f ) = 0.
Las soluciones de esta última ecuación son de la forma

f (t) = αe2t + βte2t ,
por lo que, imponiendo que

D(f ) − 2f = e2t
obtenemos es decir, de donde

2αe2t + 2βte2t + βe2t − 2αe2t − 2βte2t = e2t , βe2t = e2t ⇒ β = 1

f (t) = αe2t + te2t . f (0) = α = 1 Por consiguiente la solución es f (t) = e2t + te2t = (t + 1)e2t .

5. Resolver el sistema de ecuaciones diferenciales

x1 = 5x1 + 4x2 x2 = x1 + 2x2

Álgebra sujeto a las condiciones iniciales x1 (0) = 2,

339

x2 (0) = 3. Obtenemos las raíces del polinomio característico, los autovectores correspondientes y la inversa de la matriz P de paso, resultando
1 5 1 5 −4 5 1 5

5 4 1 2

1 4 −1 1

=

1 0 0 6

.

Ahora resolvemos el sistema,

z1 (t) = z1 (t) z2 (t) = 6z2 (t)
es decir,

z1 (t) = αet z2 (t) = βe6t x1 (t) x2 (t) = 1 4 −1 1 z1 (t) z2 (t) ,

siendo

es decir,

x1 (t) x2 (t)

=

1 4 −1 1

αet βe6t

=

αet + 4βe6t −αet + βe6t

.

Imponiendo nalmente las condiciones iniciales, tendremos que

2 3

=

α + 4β −α + β

,

es decir: β = 1, α = −2, con lo que la solución será

x1 (t) x2 (t)

=

−2et + 4e6t 2et + e6t

.

6. Resolver el sistema de ecuaciones de recurrencia (ecuaciones en diferencias) an+1 = 5an + 4bn bn+1 = an + 2bn con las condiciones iniciales a1 = 2,

b1 = 3.

340 El sistema planteado en forma matricial es

Álgebra

an+1 bn+1

=

5 4 1 2

an bn

Utilizando los cálculos hechos en el problema anterior, tendremos que
1 5 1 5 −4 5 1 5

5 4 1 2

1 4 −1 1

=

1 0 0 6

con lo que resolver el sistema de relaciones de recurrencia indicado es equivalente a resolver el sistema de relaciones de recurrencia

cn+1 dn+1
con

=

1 0 0 6 1 4 −1 1 =

cn dn cn dn

an bn
Obviamente

= {cn } {dn }

.

α {1n } β {6n }

con lo que

an bn

=

1 4 −1 1

α 6n β

=

α + 4 · 6n β −α + 6n β

.

Imponiendo ahora las condiciones iniciales:

a1 b1
de donde

=

2 3

=

α + 24β −α + 6β
1 6

.

30β = 5 ⇒ β = α = −2

y, en denitiva, la solución es

an bn

=

−2 + 4 · 6n−1 2 + 6n−1

.

Álgebra 7. Calcular la potencia n−ésima de la matriz   2 1 1 A =  2 3 2 . 3 3 4

341

Después de hallar los autovalores, los autovectores y la matriz de paso llegamos a:       5 1 −1 1 0 0 1 −2 1 2 1 1 6 6  −1 1 0   0 7 0   1 1 1  =  2 3 2  3 3 1 −1 2 1 0 0 1 0 −3 1 3 3 4 2 2 con lo que  n  5 2 1 1 6  2 3 2  =  −1 3 −1 3 3 4 2

1 6 1 3 1 2

   −1 1 0 0 1 −2 1 0   0 7n 0   1 1 1  , 1 0 0 1 0 −3 1 2

es decir,     n  5 1 −1 1 0 0 1 −2 1 2 1 1 6 6  2 3 2  =  − 1 1 0   0 7n 0   1 1 1  = 3 3 1 −2 1 1 0 0 1 0 −3 1 3 3 4 2  5 1 n  2 + 67 − 1 + 1 7n − 1 + 1 7n 6 6 6 6 6 1 =  − 3 + 1 7n 2 + 1 7n − 1 + 1 7n  . 3 3 3 3 3 1 − 2 + 1 7n − 1 + 1 7n 1 + 1 7n 2 2 2 2 2

342

Álgebra

Apéndice A Nuevo método de triangulación por semejanza

Motivado por el hecho de que la relación de semejanza constituye el mecanismo básico de transformación de los sistemas de ecuaciones diferenciales, vamos a establecer otro algoritmo que nos permita construir matrices semejantes.

Como es habitual en álgebra lineal, el procedimiento que vamos a discutir está basado en el uso de transformaciones elementales, que ya fueron introducidas en el capítulo 2. Recordemos cuales son:

343

344

Álgebra

Transformación
Sumar a una columna un múltiplo de otra Multiplicar una columna por un número no nulo Intercambiar dos columnas Sumar a una la un múltiplo de otra Multiplicar una la por un número no nulo Intercambiar dos las

Ejemplo
1 0 0 1 1 7 0 1 7 3 0 1 1 0 0 1 1 0 5 1 7 0 3 1 −− − − − − − − −→ c2 = c2 + 7c1 −− − − −→ c1 = 5c1 − ↔→ −− c1 − c2 5 7 0 1 3 7 1 0 1 0 7 1 1 7 0 1

−− − − − − − − −→ f2 = f2 + 7f1 −− − − −→ f1 = 7f1 −− − − −→ f1 ↔ f2 7 0 5 1 3 1 7 0

Según vimos en el capítulo 2 y en la práctica correspondiente, cada trasformación elemental se corresponde con la operación de multiplicar por una cierta matriz invertible, en el sentido de la siguiente proposición.

Proposición A.0.1 Sea A ∈ Mn (K). Si
A − tc → A In −tc → P,
donde tc denota una transformación elemental por columnas, se verica que A = AP y que la matriz P ∈ Mn (K) es invertible. Análogamente, si

A − tf → A In −tf → P,
donde tf denota una transformación elemental por las, se verica que A = PA y que la matriz P ∈ Mn (K) es invertible.

Álgebra

345

Este resultado nos da la clave para establecer un mecanismo para construir matrices semejantes. Observemos el siguiente esquema, donde tc representa una transformación elemental por columnas y tf por las:  A − tc → tf → B  In −tc → P =⇒ B = P AP.  In −tf → P Para conseguir que A y B sean semejantes, basta ajustar las transformaciones tc y tf para que sus correspondiente matrices, P y P , sean la una inversa de la otra. Ahora bien, para que P = P−1 , basta conseguir que

In − t c → t f → In ,

(A.1)

ya que esto querría decir que In = P In P = P P. En la siguiente tabla asociamos a cada transformación por columnas su correspondiente transformación inversa por las: Columnas: tc ci = ci + λcj Filas: tf fj = fj − λfi 1 fi = fi λ fi ↔ fj

ci = λci ci ↔ cj

Para cerciorarse de que esta tabla está bien construida basta comprobar (A.1). A partir de este momento, asumiremos el siguiente convenio de notación: si t denota a una trasformación elemental por columnas o por las, t−1 denotará a la correspondiente transformación inversa respectivamente por las o por columnas. Por ejemplo (ci = ci + λcj )−1 = (fj = fj − λfi ). Finalmente, utilizado esta notación, podemos concluir que en el supuesto de que t1 , . . . tr sean transformaciones por columnas:
r 1 1 r A −→ · · · −→−→ · · · −→ A t1 In −→ P1 . . . r In −→ Pr

t

t

t−1

t−1

          

⇒ A = (P1 · . . . · Pr )−1 A (P1 · . . . · Pr ) .

t

346 Para verlo basta tener en cuenta lo anterior y que

Álgebra

(P1 · . . . · Pr )−1 = P−1 · . . . · P−1 . r 1
Asímismo, si primero realizamos las transformaciónes por la y luego por columnas, también obtenemos:
t−1 t−1 t t

r 1 r 1 A −→ · · · −→−→ · · · −→ A t1 In −→ P1 . . . r In −→ Pr

          

⇒ A = (P1 · . . . · Pr )−1 A (P1 · . . . · Pr ) ,

t

luego, en particular, A = A . Ahora ya tenemos un mecanismo que nos permite construir matrices semejantes, que consiste básicamente en compensar cada transformación elemental por columnas con su correspondiente inversa por las o viceversa. Pero además, a través del siguiente esquema podemos también obtener la matriz de paso:

A In

r 1 −→ · · · −→ A · P t1 tr −→ · · · −→ P

t

t

1 r −→ · · · −→ P−1 ·A · P P.

t−1

t−1

Por ejemplo, como:

1  2  0 1  0 0

3 1 2 0 1 0

 2 1  0  0 0  1

c2 = c2 − 3c1 c3 = c3 − 2c1   →  

 1 0 0  2 −5 −3  0 2 0  →  1 −3 −2  0 1 0  0 0 1  7 −11 −9 2 −5 −3  0 2 0 1 −3 −2 0 1 0 , 0 0 1 

f1 = f1 + 3f2 → f1 = f1 + 2f3

tendremos que :

Álgebra

347

−1       1 −3 −2 1 3 2 1 −3 −2 7 −11 −9  0 1 0  · 2 1 1 · 0 1 0  =  2 −5 −3  . 0 0 1 0 2 0 0 0 1 0 2 0
La demostración del siguiente teorema constituye un algoritmo que permite la obtención de la matriz triangular semejante a una matriz dada A ∈ Mn (C).

Teorema A.0.2 Si A es una matriz cuadrada de orden n con coecientes
complejos, existe una matriz semejante a ella T que es triangular.

Demostración La demostración consiste en probar que se puede construir
una cadena de matrices

A = T0 → T1 → · · · → Tn = T,
cada una semejante a la anterior (y en consecuencia todas ellas son semejantes entre sí) y de tal modo Ti es de la forma


i

  T =  Ri×n−i

An−i

0 λi . . . ·
. ··· ..

 0 λ1   , 

donde An−i es una matriz cuadrada de orden n − i y Ri×n−i es una matriz rectangular de orden i × (n − i) . Para ello basta ver el procedimiento para añadir un nuevo eslabón a la cadena. Así pues supongamos que hemos construido la cadena hasta Ti , veamos cómo añadir el eslabón Ti+1 . Puesto que trabajamos con coecientes complejos el polinomio característico

PAn−i (X) = |An−i − XIn−i |
tiene al menos una raíz, a la que por conveniencia denotaremos con λ. Si ahora restamos λIn a la matriz Ti obtenemos:

348

Álgebra

   Ti − λIn =  

An−i − λIn−i Ri×n−i λi − λ . . . ·

0
. ··· ..

 0 λ1 − λ    

y, puesto que |An−i − λIn−i | = 0, las columnas de la submatriz An−i − λIn−i son linealmente dependientes. Por tanto, según sabemos, es posible aplicar una serie de transformaciones elementales por columnas sobre la matriz An−i − λIn−i de tal modo que en la matriz resultante (una matriz gaussiana) aparecerá alguna columna nula. Además mediante una permutación, podemos colocar dicha columna al nal. Luego sabemos determinar una serie de transformaciones elementales por columnas t1 , t2 , . . . , tk (más adelante veremos un ejemplo) que aplicadas sobre An−i − λIn−i genera una matriz del tipo:

α11 · · ·  .  . . αn−i1 · · ·

 0 . . .  . 0

Por tanto, si aplicamos estas mismas transformaciones sobre la matriz Ti − λn−i In nos queda una matriz cuya forma es:

    αn−i1 · · · 0     Ri×n−i

α11 . . .

···

0 . . . λi − λ . . . ·

 0 0 λ1 − λ     .   

(A.2)

. ···

..

Las transformaciones t1 , t2 , . . . , tk que hemos empleado, únicamente afectan a las primeras n − i columnas, por tanto las correspondientes transformaciones inversas t−1 , t−1 , . . . , t−1 únicamente afectan a las primeras n − i 1 2 k las ya que, para cualquier j ∈ {1, . . . , k} si:   cr = cr + λcs cr = λcr , como 1 ≤ r, s ≤ n − i, ⇒ tj =  cr ↔ cs

Álgebra

349

⇒ t−1 j

  fs = fs − λfr 1 fr = λ fr = con 1 ≤ r, s ≤ n − i.  fr ↔ fs

Esto quiere decir que si aplicamos las transformaciones t−1 , t−1 , . . . , t−1 sobre 1 2 k la matriz (A.2), obtendremos una matriz T cuya forma es:

    αn−i1 · · · 0 T =    Ri×n−i

α11 . . .

···

0 . . . λi − λ . . . ·

 0 0 λ1 − λ     .   

. ···

..

(Obsérvese que las transformaciones t−1 , t−1 , . . . , t−1 no han podido alterar 1 2 k los ceros que aparecían en la columna n − i de la matriz (A.2)) Ahora bien, en este momento tenemos que T es semejante a Ti − λn−i In , es decir existe una matriz invertible P tal que

T = P−1 · (Ti − λn−i In ) · P.
Pero entonces T = (P−1 · Ti · P) − λn−i (P−1 · In · P) = P−1 · Ti · P − λn−i In , y en consecuencia P−1 · Ti · P = T + λn−i In , es decir

α11 + λ .  . .     P−1 · Ti · P =  αn−i1    

···

α1n−i−1 . . . αn−i,n−i−1 λ ri,n−i . . . rn,n−i

 0      0      λ1

··· Ri×n−i−1

λi . . . ·

. ···

..

y esta matriz es precisamente Ti+1 .

Observación 67 El método propuesto en la demostración no modica las
la submatriz triangular obtenida hasta el momento. Esto quiere decir que el

350

Álgebra

autovalor de An−i utilizado para aumentar el tamaño de la submatriz triangular permanece hasta el nal, apareciendo en la diagonal principal de la matriz T. Ahora bien, por ser T y A semejantes sus polinomios característicos coinciden, y por ser T triangular:   λn − X 0 ··· 0  a21  λn−1 − X · · · 0   |T − XIn | =  = . . . .. . . .   . . . . an1 an2 · · · λ1 − X

= (λ1 − X) · · · (λn−1 − X) (λn − X) .
Esto quiere decir que el autovalor de An−i utilizado necesariamente es un autovalor de A que no ha sido utilizado previamente.

Ejemplo A.0.3 Triangular por semejanza y hallar la matriz de paso correspondiente a la matriz

 −2 0 3 A =  3 −2 −9  −1 2 6 
En primer lugar determinamos las raíces del polinomio característico de la matriz:

−2 − X 0 3 3 −2 − X −9 −1 2 6−X

= −X + 2X 2 − X 3 = (1 − X)2 (0 − X).

Luego los autovalores A son [1, 1, 0] . A continuación utilizamos el primero de ellos para construir T1 :

       

  −2 0 3  3 −2 −9    −→ −1 2 6 −−   −I3   1 0 0     0 1 0  0 0 1

 −3 0 3 3 −3 −9   −1 2 5   c =c +c 1 0 0  − 3− − 3− −1  −−−−→ 0 1 0  0 0 1

Álgebra

351

       

  −3 0 0  3 −3 −6      −1 2 4  c3 = c3 − 2c2  1 0 1 −−−−−→  −−−−−   0 1 0  0 0 1  −2 −2 0 1 1 0 −1 2 0 1 0 1 0 1 −2 0 0 1 

−3 0 0 3 −3 0 −1 2 0 1 0 1 0 1 −2 0 0 1  −1 1 −1 1 0 0 −2 2 2 0 1 0

               

 −− − − − −  − − − − −→ f1 = f1 − f3   f2 = f2 + 2f3   

    −→ −−   +I3       

0 0 1 1 −2 1

Ahora para construir T2 nos quedan los autovalores [1, 0] . Utilicemos el primero:     −1 −2 0 −2 −2 0  1  1 2 0  1 0      −→  −1 2  − −  −1 2 1  0    c =c −c −I3   1  1 0 1  0 1  − 2− − 2− −1     −−−−→  0  0 1 −2  1 −2  0 0 1 0 0 1

       

−2 0 0 1 0 0 −1 3 0 1 −1 1 0 1 −2 0 0 1

    −− − − −→ −−−−−   f1 = f1 + f2         0 0 0 1 1 0 −1 3 1 1 −1 1 0 1 −2 0 0 1

−1 1 −1 1 0 0     .   

0 0 3 −1 1 0

0 0 0 1 −2 1

       

  −−  −→ +I3    

352

Álgebra Como T2 ya es triangular, hemos acabado y hemos obtenido que:

−1     1 −1 1 1 −1 1 0 0 0  0 1 −2  · A ·  0 1 −2  =  1 1 0  . 0 0 1 0 0 1 −1 3 1

Bibliografía
[A] [Ap] [B] [C] Anton, H., Introducción al Álgebra lineal, Ed. Limusa (Noriega Editores), 1997, Segunda edición. Apostol, T.M., Linear Algebra, A First course with Applications to Dierential Equations, John Wiley& Sons, 1997. Bauldry, W.C. et al., Linear Algebra with Maple, John Wiley& Sons, 1995. Criado, R. et al, Fundamentos Matemáticos I: Álgebra y ecuaciones diferenciales con coecientes constantes, Ed. Centro de Estudios Ramón Areces S. A., 1998. Cullen, C. G., Linear Algebra with Applications, AddisonWesley, 1997. De la Villa, A., Problemas de Álgebra, Ed. CLAGSA, 1994. Demmel, J. W., Applied Numerical Linear Algebra, Siam, 1997. Grossman, S.I., Álgebra lineal, McGraw-Hill, 1996. Hernandez, E., Álgebra y Geometría, Addison Wesley, 1994. Jacob, B., Linear Algebra, W. H. Freeman and Company, 1990. Nobel, B., Daniel, J. W., Algebra lineal aplicada, Prentice-Hall Hispanoamericana, 1989.

[Cu] [D] [De] [G] [H] [J] [N]

353

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->