Está en la página 1de 109

UNIVERSIDAD DE CHILE

FACULTAD DE ECONOMÍA Y NEGOCIOS


DEPARTAMENTO DE ECONOMÍA

ÁLGEBRA LINEAL
Apunte del Curso

Mauricio Vargas S.
mauvarga@fen.uchile.cl
Apunte del Curso Álgebra Lineal 1

Mauricio Vargas S.

Universidad de Chile

9 de agosto de 2009

1
Este apunte se encuentra en estado de corrección y evolución. Los contenidos se basan en
las clases del profesor Máximo Lira y de ninguna forma este apunte reemplaza las clases. La
finalidad es reforzar las ideas principales y entregar demostraciones que no se tratan en clase.
Puede contener y seguramente contiene errores, favor de comunicarlos a mauvarga@fen.uchile.cl.
Derechos reservados bajo licencia CreativeCommons (CC-BY-NC-ND)
Índice general

Contenidos I

1. Definiciones Previas 1
1.1. Ley de Composición Interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Ley de Composición Externa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3. Estructuras Algebraicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.1. Grupo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.2. Grupo Abeliano o Conmutativo . . . . . . . . . . . . . . . . . . . . . . 3
1.3.3. Anillo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.4. Cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4. Propiedades de los Números Reales . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.1. Axiomas en R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2. Matrices 11
2.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1. Igualdad de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.1. Suma de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.2. Propiedades de la Suma de Matrices . . . . . . . . . . . . . . . . . . . 12
2.2.3. Ponderación de Matriz por Escalar . . . . . . . . . . . . . . . . . . . . 13
2.2.4. Propiedades de la Ponderación de Matriz por Escalar . . . . . . . . 13
ii ÍNDICE GENERAL

2.2.5. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14


2.2.6. Propiedades del Producto de Matrices . . . . . . . . . . . . . . . . . . 14
2.2.7. Transposición de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.8. Propiedades de la Transposición de Matrices . . . . . . . . . . . . . . 17
2.2.9. Operaciones Elementales de Fila . . . . . . . . . . . . . . . . . . . . . 20
2.2.10. Determinante de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.11. Operaciones Inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3. Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1. Matriz Fila . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.2. Matriz Cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.3. Matriz Triangular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.4. Matriz Diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.5. Matriz Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.6. Matriz Identidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.7. Matriz Simétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.8. Matriz Antisimétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.9. Matriz Nula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.10. Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.11. Propiedades de la Inversa . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4. Polinomios de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5. Polinomio Caracterı́stico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6. Métodos Para Invertir Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.6.1. Matriz Ampliada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.6.2. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.6.3. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . 35
2.7. Equivalencia por Filas de una Matriz . . . . . . . . . . . . . . . . . . . . . . . 37
2.8. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

3. Sistemas de Ecuaciones Lineales 41


iii

3.1. Notación Matricial de un Sistema de Ecuaciones . . . . . . . . . . . . . . . . 41


3.1.1. Rango por Filas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2. Algoritmo tipo solución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3. Soluciones de un S.E.L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.1. Solución general de un S.E.L . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2. Solución Particular de un S.E.L . . . . . . . . . . . . . . . . . . . . . . 46
3.4. Sistemas Homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.5. Formas de Resolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5.1. Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5.2. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

4. Escalares, Vectores y Espacios Vectoriales 53


4.1. Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2. Vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3. Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.4. Espacios Vectoriales Usuales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.4.1. Espacio Vectorial R2 /R . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.4.2. Rn /R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.4.3. Rn [x]/R (Polinomios reales de grado n sobre R) . . . . . . . . . . . . 59
4.4.4. C[a, b] (Funciones reales continuas sobre [a, b]) . . . . . . . . . . . . 59
4.5. Base de V/K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.5.1. Bases Canónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.6. Dimensión de V/K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.7. Vector de Coordenadas de x⃗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.8. Subespacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.8.1. Combinación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.8.2. Independencia Lineal de un Conjunto . . . . . . . . . . . . . . . . . . 63
4.9. Operatoria Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.9.1. Suma de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
iv ÍNDICE GENERAL

4.9.2. Ponderación por Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . 66


4.9.3. Producto Cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.9.4. Norma de un Vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.9.5. Normas en Rn /R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.9.6. Ángulo Entre Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.9.7. Producto Punto (ó Producto Interno) . . . . . . . . . . . . . . . . . . 70
4.9.8. Propiedades del Producto Punto . . . . . . . . . . . . . . . . . . . . . 70
4.9.9. Productos Punto Usuales . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.9.10. Producto Cruz (ó Producto Vectorial) . . . . . . . . . . . . . . . . . . 75
4.9.11. Propiedades del Producto Cruz . . . . . . . . . . . . . . . . . . . . . . 75

5. Transformaciones Lineales 77
5.1. Transformación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.1.1. Núcleo de una Trasformación Lineal . . . . . . . . . . . . . . . . . . . 79
5.1.2. Imagen de una Transformación Lineal . . . . . . . . . . . . . . . . . . 79
5.1.3. Teorema de las Dimensiones (Núcleo - Imagen) . . . . . . . . . . . . 80
5.1.4. Tranformaciones Lineales e Independencia Lineal . . . . . . . . . . . 81
5.1.5. Transformación Lineal Inyectiva . . . . . . . . . . . . . . . . . . . . . 83
5.1.6. Transformación Lineal Biyectiva . . . . . . . . . . . . . . . . . . . . . 83
5.1.7. Matriz Reprensentante de una Transformación Lineal . . . . . . . . 84
5.1.8. Propiedades de Transformaciones Lineales . . . . . . . . . . . . . . . 86
5.1.9. ¿Cómo se Aplica la Matriz Representante? . . . . . . . . . . . . . . . 87
5.1.10. Matriz de Pasaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.1.11. ¿Cómo se Relacionan las Matrices Representantes? . . . . . . . . . . 91
5.1.12. Matrices Similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.2. Cambio de Base y Similaridad . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

6. Formas Bilineales 95
6.1. Formas Bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
v

6.2. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97


6.3. Simetrı́a y Antisimetrı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.4. Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

7. Referencias 99
Capı́tulo 1

Definiciones Previas

1.1. Ley de Composición Interna


Sean A, B conjuntos no vacı́os. Una LCI sobre A es cualquier aplicación o función de la
forma:
f ∶A×A→A
(a, b) → f (a, b) ∈ A ∀ a ∈ A, b ∈ B

También se usa la denominación “operación” para una LCI . En ese caso, en lugar de la
notación funcional f (a, b) se usa la notación operacional (Ejemplo: a∗b ). Ası́ la operación
se denota:
∗∶A×A→A
(a, b) → a ∗ b ∈ A ∀a ∈ A, b ∈ B

1.2. Ley de Composición Externa


Sean A, B conjuntos no vacı́os. Una LCI sobre A es cualquier aplicación de la forma:

g ∶A×A→B

(a, b) → g(a, b) ∈ B ∀ a ∈ A, b ∈ B

En este caso la LCE tiene dominio de operadores en A


2 Definiciones Previas

1. La LCE opera sobre otro conjunto

2. En este dominio de operadores no llega la función

También se usa la notación operacional para una LCI :

∆∶A×A→B

(a, b) → a∆b ∈ B ∀a ∈ A, b ∈ B

Ejemplos :

1. R × p(x) → p(x)
3(1 + 3x − x2 ) → 3 + 9x − 3x2
Los operadores son reales y polinomios
El dominio es de polinomios

2. (a + bx + cx2 , d) → ad + (a + b + c)
(1 + 3x − 5x2 , 2) → 2 + (−1) = 1

1.3. Estructuras Algebraicas


Una estructura algebraica es un ente matemático construido por:

1. Un conjunto y una o más LCI

2. Dos o más conjuntos, una o más LCI y una o más LCE

1.3.1. Grupo
Sea (A, ∗) una estructura algebraica. Se cumple que es grupo si y sólo si:

1. ∗ posee neutro, es decir: ∃e ∈ A/a ∗ e = e ∗ a = a ∀a ∈ A

2. ∗ es asociativa, es decir: a ∗ (b ∗ c) = (a ∗ b) ∗ c ∀a, b, c ∈ A

3. ∗ es simetizable , es decir cada elemento de A posee un inverso a−1 y se cumple:


a ∗ a−1 = a−1 ∗ a = e
3

1.3.2. Grupo Abeliano o Conmutativo


Sea (A, ∗) una estructura algebraica que tiene estructura de grupo y ademas es conmu-
tativa. Se cumple que es grupo abeliano si y sólo si:

1. ∗ posee neutro, es decir: ∃e ∈ A/a ∗ e = e ∗ a = a ∀a ∈ A

2. ∗ es asociativa, es decir: a ∗ (b ∗ c) = (a ∗ b) ∗ c ∀a, b, c ∈ A

3. ∗ es simetizable , es decir cada elemento de A posee un inverso a−1 y se cumple:


a ∗ a−1 = a−1 ∗ a = e

4. ∗ es conmutativa , es decir para todos los elementos de A, a ∗ b ∗ c ∗ ... ∗ n genera un


mismo resultado independientemente de como se altere el orden en que operan los
elementos. Tomando (a, b) ∈ A se cumple que a ∗ b = b ∗ a

1.3.3. Anillo
Sea (A, ∗, ∆) una estructura algebraica con 2 LCI . Se cumple que esta es estructura de
anillo si y sólo si:

1. (A, ∗) es grupo abeliano

2. ∆ es asociativa.

3. ∆ distribuye con respecto a ∗

1.3.4. Cuerpo
Sea (A, ∗, ∆) una estructura algebraica con 2 LCI y que ambas tienen estructura de
grupo abeliano. Se cumple que esta es estructura de cuerpo 1 si y sólo si:

1. ∗ posee un neutro, todos sus elementos tienen un inverso contenido en A y esta


operación es conmutativa
1
Para la conmutatividad y clausura estas necesariamente se extienden para el caso en que se aplica ∗
ó ∆ a (a, b, c, ..., n). Es decir a+b+c+...+n ∈ A a⋅b⋅c...⋅n ∈ A como también a+b+c...+n = n+...+c+b+a
a ⋅ b ⋅ c... ⋅ n = n ⋅ ... ⋅ c ⋅ b ⋅ a y todas las combinaciones posibles para la suma y el producto. En el caso
de la distributividad es análogo, la propiedad se cumple para a ∗ (b∆c∆...∆n), (a∆b) ∗ c ∗ ... ∗ n y
todas las combinaciones posibles.
4 Definiciones Previas

2. ∆ posee un neutro, todos sus elementos tienen un inverso contenido en A y esta


operación es conmutativa
3. A, ∗, ∆ es distributiva de la forma a∆(b ∗ c) = (a∆b) ∗ (a∆c)
4. Tanto ∗ como ∆ cumplen con la propiedad de clausura, es decir al efectuar una
operación entre dos o más elementos de A el resultado debe pertenecer a A

Ejemplos :

1. (R, +, ⋅)
a) Neutro:
a+0=0+a=a
a⋅1=1⋅a=a
b) Inverso:
a + (−a) = (−a) + a = 0
a ⋅ a−1 = a−1 ⋅ a = 1
c) Conmutatividad:
a+b=b+a
a⋅b=b⋅a
d ) Distributividad:
a(b + c) = (a ⋅ b) + (a ⋅ c)
e) Clausura:
(a + b) ∈ R ∧ (a ⋅ b) ∈ R
2. (C, +, ⋅)
a) Neutro:
(a + bi) + (0 + 0i) = (0 + 0i) + (a + bi) = a + bi
(a + bi) ⋅ (1 + 0i) = (1 + 0i) ⋅ (a + bi) = a + bi
b) Inverso:
(a + bi) + [−(a + bi)] = [−(a + bi)] + (a + bi) = 0 + 0i
(a + bi) ⋅ (a + bi)−1 = (a + bi)−1 ⋅ (a + bi) = 1 + 0i
c) Conmutatividad:
(a + bi) + (c + di) = (c + di) + (a + bi)
(a + bi) ⋅ (c + di) = (c + di) ⋅ (a + bi)
d ) Distributividad:
(a + bi)[(c + di) + (e + f i)] = [(a + bi) ⋅ (c + di)] + [(a + bi) ⋅ (e + f i)]
5

e) Clausura:
[(a + bi) + (c + di)] ∈ C ∧ [(a + bi) ⋅ (c + di)] ∈ C

Observación :

El neutro y el inverso deben estar contenidos en el conjunto. De esta forma los números
reales tienen estructura de cuerpo (R, +, ⋅) y el neutro de la suma se asocia con 0, el
neutro de la multiplicación se asocia con 1 como también el inverso de la suma se asocia
con −a, −b, −c, etc y el inverso del producto (siempre que a ≠ 0) estará contenido en R.

1.4. Propiedades de los Números Reales


Con lo expuesto anteriormente se sabe que los números reales forman un conjunto con
estructura de grupo y por lo tanto están sujetos a las propiedades de esta estructura. Sin
embargo, estas propiedades pueden o no cumplirse dado un grupo cualquiera pero para
el caso de los números reales se garantiza que estas propiedades se cumplen definiendo
axiomas (propiedades tautológicas que no se demuestran) pero que si permiten demostrar
propiedades del conjunto R.

1.4.1. Axiomas en R
1. Conmutatividad

a) Dados dos números reales x, y cualquiera, su suma tiene como resultado un


número real, es decir:
(∀x, y ∈ R) x + y = y + x

b) Para el producto se cumple la misma propiedad, es decir:


(∀x, y ∈ R) x ⋅ y = y ⋅ x

2. Asociatividad

a) Dados tres números reales x, y, z cualquiera, su suma tiene como resultado un


número real, es decir:
(∀x, y, z ∈ R) x + (y + z) = (x + y) + z
6 Definiciones Previas

b) Para el producto se cumple la misma propiedad, es decir:

(∀x, y.z ∈ R) x ⋅ (y ⋅ z) = (x ⋅ y) ⋅ z

Demostración :
x + (y + z) = (x + z) + y
El axioma de asociatividad no dice que x + (y + z) = (x + z) + y pero usando los
axiomas ya dados se tiene que:
x + (y + z) = x + (z + y) /conmutatividad
x + (y + z) = (x + z) + y /asociatividad
En relación con lo anterior se concluye que la suma con n terminos es conmutativa
sin alterar el resultado y es análogo para la multiplicación.

3. Distributividad

a) (∀x, y, z ∈ R) x(y + z) = xy + xz
b) (∀x, y, z ∈ R) (x + y)z = xz + yz

4. Existencia de elementos neutros

a) Elementos neutros para la suma


Con las propiedades de grupo se sabe que en R se cumple que

(∀x ∈ R) x + e = x

Esta propiedad garantiza a lo menos la existencia de un elemento neutro (puede


haber más de uno) pero para el caso de la suma en R se sabe que el neutro es
0 y por lo tanto es único.

Demostración : El neutro para la suma es único


En base al axioma anterior sabemos que existe al menos un neutro e1 que
corresponde al cero. Supongamos que por otro camino hemos encontrado otro
neutro e2 para la suma, de forma tal que se cumple:

(∀x ∈ R) x + e1 = x ∧ x + e2 = x

Si el neutro es único entonces necesariamente e1 = e2 , formando un sistema con


las ecuaciones enteriores se obtiene:
7

x + e1 = x
x + e2 = x
Reemplazando x = e2 en (1) y x = e1 en (2) nos queda:
e2 + e1 = e2
e1 + e2 = e1
De lo anterior se tiene que:

e1 = e1 + e2 = e2 + e1 = e2

b) Elementos neutros para el producto


Es análogo al caso de la suma. Con las propiedades de grupo se sabe que en R
se cumple que
(∀x ∈ R) x ⋅ e = x
Demostración : El neutro para el producto es único
En base al axioma anterior sabemos que existe al menos un neutro e1 que
corresponde al uno. Supongamos que por otro camino hemos encontrado otro
neutro e2 para la suma, de forma tal que se cumple:

(∀x ∈ R) x ⋅ e1 = x ∧ x ⋅ e2 = x

Si el neutro es único entonces necesariamente e1 = e2 , formando un sistema con


las ecuaciones enteriores se obtiene:
x ⋅ e1 = x
x ⋅ e2 = x
Reemplazando x = e2 en (1) y x = e1 en (2) nos queda:
e2 ⋅ e1 = e2
e1 ⋅ e2 = e1
De lo anterior se tiene que:

e1 = e1 ⋅ e2 = e2 ⋅ e1 = e2

5. Existencia de elementos inversos

a) Elementos inversos para la suma


Con las propiedades de grupo se sabe que en R se cumple que

(∀x ∈ R) x + opuesto(x) = 0
8 Definiciones Previas

Esta propiedad señala que existen elementos neutros asociados a x pero para
el caso de la suma en R se sabe que el opuesto es −x y por lo tanto es único.
Demostración : El inverso para la suma es único
En base al axioma anterior sabemos que existe al menos un inverso c1 que
corresponde al cero. Supongamos que por otro camino hemos encontrado otro
neutro c2 para la suma, de forma tal que se cumple:

(∀x ∈ R) x + c1 = 0 ∧ x + c2 = 0

Si el neutro es único entonces necesariamente c1 = c2 , formando un sistema con


las ecuaciones enteriores se obtiene:
x + c1 = 0
x + c2 = 0

Lo que se debe demostrar es que c1 = c2

PD c1 = c2
En efecto, usando los axiomas anteriores:
c1 = c1 + 0
c1 = c1 + (x + c2 )
c1 = (c1 + x) + c2
c1 = (x + c1 ) + c2
c1 = 0 + c2
c1 = c2
b) Elementos inversos para el producto
Es análogo al caso de la suma. Con las propiedades de grupo se sabe que en R
se cumple que
(∀x ∈ R) x ⋅ reciproco(x) = 1
Demostración : El inverso para el producto es único
En base al axioma anterior sabemos que existe al menos un neutro c1 que
corresponde al uno. Supongamos que por otro camino hemos encontrado otro
neutro c2 para la suma, de forma tal que se cumple:

(∀x ∈ R) x ⋅ c1 = 1 ∧ x ⋅ c2 = 1

Si el inverso es único entonces necesariamente c1 = c2 , formando un sistema con


las ecuaciones enteriores se obtiene:
9

x ⋅ c1 = 1
x ⋅ c2 = 1

PD c1 = c2
En efecto, usando los axiomas anteriores: c1 = c1 ⋅ 1
c1 = c1 ⋅ (x ⋅ c2 )
c1 = (c1 ⋅ x) ⋅ c2
c1 = (x ⋅ c1 ) ⋅ c2
c1 = 1 ⋅ c2
c1 = c2
Capı́tulo 2

Matrices

2.1. Matrices
Una matriz es una tabla de doble entrada de m filas y n columnas con coeficientes en el
cuerpo K (que puede ser R ó C).
I = {1, 2, 3, . . . , m}
Considerando los subconjuntos de N: {
J = {1, 2, 3, . . . , n}

Toda matriz es, además, una función del tipo:

M∶I×J→K

(i, j) → Mij ∈ K

Sea la matriz Amn , se denota genericamente:


⎛ a11 a12 a13 . . . a1n ⎞
⎜ a a22 a23 . . . a2n ⎟
A = ⎜ 21 ⎟ aij ∈ K, ∀i = {1, 2, 3, . . . , m}, j = {1, 2, 3, . . . , n}
⎜ ⋮ ⋱ ⋮ ⎟
⎝ am1 am2 am3 . . . amn ⎠

Mmn (K) corresponde a todas las matrices de m filas, n columnas y coeficientes en el


cuerpo K incluyendo a la matriz Amn .
12 Matrices

2.1.1. Igualdad de Matrices


Dadas dos matrices Amn ∈ Mmn (K), Bm′ n′ ∈ Mm′ n′ (K), diremos que son iguales si y sólo
si:

(m = m′ ) ∧ (n = n′ ) ∧ (∀ i = {1, 2, 3, . . . , m} , j = {1, 2, 3, . . . , n} , aij = bij )

2.2. Operaciones con Matrices

2.2.1. Suma de Matrices


Definiendo una aplicación (o función) sobre Mmn (K) a partir de las operaciones definidas
en el cuerpo K de la forma:
Mmn × Mmn → Mmn
(Amn , Bmn ) → (A + B)mn

Se define la suma de matrices como: ∀ A, B ∈ Mmn (K), A + B = aij + bij

Observación : La suma de matrices (Mmn , +) tiene estructura de grupo abeliano.

Demostración : Es directa (lo cual no quiere decir que es trivial o evidente) con las
propiedades del cuerpo K se cumple que la suma es asociativa y conmutativa.

2.2.2. Propiedades de la Suma de Matrices


1. Admite un neutro aditivo tal que Amn + 0mn = Amn
El neutro aditivo corresponde a M es decir:

⎛ 0 ... 0 ⎞
0 = ⎜ ⋮ ⋱ ⋮ ⎟ ∈ Mmn (K)
⎝ 0 ... 0 ⎠

Es sumamente importante señalar que el neutro aditivo para las matrices no es


único. Como se define la suma de matrices, la operación suma sobre estas genera
13

otra matriz si y sólo si sumamos matrices de igual orden ya que de otra manera la
operación no está definida.
El neutro aditivo para las matrices de 2 × 3 es 0M = 02×3 , para las de de 5 × 2 es
0M = 05×2 , etc.
Generalizando para las matrices de m × n es 0M = 0m×n con cualquier m, n ∈ N. Por
lo tanto, a diferencia de las propiedades de R en que el neutro aditivo es único para
Mmn K existen tantos neutros como órdenes de matrices posibles.

2. Admite un inverso aditivo tal que Amn + (−Amn ) = 0mn


El inverso aditivo de Mmn = mmn es −Mmn = −mmn

Por ejemplo en M23 (C)

1 + i 0 2 + 3i −1 − i 0 −2 − 3i 0 0 0
( )+( )=( ) = 0M
i 1 0 −i −1 0 0 0 0

Por lo tanto,
1 + i 0 2 + 3i −1 − i 0 −2 − 3i
−( )=( )
i 1 0 −i −1 0

3. La suma de matrices es asociativa tal que: Amn + (Bmn + Cmn ) = (Amn + Bmn ) + Cmn

2.2.3. Ponderación de Matriz por Escalar


Definiendo una aplicación (o función) sobre Mmn (K) a partir de las operaciones definidas
en el cuerpo K de la forma:
K × Mmn → Mmn
(α, Amn ) → αAmn

Sea la matriz Pmn = αAmn esta se define por: Pij = αAij

2.2.4. Propiedades de la Ponderación de Matriz por Escalar


Las siguientes propiedades se cumplen ∀ A, B ∈ Mmn , α, β ∈ K :

1. α(Amn + Bmn ) = αAmn + αBmn


14 Matrices

2. (α + β)Amn = αAmn + βAmn

3. α(βAmn ) = (αβ)Amn

4. 1Amn = Amn

Estas propiedades son las mismas de las de un espacio vectorial y su demostración par-
ticular puede hacerse en forma análoga al caso de un espacio vectorial R2 /R tomando dos
matrices cualquiera con n vectores de 2 componentes.
El conjunto de las matrices Mmn sobre el cuerpo K con la LCI suma de matrices y la
LCE ponderación por escalar constituye un espacio vectorial Mmn /K

2.2.5. Producto de Matrices


Dadas las matrices:
A = aij ∈ Mmr (K), B = bij ∈ Mrn

Se define la aplicación
Mmr × Mrn → Mmn
(Amn , Bmn ) → (A + B)mn

y el producto C = AB como la matriz C ∈ Mmn (K) tal que:


r
Cmn = ∑ aik bkj , i = {1, 2, 3, . . . , m} j = {1, 2, 3, . . . , n}
k=1

2.2.6. Propiedades del Producto de Matrices


1. Asociatividad
Dadas las matrices A ∈ Mpq , B ∈ Mqr , C ∈ Mrs , entonces:

A(BC) = (AB)C ∈ Mps

Demostración :

Para la matriz A en (i, j) se tiene aij = ∑nk=1 aij


15

Para la matriz B en (j, k) se tiene bjk = ∑nk=1 bjk

Para la matriz C en (k, l) se tiene ckl = ∑nk=1 ckl

En efecto,
Para la matriz AB en (i, k) se tiene
n
AB = ∑ aij bjk
k=1

Luego,
n
(AB)C = ∑ (aij bjk )ckl
k=1

De manera análoga, para la matriz BC en (j, l) se tiene


n
BC = ∑ bjk ckl
k=1

Luego,
n
A(BC) = ∑ aij bjk ckl
k=1

Finalmente,
(AB)C = ∑nk=1 (aij bjk )ckl ⎫



⎬ A(BC) = ∑nk=1 (aij bjk )ckl = (AB)C
A(BC) = ∑k=1 aij (bjk ckl ) ⎪
n ⎪

2. Distributividad con Respecto a la Suma


Dadas las matrices A ∈ Mpq , B, C ∈ Mqs , se cumple que:

A(B + C) = (AB) + (AC) ∈ Mps

Demostración :

Definiendo Dpr = Apq (Bqr + Cqr ) se tiene que:


n
eij = ∑ aik (bkj + ckj ) ∀ i ∈ {1, 2, 3, . . . p, }, j ∈ {1, 2, 3, . . . , s}
k=1
16 Matrices

En efecto,

n
dij = ∑ aik (bkj + ckj )
k=1

n
dij = ∑ aik bkj + aik ckj
k=1

n n
dij = ∑ aik bkj + ∑ aik ckj
k=1 k=1

Con la definición de producto de matrices se puede formar una expresión equivalente


a la anterior:

Dpr = (AB)ps + (AC)ps

Observación : La multiplicación de matrices no es conmutativa, nótese que como se


define la aplicación y la distributividad el producto entre matrices con distinto número
de columnas no está definido.
En el caso de matrices con igual número de columnas o de matrices cuadradas de igual
orden el producto tampoco es una conmutativo. Se puede observar claramente con el
siguiente ejemplo:

1 0 0 0 0 0 0 0 1 0 0 0
( )⋅( )=( ) ( )⋅( )=( )
0 0 2 0 0 0 2 0 0 0 2 0

Como se señalo existe el caso particular de la matriz cuadrada y la matriz identidad, para
este caso la matriz identidad es un neutro en la estructura algebraica (Mnn (K), ⋅)
En efecto, dada A ∈ Mnn (K) se tiene que Ann ⋅ Inn = Ann

Demostración :

n
∑ aik ikj = aij ⋅ ijj = aij = Ann
k=1

Se concluye que para el caso de las matrices cuadradas la suma y el producto constituyen
una estructura algebraica (Mnn (K), +, ⋅) que es un anillo con unidad (existe un neutro
para ⋅)
17

2.2.7. Transposición de matrices


Dada una matriz A = aij ∈ Mmn se define la aplicación:

Mmn → Mnm

A → T (A) = AT

Es decir, la matriz transpuesta de A, AT , corresponde a una matriz de orden n × m a


partir de una matriz de orden m × n de igual cantidad de elementos.
En esta aplicación la transpuesta de AP ×Q = ∑nk=1 aij se define:

n n
AT = ∑ aji ⇔ A = ∑ aij
k=1 k=1

Ejemplos :

⎛ 1 3 ⎞
T
1 2 5 8 ⎜ 2 4 ⎟
1. ( ) =⎜ ⎟
3 4 1 2 ⎜ 5 1 ⎟
⎝ 8 2 ⎠

⎛ 1 5 3 2 ⎞
⎜ 5 2 0 1 ⎟
2. ⎜ ⎟
⎜ 3 0 3 6 ⎟
⎝ 2 1 6 4 ⎠

Para este caso la matriz es simétrica

3. x⃗ = (2, 4, 1) ⇒ A = ( 2 4 1 )
⎛ 2 ⎞
AT =⎜ 4 ⎟
⎝ 1 ⎠

2.2.8. Propiedades de la Transposición de Matrices


1. (AT )T = A

Demostración :
18 Matrices

((A)Tij )T = (A)Tji = Aij

2. (A + B)T = AT + B T

Demostración :
Sean A, B ∈ Mmn ⇒ A + B ∈ Mmn y definiendo C = A + B

En efecto,
Para la matriz C en (i, j) se tiene cij = ∑nk=1 aij + bij = ∑nk=1 aij + ∑nk=1 bij

Para la matriz C T en (i, j) se tiene cji = ∑nk=1 aji + bij = ∑nk=1 aji + ∑nk=1 bji

Luego, para A, B en (i, j)

(A)Tij = Aji = ∑nk=1 aji ⎫




⎪ T
⎬ A + B T = ∑nk=1 aji + ∑nk=1 bji = C T
(B)Tij = Bji = ∑k=1 bji ⎪
n ⎪

3. (αA)T = aAT

Demostración :
⎛ a11 . . . a1n ⎞
Sea Amn = A = ⎜ ⋮ ⋱ ⋮ ⎟
⎝ am1 . . . amn ⎠

Entonces,
⎛ αa11 . . . αa1n ⎞ ⎛ a11 . . . a1n ⎞
α ⋅ Amn = A = ⎜ ⋮ ⋱ ⋮ ⎟=α⋅⎜ ⋮ ⋱ ⋮ ⎟
⎝ αam1 . . . αamn ⎠ ⎝ am1 . . . amn ⎠

⎛ a11 . . . am1 ⎞
(A)Tmn = Anm = ⎜ ⋮ ⋱ ⋮ ⎟
⎝ a1n . . . anm ⎠

⎛ αa11 . . . αam1 ⎞ ⎛ a11 . . . am1 ⎞


αAnm = ⎜ ⋮ ⋱ ⋮ ⎟=α⋅⎜ ⋮ ⋱ ⋮ ⎟ = αAT
⎝ αa1n . . . αanm ⎠ ⎝ a1n . . . anm ⎠
19

4. (AB)T = B T AT

Demostración :
Sean las matrices A ∈ Mpq y B ∈ Mqr tal que C = AB

En efecto,
Para (i, j) de la matriz C se tiene que

n
cij = ∑ aik bkj
k=1

mientras que para (i, j) de la matriz C T se tiene que

n
cji = ∑ aki bjk
k=1

debido a la transposición.

Luego, cji = ∑nk=1 aki bjk = ∑nk=1 bjk aki

Sea la matriz D = B T AT

Para (i, j) se cumple que dij = ∑nk=1 (B)Tqr (A)Tpq

dij = ∑ k = 1n (B)Tik (A)Tkj ⇔ dij = ∑ k = 1n bki ajk

dij = ∑ k = 1n bki ajk = ∑ k = 1n ajk bki = (AB)ji = (C T )ij

Finalmente,

C = AB ⇔ C T = (AB)
T
20 Matrices

2.2.9. Operaciones Elementales de Fila


Se definen como aplicaciones del tipo:

Mmn → Mmn

AP ×Q → e(AP ×Q )

Existen 3 clases de operaciones inversas:

1. Operación eij
Consiste en intercambiar de posición las filas (i, j).

Ejemplo :
⎛ a11 a12 a13 a14 ⎞ ⎛ a31 a32 a33 a34 ⎞
⎜ a21 a22 a23 a24 ⎟ e13 ⎜ a21 a22 a23 a24 ⎟
AP ×Q = ⎜ ⎟ ↝ BP ×Q = ⎜ ⎟
⎜ a31 a32 a33 a34 ⎟ ⎜ a11 a12 a13 a14 ⎟
⎝ a41 a42 a43 a44 ⎠ ⎝ a41 a42 a43 a44 ⎠

Observación : AP ×Q ≠ BP ×Q = BP ×Q

2. Operación ej (λ)
Consiste en ponderar la fila j por el escalar λ ≠ 0

Ejemplo :
⎛ a11 a12 a13 a14 ⎞ ⎛ a31 a32 a33 a34 ⎞
⎜ a21 a22 a23 a24 ⎟ e2 (−5) ⎜ −5a21 −5a22 −5a23 −5a24 ⎟
AP ×Q = ⎜ ⎟ ↝ BP ×Q = ⎜ ⎟
⎜ a31 a32 a33 a34 ⎟ ⎜ a11 a12 a13 a14 ⎟
⎝ a41 a42 a43 a44 ⎠ ⎝ a41 a42 a43 a44 ⎠

3. Operación eij (λ)


Consiste en sumar a la fila i, la fila j ponderada por el escalar λ ≠ 0. El resultado
queda en la fila i

Ejemplo :
e31 (−5)
AP ×Q ↝ BP ×Q
21

⎛ a11 a12 a13 a14 ⎞ ⎛ a31 a32 a33 a34 ⎞


⎜ a21 a22 a23 a24 ⎟ e31 (−5) ⎜ a a a a ⎟
⎜ ⎟ ↝ ⎜ 21 22 23 24

⎜ a31 a32 a33 a34 ⎟ ⎜ a11 − 5a31 a12 − 5a32 a13 − 5a33 a14 − 5a34 ⎟
⎝ a41 a42 a43 a44 ⎠ ⎝ a41 a42 a43 a44 ⎠

También se definen operaciones inversas . Cada operación elemental de fila posee una
inversa que es también una operación de fila.
En efecto,

1. (eij )−1 = eij

2. [ej (λ)]−1 = ej (λ)

3. [eij (λ)]−1 = eij (λ)

2.2.10. Determinante de una Matriz


Esta aplicación de define:

Mmn /K → K
AP ×Q → det(AP ×Q ) ∈ K

El determinante ses la suma de todos los productos posibles entre elementos de AP × Q,


a los que se atribuye un signo, con la condición de no repetir filas ni columnas en cada
producto.
El signo atribuido a cada producto es del de (−1)n en el que n es el número de cmabios
al orden de columnas.

Ejemplos :

a11 a12
1. AP ×P = ( )
a21 a22

Los productos posibles son: b11 ⋅ b22 , (n = 0) ⇒ signo+ b12 ⋅ b21 , (n = 1) ⇒ signo−
Luego, det(AP ×P ) = b11 ⋅ b22 − b12 ⋅ b21
22 Matrices

1 5
2. BP ×P = ( )
2 4
det(AP ×P ) = 1 ⋅ 4 − 5 ⋅ 2 = −6

2.2.11. Operaciones Inversas


Cada operación elemental de fila posee una inversa que también es una operación ele-
mental de fila.
Ya definidas las operaciones elementales de fila, se tiene que:

1. (eij )−1 = eij

2. [ej (λ)]−1 = ej (λ−1 )

3. [eij (λ)]−1 = eij (−λ)

2.3. Tipos de Matrices

2.3.1. Matriz Fila


El caso especial de las matrices de 1 × n es una notación alternativa para un vector k⃗ ∈ Kn
⃗ De esto
es decir, la matriz M1×n contiene las componentes (k1 , k2 , k3 , . . . , kn ) del vector k.
fluye que una matriz de orden m × n contiene las componentes de m vectores Kn .
Ejemplo :
k⃗ ∈ K3 = (x, y, z) ⇒ M1×3 = ( a11 a21 a31 ) = ( x y z )

2.3.2. Matriz Cuadrada


Son aquellas matrices Mmn tal que m = n es decir, el número de filas es igual al número
de columnas.
En las matrices cuadradas se denomina diagonal principal al subconjunto de elementos
(entradas) de la matriz amn que cumplen que i = j.
Ejemplo :
23

⎛ 1 3 2 ⎞
A=⎜ 6 5 4 ⎟
⎝ 7 2 4 ⎠

Diagonal principal: {a11 , a22 , a33 } = {1, 5, 4}

2.3.3. Matriz Triangular

Matriz Triangular Superior

Sea Bmn una matriz cuadrada, esta es además triangular superior si:
bij = 0 si i > j
{
m=n
Ejemplo :
⎛ 1 4 2 ⎞
B=⎜ 0 6 8 ⎟
⎝ 0 0 7 ⎠

Matriz Triangular inferior

Sea Bmn una matriz cuadrada, esta es además triangular inferior si:
bij = 0 si i < j
{
m=n

Ejemplo :
⎛ 1 4 2 ⎞
B=⎜ 0 6 8 ⎟
⎝ 0 0 7 ⎠

2.3.4. Matriz Diagonal

Sea Cmn una matriz cuadrada, esta es además diagonal si es superior e inferior a la vez si:
cij = 0 si i ≠ j
{
m=n
24 Matrices

Ejemplo :
⎛ 1 0 0 ⎞
C=⎜ 0 3 0 ⎟
⎝ 0 0 2 ⎠

2.3.5. Matriz Escalar

Sea Dmn una matriz cuadrada y diagonal, esta es además escalar si:

⎪ d = 0 si i ≠ j

⎪ ij
⎨ dij = k si i = j



⎩ m=n

Ejemplo :
⎛ 7 0 0 ⎞ ⎛ 1 0 0 ⎞
C =⎜ 0 7 0 ⎟=7⋅⎜ 0 1 0 ⎟
⎝ 0 0 7 ⎠ ⎝ 0 0 1 ⎠

2.3.6. Matriz Identidad

Sea Imn una matriz escalar, esta es además identidad si y sólo si:

⎪ d = 0 si i ≠ j

⎪ ij
⎨ dij = 1 si i = j



⎩ m=n

Ejemplo :
⎛ 1 0 0 ⎞
C=⎜ 0 1 0 ⎟
⎝ 0 0 1 ⎠

Que corresponde a una matriz identidad de 3 × 3.


Observación: La matriz identidad se denota Imn y se cumple que siempre es una matriz
cuadrada. La matriz identidad no es única, existen matrices identidad de orden m × n que
puede ser 1 × 1, 2 × 2, etc.
25

2.3.7. Matriz Simétrica


La matriz Smn es simétrica si y sólo si:
Es una matriz cuadrada (m = n)
{
sij = sji ∀i, j

Ejemplo :
⎛ 1 5 3 2 0 ⎞
⎜ 5 2 0 1 8 ⎟
⎜ ⎟
C=⎜
⎜ 3 0 3 6 7 ⎟ Que corresponde a una matriz simétrica de 5 × 5.

⎜ ⎟
⎜ 2 1 6 4 0 ⎟
⎝ 0 8 7 0 5 ⎠

2.3.8. Matriz Antisimétrica


La matriz S ′ mn es antisimétrica si y sólo si:

⎪ Es una matriz cuadrada (m = n)


⎨ sij = −sji si i ≠ j



⎩ sij = 0 si i = j

Ejemplo :
⎛ 0 −5 −3 −2 0 ⎞
⎜ 5 0 0 1 8 ⎟
⎜ ⎟
C=⎜
⎜ 3 0 0 6 7 ⎟ ⎟
⎜ 2 −1 −6 0 0 ⎟
⎜ ⎟
⎝ 0 −8 −7 0 0 ⎠

Se verifica que a31 = 3 ∧ a13 = −3, a24 = 1 ∧ a42 = −1, etc.

2.3.9. Matriz Nula


La matriz Nmn correponde al neutro aditivo para las matrices, es decir correponde al 0M
y se cumple que: nij = 0 ∀i, j

Ejemplo:
26 Matrices

⎛ 0 0 ⎞
C=⎜ 0 0 ⎟
⎝ 0 0 ⎠

Que corresponde a una matriz de 3 × 2


Observación : La matriz nula no es única, existen matrices nulas de orden m × n pero a
diferencia de la matriz identidad esta no necesariamente es cuadrada.

2.3.10. Matriz Inversa

Para algunas matrices cuadradas existe la matriz inversa y esta cuando existe al multi-
plicarse con su inversa (la matriz original) genera una matriz identidad. Tal condición se
expresa:
Sea Ann esta matriz es invertible si y sólo si ∃ A−1
nn tal que:

Ann ⋅ A−1
nn = Ann ⋅ Ann = Inn
−1

Observación : Este es un caso particular en que se cumple la conmutatividad en el


producto de matrices.

Ejemplos :

1 5
1. Sea A = ( )
1 6

De manera temporal supondremos que existe A−1


x1 y 1
Sea A−1 = ( )
x2 y 2

1 5 x y 1 0
Entonces, A ⋅ A−1 = ( )⋅( 1 1 )=( )
2 6 x2 y2 0 1

x1 + 5x2 y1 + 5y1 1 0
⇒( )=( )
x2 + 6x2 y2 + 6y2 0 1
27

x1 + 5x2 = 1
x + 6x2 = 0
⇒ 2
y1 + 5y1 = 0
y2 + 6y2 = 1

x1 + 5x2 = 1
⇒ ⇒ x1 = 6, x2 = −1
x2 + 6x2 = 0

y1 + 5y1 = 0
⇒ ⇒ y1 = −5, y2 = 1
y2 + 6y2 = 1

Por lo tanto,
6 −5
A−1 = ( )
−1 1
A es invertible.

1 2
2. Sea B = ( )
2 4

De manera temporal supondremos que existe A−1

x1 y 1
Sea A−1 = ( )
x2 y 2
1 2 x y 1 0
Entonces, A ⋅ A−1 = ( )⋅( 1 1 )=( )
2 4 x2 y 2 0 1

x1 + 2x2 y1 + 2y1 1 0
⇒( )=( )
2x2 + 4x2 2y2 + 4y2 0 1

x1 + 2x2 = 1
2x2 + 4x2 = 0

y1 + 2y1 = 0
2y2 + 4y2 = 1

x1 + 2x2 = 1 2x1 + 4x2 = 1


⇒ ⇒ ⇒ Contradiccción
2x2 + 4x2 = 0 2x2 + 4x2 = 0

Por lo tanto,
28 Matrices

A no es invertible ya que el sistema no tiene solución.

2.3.11. Propiedades de la Inversa


1. Si A es invertible, entonces A−1 es única

Demostración :

Sea A ∈ Mnn (K) es invertible si y sólo si existe A−1 ∈ Mnn (K) tal que:
AA−1 = A−1 A = Inn

Supongamos que existen dos inversas para A tal que:


AB = AC = Inn
BA = CA = Inn

Luego,
B = B(AC)
B = (BA)C
B = Inn C
B=C

2. (A−1 )−1 = A

Demostración :

Sea A ∈ Mnn (K) tal que det(A) ≠ 0 entonces A−1 está definida.
Entonces,

(A−1 )−1 ⋅ A−1 = A ⋅ A−1


(A−1 )−1 ⋅ A−1 = Inn
[(A−1 )−1 ⋅ A−1 ]A = Inn ⋅ A
(A−1 )−1 [A−1 ⋅ A] = A
(A−1 )−1 [A ⋅ A−1 ] = A
(A−1 )−1 ⋅ Inn = A
29

(A−1 )−1 = A

3. (AB) = B −1 ⋅ A−1
−1

Demostración :

Sea Ann y Bnn entonces AB está definida y AB ∈ Mnn (K)


Luego, si A y B admiten inversa ya que ambas ∈ Mnn (K) con n cualquier entero
finito.

AB(B −1 A−1 )
A(BB −1 )A−1
A(Inn )A−1
AA−1
Inn

También se debe demostrar para B −1 A−1 (AB)


[B −1 A−1 (AB)]T
(AB)T (B −1 A−1 )T
(B T AT )[(AT )−1 (B T )−1 ]
B T [AT (AT )−1 ](B T )−1
B T Inn (B T )−1
B T (B T )−1
Inn

4. (AT )−1 = (A−1 )T

Demostración :

Sea A ∈ Mnn (K) y det(A) ≠ 0 entonces, A es invertible. Para AT ∈ Mnn si det(AT ) ≠


0 entonces AT es invertible.

AT ⋅ (AT )−1 = AT ⋅ (A−1 )T


Inn = AT ⋅ (A−1 )T
30 Matrices

(AT )−1 ⋅ Inn = AT ⋅ (A−1 )T


(AT )−1 = (AT )−1 [AT ⋅ (A−1 )T ]
(AT )−1 = [(AT )−1 ⋅ AT ](A−1 )T
(AT )−1 = [AT ⋅ (AT )−1 ](A−1 )T
(AT )−1 = Inn ⋅ (A−1 )T
(AT )−1 = A−1 )T

5. (A + B)−1 ≠ A−1 + B −1 salvo en casos particulares

Observación : Sólo algunas matrices son invertibles, como ya se vio existen casos en que
una matriz no admite inversa y que algunas matrices cuadradas son invertibles. Se puede
comprobar que existe la inversa verificando que el determinante sea distinto a cero para
una matriz dada.

2.4. Polinomios de Matrices


Tomando la forma genérica de un polinomio p(x) = an xn +an−1 xn−1 +. . .+a1 x+a0 se define,
a partir de esto, el polinomio de matrices de la forma:

p ∶ Mnn (K) → Mnn (K)

Ann → p(A)

De esta forma se tiene que p(A) = bn An + bn−1 An−1 + . . . + b1 A + b0


(bn corresponde a un coeficiente cualquiera como puede ser an , cn , etc. Se denota b para
evitar confusiones con algún aij ∈ Ann .)

2.5. Polinomio Caracterı́stico


Sea la matriz A ∈ Mnn (K). El polinomio caracterı́stico de A se define:

p(λ) = det(A − λInn ) = λn + an−1 λn−1 + . . . + a1 λ + a0


31

El polinomio caracterı́stico cumple las siguientes propiedades:

1. Es de grado n

2. Es mónico

3. ∣det(A)∣ = ∣a0 ∣ tal que si λ = 0 entonces, det(−A) = a0


˙
4. Como consecuencia del item anterior, (−1)n det(A) = a0

Sustituyendo λ por la matriz A se tiene que:

p(A) = An + an−1 An−1 + . . . + a1 A + a0

A partir de esta sustitución se tiene la ecuación caracterı́stica de una matriz que consiste
en igualar el polinomio caracterı́stico de esta a cero.

2.6. Métodos Para Invertir Matrices

2.6.1. Matriz Ampliada


Para una matriz A ∈ Mnn (K) se puede escribir la matriz identidad correspondiente anexa
a la matriz A, es decir:

⎛ a11 a12 a13 . . . a1n 1 0 0 ⋯ 0 ⎞


⎜ 0 1 0 ⋯ 0 ⎟
⎜ ⎟
⎜ a21 a22 a23 . . . a2n 0 0 1 ⋯ 0 ⎟
⎜ ⎟
A=⎜



⎜ ⋮ ⋱ ⋮ ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎝ an1 an2 an3 . . . ann 0 0 0 ⋯ 1 ⎠

Luego se aplican operaciones elementales hasta obtener una matriz identidad al lado
izquierdo (la matriz original) y el resultado que se obtiene a partir de la matriz identidad
anexa corresponde a la inversa de A.

Ejemplo :
32 Matrices

⎛ 2 1 −1 ⎞
Invertir, si es posible, la matriz A = ⎜ 5 2 −3 ⎟
⎝ 0 2 1 ⎠

⎛ 1 1 −1 1 0 0 ⎞
⎜ 2 2 2 ⎟
⎜ ⎟
⎛ 2 1 −1 1 0 0 ⎞ ⎜ ⎟
⎜ ⎟
⎜ 5 2 −3 0 1 0 ⎟
e1 (1/2)
↝ ⎜ 5 2 −3 0 1 0 ⎟ e21 (−5)

⎜ ⎟
⎝ 0 2 1 0 0 1 ⎠ ⎜ ⎟
⎜ ⎟
⎜ 0 2 1 0 0 1 ⎟
⎜ ⎟
⎝ ⎠
⎛ 1 1 −1 1 ⎛ 1 1 −1 1 0
0 0 ⎞ 0 ⎞
⎜ 2 2 2 ⎟ ⎜ 2 2 2 ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ e2 (−2) ⎜ ⎟ e32 (−2)
⎜ 0 1 0 ⎟ ↝ ⎜ 0 1 1 5 −2 0 ⎟ ↝
⎜ ⎟ ⎜ ⎟
−1 −1 −5
⎜ 2 2 2 ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 2 1 0 0 1 ⎠ ⎝ 0 2 1 0 0 1 ⎠
⎛ 1 1 −1 1 ⎛ 1 1 −1 1 0
0 ⎞
0 0 ⎞
⎜ 2 2 2 ⎟ ⎜ 2 2 2 ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ e23 (1) ⎜ ⎟ e3 (−1)
⎜ 0 5 −2 0 ⎟ ↝ ⎜ 0 1 0 −5 2 1 ⎟ ↝
⎜ 1 1 ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 −1 −10 4 1 ⎠ ⎝ 0 0 −1 −10 4 1 ⎠
⎛ 1 1 −1 1 ⎛ 1 0 −1 3 −1 −1 ⎞
0 0 ⎞
⎜ 2 2 2 ⎟ ⎜ 2 2 ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ e12 (−1/2) ⎜ ⎟ e13 (1/2)
⎜ 0 −5 2 1 ⎟ ↝ ⎜ 0 1 0 −5 2 1 ⎟ ↝
⎜ 1 0 ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 1 10 −4 −1 ⎠ ⎝ 0 0 1 10 −4 −1 ⎠
⎛ 1 0 0 8 −3 −1 ⎞
⎜ ⎟
⎜ ⎟
⎜ 0 1 0 −5 2 1 ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎝ 0 0 1 10 −4 −1 ⎠

⎛ 8 −3 −1 ⎞
A−1 = ⎜ −5 2 1 ⎟
⎝ 10 −4 −1 ⎠
33

2.6.2. Matriz Adjunta

Sea la matriz A ∈ Mnn (K) se define la adjunta como la transpuesta de la matriz de


cofactores. Cada cofactor Aij corresponde al determinante de la matriz AT ∈ Mnn (K) sin
considerar la columna i y la columna j cuyo resultado se multiplica por (−1)i+j :

⎛ a11 a12 a13 . . . a1n ⎞ ⎛ a11 a21 a31 . . . an1 ⎞


⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟
a21 a22 a23 . . . a2n ⎟ ⎜ a12 a22 a32 . . . an2 ⎟
⎜ ⎜ ⎟
A=⎜

⎟ ⇒ AT = ⎜
⎟ ⎜


⎜ ⋮ ⋱ ⋮ ⎟ ⎜ ⋮ ⋱ ⋮ ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎝ an1 an2 an3 . . . ann ⎠ ⎝ a1n a2n a3n . . . ann ⎠

A modo de simplificar se pueden renombrar los elementos de la matriz AT tal que:


⎛ b11 b12 a13 . . . b1n ⎞
⎜ ⎟
⎜ ⎟
⎜ b21 b22 b23 . . . b2n ⎟
⎜ ⎟
A =⎜
T



⎜ ⋮ ⋱ ⋮ ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎝ bn1 bn2 bn3 . . . bnn ⎠

T
⎛ A11 A12 A13 . . . A1n ⎞ ⎛ A11 A21 A31 . . . An1 ⎞
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎜ A21 a22 A23 . . . A2n ⎟ ⎜ A12 A22 A32 . . . An2 ⎟
⎜ ⎟ ⎜ ⎟
adj(A) = ⎜

⎟ ⇒ adj(A) = ⎜
⎟ ⎜


⎜ ⋮ ⋱ ⋮ ⎟ ⎜ ⋮ ⋱ ⋮ ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎝ An1 An2 An3 . . . Ann ⎠ ⎝ A1n A2n A3n . . . Ann ⎠
34 Matrices

⎛ ⎛ b22 . . . b2n ⎞ ⎛ b21 . . . b2i ⎞ ⎞


⎜ (−1)i+j ⋅ det ⎜ ⋮ ⋱ ⋮ ⎟ . . . (−1)i+j ⋅ det ⎜ ⋮ ⋱ ⋮ ⎟ ⎟
⎜ ⎝ ⎠ ⎝ ⎟

⎜ bn2 . . . bnn bn1 . . . bnj ⎠ ⎟

⎜ ⎟
⎜ ⎟
⎜ ⎟
adj(A) = ⎜ ⋮ ⋱ ⋮ ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎛ b12 . . . b1n ⎞ ⎛ b11 . . . b1j ⎞ ⎟
⎜ ⎟
⎜ (−1)i+j ⋅ det ⎜ ⋮ ⋱ ⋮ ⎟ . . . (−1)i+j ⋅ det ⎜ ⋮ ⋱ ⋮ ⎟ ⎟
⎝ ⎝ bi2 . . . bin ⎠ ⎝ bij . . . bij ⎠ ⎠

Considerando el producto
⎛ a11 a12 a13 . . . a1n ⎞ ⎛ A11 A21 A31 . . . An1 ⎞
⎜ a21 a22 a23 . . . a2n ⎟ ⎜ A12 A22 A32 . . . An2 ⎟
P = A ⋅ adj(A) = ⎜ ⎟⋅⎜ ⎟
⎜ ⋮ ⋱ ⋮ ⎟ ⎜ ⋮ ⋱ ⋮ ⎟
⎝ an1 an2 an3 . . . ann ⎠ ⎝ A1n A2n A3n . . . Ann ⎠

Si i = j entonces,

n
pjj = aj1 ⋅ Aj1 + aj2 ⋅ Aj2 + . . . + ajn ⋅ Ajn = ∑ ajk Ajk = det(A)
1

Si i ≠ j entonces,

pij = ai1 ⋅ Aj1 + ai2 ⋅ Aj2 + . . . + ain ⋅ Ajn

Para este caso pij = 0 ya que corresponde al determinante de una matriz con filas repetidas
(filas L.D ).

⎛ det(A) 0 0 ... 0 ⎞ ⎛ 1 0 0 ... 0 ⎞


⎜ 0 det(A) 0 . . . 0 ⎟ ⎜ 0 1 0 ... 0 ⎟
A ⋅ adj(A) = ⎜ ⎟ = det(A) ⎜ ⎟
⎜ ⋮ ⋱ ⋮ ⎟ ⎜ ⋮ ⋱ ⋮ ⎟
⎝ 0 0 0 . . . det(A) ⎠ ⎝ 0 0 0 ... 1 ⎠

Por lo tanto, A ⋅ adj(A) es una matriz diagonal y se tiene que:

A ⋅ adj(A) = det(A) ⋅ Inn

A−1 [A ⋅ adj(A)] = A−1 ⋅ det(A)


35

adj(A)
A−1 =
det(A)

Teorema 2.6.1 Una matriz A ∈ Mnn (K) es invertible si y sólo si det(A) ≠ 0

Ejemplo :
⎛ 1 3 5 ⎞
Invertir (si es posible) la matriz A = ⎜ 2 1 8 ⎟
⎝ 3 1 4 ⎠

det(A) = 39

T
⎛ 1 8 2 8 2 1 ⎞
⎜ det ( ) −det ( ) det ( ) ⎟
⎜ 1 4 3 4 3 1 ⎟ T
⎜ ⎟ ⎛ −30 −16 −1 ⎞
⎜ 3 5 1 5 1 3 ⎟
adj(A) = ⎜ −det ( ) det ( ) −det ( ) ⎟ = ⎜ −7 −11 8 ⎟
⎜ 1 4 3 4 3 1 ⎟ ⎝ 19



⎟ 2 −5 ⎠
⎜ 3 5 1 5 1 3 ⎟
det ( ) −det ( ) det ( )
⎝ 1 8 2 8 2 1 ⎠

⎛ −30 −7 19 ⎞
adj(A) = ⎜ −16 −11 2 ⎟
⎝ −1 8 −5 ⎠

−30 −7 19
⎛ ⎞
⎜ 39 39 39 ⎟
⎜ ⎟
⎜ ⎟
adj(A) ⎜ −16 −11 2 ⎟
A = =⎜ ⎟
det(A) ⎜ 39 ⎟
−1
⎜ 39 39 ⎟
⎜ ⎟
⎜ ⎟
⎜ −1 8 −5 ⎟
⎝ ⎠
39 39 39

2.6.3. Teorema de Cayley-Hamilton

A partir de la definición de polinomio caracterı́stico de una matriz, se puede enunciar el


teorema de Cayley-Hamilton :
36 Matrices

Teorema 2.6.2 Toda matriz cuadrada es raı́z de su polinomio caracterı́stico que se


define pA (λ) = det(A − λI)
Es decir, A + an−1 An−1 + . . . + a1 A + a0 I = 0
Sea la matriz A ∈ Mnn (K). Entonces por definición de polinomio caracterı́stico se tiene:

p(λ) = det(A − λInn ) = λn + an−1 λn−1 + . . . + a1 λ + a0

Sustituyendo λ por la matriz A e igualando a cero se tiene que:

p(A) = An + an−1 An−1 + . . . + a1 A + a0 ) = 0(x)

Ejemplo :
1 2
A3×2 = ( )
3 4

1−λ 2
p(λ) = det(A − λI) = det ( ) = (1 − λ)(4 − λ) − 6 = λ2 − 5λ − 2
3 4−λ

Luego, λ2 − 5λ − 2 = 0

Reemplazando λ por la matriz A e igualando a cero

A2 − 5A − 2I = 0

7 10 5 10 2 0 0 0
( )−( )−( )=( )
15 22 15 20 0 2 0 0

Se comprueba que:

7−5−2 10 − 10 0 0
( )=( )
15 − 15 22 − 20 − 2 0 0

Aplicando el teorema de Cayley-Hamilton para invertir la matriz del ejemplo anterior se


tiene que para el polinomio caracterı́stico 1
p(λ) = λ2 − 5λ − 2 si λ = 0 entonces, ∣det(A)∣ = ∣ − 2∣
El polinomio caracterı́stico de una matriz corresponde a p(λ) = λn + an−1 λn−1 + . . . + a1 λ + a0 mientras
1

que la ecuación caracterı́stica corresponde al polinomio λn + an−1 λn−1 + . . . + a1 λ + a0 = 0


37

Luego, a partir de A2 − 5A − 2I = 0 se puede formar la expresión A − 5I − 2A−1 = 0

En consecuencia,
A − 5I
A−1 =
2
1 2 5 0
( )−( )
3 4 0 5
A =
−1
2
−4 2
( )
3 −1
A−1 =
2

⎛ −2 1 ⎞
A−1 = ⎜ ⎟
⎜ 3 −1 ⎟
⎝ ⎠
2 2
Comprobando,
⎛ −2 1 ⎞
1 2 ⎟=( 1 0 )
( )⋅⎜

3 4 3 −1 ⎟ 0 1
⎝ ⎠
2 2

2.7. Equivalencia por Filas de una Matriz

Sea AP ×Q definimos el espacio fila de A como el subespacio KQ /K generado por sus filas
leı́das como n-tuplas .

Ejemplo :
⎛ 1 2 ⎞
A3×2 = ⎜ 3 5 ⎟
⎝ 1 8 ⎠

El espacio fila de A equivale a lin(A) = {(1, 2), (3, 5), (1, 8)} ∈ R2 /R y es L.D.
La dimensión del espacio fila se denomina rango por filas .
38 Matrices

2.8. Valores y Vectores Propios


Para una matriz de n × n. A partir del polinomio caracterı́stico se obtiene un valor λ que
corresponde a las soluciones del polinomio caracterı́stico tal.
A partir de los valores propios se obtiene un vector propio asociado de la forma
⎛ λ±a ⎞
⎜ λ±b ⎟
⎜ ⎟
⎜ λ±c ⎟
⎜ ⎟
⎜ ⎟
⎜ ... ⎟
⎝ λ±z ⎠

Ejemplo :
4 −5
Sea A = ( )
2 −3

El polinomio caracterı́stico corresponde a


4−λ −5
P (λ) = A = ( ) = (4 − λ)(−3 − λ) + 10 = −(4 − λ)(3 + λ) + 10 = 0
2 −3 − λ
P (λ) = −(12 + λ − λ2 ) + 10 = λ2 − λ − 2 = (λ − 2)(λ + 1)

Los valores propios son:


λ1 = 2 con multiplicidad algebraica igual a 1
λ2 = −1 con multiplicidad algebraica igual a 1

El vector propio se obtiene a partir de


x 0
(A − λI) ⋅ ( )=( )
y 0

Para λ1 se obtiene el vector propio


x 2 5 x 0
(A − λI) ⋅ ( )=( ) ⋅ ( )( )
y 2 −1 y 0
2x + 5y = 0

2x − y = 0
39

0
⇒ y = 0 ∧ x = 0 ⇒ v⃗λ1 = ( )
0

Propuesto : Resolver para λ2


Capı́tulo 3

Sistemas de Ecuaciones Lineales

3.1. Notación Matricial de un Sistema de Ecuaciones

Un sistema de ecuaciones tiene una notación de la forma:

a11 x1 + a12 y1 + ... + a1n z1 = b1


a21 x2 + a22 y2 + ... + a2n z2 = b2
⋮ ⋱ ⋮
am1 xm + am2 ym + ... + amn zm = bm

La notación matricial de esta forma es:

⎛ a11 a12 ⋯ a1n ⎞ ⎛ x ⎞ ⎛ b1 ⎞


⎜ a21 a22 ⋯ a2n ⎟ ⎜ y ⎟ ⎜ b2 ⎟
⎜ ⎟⋅⎜ ⎟=⎜ ⎟
⎜ ⋮ ⋮ ⋱ ⋮ ⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎝ am1 am2 ⋯ amn ⎠ ⎝ z ⎠ ⎝ bm ⎠

Esto último se puede expresar como A ⋅ x⃗ = ⃗b.


De esta forma, aplicando operaciones elementales se puede resolver un sistema de ecua-
ciones ya que mediante esta operación se puede despejar una componente (o incógnita)
y también se pueden encontrar incompatibilidades determinando los tipos de solución
encontrando filas L.D .
42 Sistemas de Ecuaciones Lineales

Ejemplo :

x + y = 3
2x + 2y = 6

La notación matricial es:

1 1 x 3
( )⋅( )=( )
2 2 y 6

Para la matriz A se obtiene:

1 1 e21 (−2) 1 1
( ) ↝ ( )
2 2 0 0

Con esto se obtiene:

1 1 x 3
( )⋅( )=( )
0 0 y 6

⇒ x + y = 3, 0 = 6

Por lo tanto el sistema es incompatible y no hay solución.

Otra forma de saber las soluciones o si existe solución es usando el determinante de la


matriz

1 1
det ( )=1⋅2−2⋅1=0
2 2

Si el determinante es cero entonces hay filas L.D y no se puede determinar la solución.

3.1.1. Rango por Filas

Definiendo r = rango y n = número de incógnitas. El rango por filas de una matriz corre-
sponde al número de filas L.I que contiene. Se determina escalonando la matriz y según
el número de filas L.I que se encuentren se dan los siguientes casos:
43

1. Solución única: Si y sólo si existe un vector c⃗ que es solución del sistema.

Ejemplo :
3x + y = 5
5x + 2y = 8

Como se señaló, si la solución es única se debe buscar un vector solución c⃗. Para
esto se puede obtener [I ∣ c⃗]. Es decir, se obtiene x = c1 , y = c2 , . . . , z = cn

3 1 5 e1 ( 31 ) 1 31 53 e2 (−5) 1 1 5 e12 (−1) 1 0 2 e2 (3)


( ) ↝ ( ) ↝ ( 3
1
3 ) ↝ ( ) ↝
5 2 8 5 2 8 0 3
−1
3 0 13 −1
3

1 0 2
( )
0 1 −1
x 2
( )=( )
y −1

2. Infinitas soluciones: Si se da el caso de que se pueda formar uno o más pivotes


irreparables, vale decir, una fila que inevitablemente contendrá al 0⃗ entonces el
rango de la matriz será menor a la cantidad de filas y para esta situación se tiene
que r < n

Ejemplo :
x + 2y − 3z = 6
2x − y + 4z = 2
4x + 3y − 2z = 14

Para desarrollar esto se escalona el sistema A ⋅ x⃗ = ⃗b y se obtiene [A ∣ ⃗b]

⎛ 1 2 −3 6 ⎞ e21 (−2) ⎛ 1 2 −3 6 ⎞ e31 (−4)


⎜ 2 −1 4 2 ⎟ ↝ ⎜ 0 −5 10 −10 ⎟ ↝
⎝ 4 3 −2 14 ⎠ ⎝ 4 3 −2 14 ⎠

⎛ 1 2 −3 6 ⎞ e32 (−1) ⎛ 1 2 −3 6 ⎞
⎜ 0 −5 10 −10 ⎟ ↝ ⎜ 0 −5 10 −10 ⎟
⎝ 0 −5 10 −10 ⎠ ⎝ 0 0 0 0 ⎠

Entonces, r = 2, n = 3 ⇒ r < n y las soluciones son infinitas.


44 Sistemas de Ecuaciones Lineales

3. No hay solución: Si el sistema es incompatible y esto se puede verificar luego de


escalonar o directamente.

Ejemplo :
x + 2y = 6
2x + 4y = 2

1 2 6 e21 (−1) 1 2 6
( ) ↝ ( )
2 4 2 1 2 −4
1 2 x 6
⇒( )⋅( )=( ) ⇒ x + 2y = 6 ∧ x + 2y = −4 ⇒ C
1 2 y −4

3.2. Algoritmo tipo solución


Para el sistem A ⋅ x⃗ = ⃗b si r = n entonces hay solución única y si r < n ∃ ∞ soluciones.
Para determinar las soluciones de un sistema de puede realizar lo siguiente:

1. Definir la matriz ampliada [A∣I]

2. Escalonar y obtener el rango.

3. Si se obtiene [0M ∣c] ∀ c ≠ 0 entonces el sistema es incompatible.

4. En caso de que no ocurra lo señalado en el punto (3) entonces se tienen dos casos
posibles: r = n ∨ r < n
Para r = n existen soluciones particulares y una solución general.

3.3. Soluciones de un S.E.L

3.3.1. Solución general de un S.E.L


El conjunto de todas las soluciones particulares del S.E.L A ⋅ x⃗ = ⃗b corresponde a la
solución general del sistema.

Ejemplos :
45

x + y + z = 0
1.
2x + 3y − z = 4

De la ecuación (1) se obtiene z = −x − y


4 − 3x 3x
Reemplazando en (2) se obtiene 3x + 4y = 4 ⇒ y = =1−
4 4

⎛ x ⎞
⎛ x ⎞ ⎜ ⎟
La solución general será ⎜ y ⎟ = ⎜ 1 − 3x ⎟
⎝ z ⎠ ⎜ ⎟
4
⎝ −1 − x4 ⎠

x + 2y − 3z = 6
2. 2x − y + 4z = 2
4x + 3y − 2z = 14

La matriz aumentada queda:

⎛ 1 2 −3 6 ⎞ e21 (−2) ⎛ 1 2 −3 6 ⎞ e31 (−4) ⎛ 1 2 −3 6 ⎞ e32 (−1)


⎜ 2 −1 4 2 ⎟ ↝ ⎜ 0 −5 10 −10 ⎟ ↝ ⎜ 0 −5 10 −10 ⎟ ↝
⎝ 4 3 −2 14 ⎠ ⎝ 4 3 −2 14 ⎠ ⎝ 0 −5 10 −10 ⎠

⎛ 1 2 −3 6 ⎞
⎜ 0 −5 10 −10 ⎟
⎝ 0 0 0 0 ⎠

La variable libre es z por lo que despejando se obtiene:


x = 6 − 2y + 3z
y= −10−10z
−5 = 2 + 2z
x=2−z

La solución general del sistema es:


⎧ ⎫

⎪⎛ ⎞
⎪ x ⎛ x ⎞ ⎛ 2−z ⎞ ⎛ 2 ⎞ ⎛ −1 ⎞⎪


S = ⎨⎜ y ⎟ ∈ R / ⎜ y ⎟ = ⎜ 2 + 2z ⎟ = ⎜ 2 ⎟ + z ⋅ ⎜ 2 ⎟⎬
3

⎪ ⎝ 1 ⎠⎪⎪
⎩⎝ z ⎠
⎪ ⎝ z ⎠ ⎝ z ⎠ ⎝ 0 ⎠ ⎪

46 Sistemas de Ecuaciones Lineales

3.3.2. Solución Particular de un S.E.L

Las soluciones particulares son todos los valores que se admiten en la solución general.
Para el caso anterior una solución particular está dada por un valor de x que este definido
en las componentes (x, y, z).
⎛ 0 ⎞
El ejemplo anterior admite, entre otros valores, x = 0 tal que x⃗1 = ⎜ 1 ⎟ y x = 1 tal que
⎝ −1 ⎠
⎛ 1 ⎞
⎜ 1 ⎟
x⃗1 = ⎜ 4 ⎟
⎜ ⎟
⎝ −5 ⎠
4

Estos valores corresponden a soluciones particulares del sistema y existen tantas soluciones
como valores que no indefinan las ecuaciones dadas.

3.4. Sistemas Homogéneos

Para un sistema de la forma A ⋅ x⃗ = ⃗b si se cumple que ⃗b = ⃗0 se tiene A ⋅ x⃗ = 0⃗ y entonces


el sistema será homogeneo. Entonces, todo sistema homogéneo tiene como solución x1 =
0, x2 = 0, x3 = 0, . . . , xn = 0.
Si las filas de A son L.I , es decir det(A) ≠ 0, entonces el sistema admite otras soluciones.

Teorema 3.4.1 La solución de un sistemas homogéneo es s.e.v en Kn . Si llamamos S al


conjunto solución de A ⋅ x⃗ = ⃗b entonces:
1. 0⃗ ∈ S
2. a⃗, ⃗b ∈ S ⇒ (⃗
a ⊕ ⃗b) ∈ S
3. c⃗ ∈ S ⇒ α⃗
c∈S
47

3.5. Formas de Resolución

3.5.1. Método de Gauss


Si el sistema A ⋅ x⃗ = ⃗b es un S.E.L compatible y tiene tantas ecuaciones como incógnitas,
es decir que tiene solución única se tienen la siguiente implicancia: Las filas de la matriz
A son L.I ⇒ det(A) ≠ 0
Dadas estas condiciones se puede invertir la matriz A y se obtiene:

A ⋅ x⃗ = ⃗b

A−1 A ⋅ x⃗ = A−1⃗b

x⃗ = A−1⃗b

Otra forma de obtener la solución es de la siguiente forma:

1. Se escribe la matriz aumentada [A∣⃗b]

2. Se aplican operaciones elementales hasta obtener [I∣⃗


c]

3. x⃗ = c⃗ es la solución del sistema.

Ejemplo :
Obtener las soluciones para el sistema:
1 1 1
+ + = 10
x y z

2 3 4
− − = −22
x y z

3 2 1
+ − = −12
x y z

Primero, se puede aplicar un cambio de variable para simplificar la resolución:


1 1 1
Sea = x′ , = y′, = z′
x y z
48 Sistemas de Ecuaciones Lineales

x′ + y′ + z′ = 10
2x′ − 3y ′ − 4z ′ = −22
3x′ + 2y ′ − z′ = −12

Luego, la notación matricial corresponde a:


⎛ 1 1 1 10 ⎞ e21 (−2) ⎛ 1 1 1 10 ⎞ e31 (−3)
⎜ 2 −3 −4 −22 ⎟ ↝ ⎜ 0 −5 −6 −42 ⎟ ↝
⎝ 3 2 −1 −12 ⎠ ⎝ 3 2 −1 −12 ⎠

⎛ 1 1 1 10 ⎞ e21 (−5) ⎛ 1 1 1 10 ⎞ 1
e2 ( 14 )
⎜ 0 −5 −6 −42 ⎟ ↝ ⎜ 0 0 14 168 ⎟ ↝
⎝ 0 −1 −4 −42 ⎠ ⎝ 0 −1 −4 −42 ⎠

⎛ 1 1 1 10 ⎞ e32 (4) ⎛ 1 1 1 10 ⎞ e3 (−1)


⎜ 0 0 1 12 ⎟ ↝ ⎜ 0 0 1 12 ⎟ ↝
⎝ 0 −1 −4 −42 ⎠ ⎝ 0 −1 0 6 ⎠

⎛ 1 1 1 10 ⎞ e3 (−1) ⎛ 1 1 0 −2 ⎞ e13 (−1)


⎜ 0 0 1 12 ⎟ ↝ ⎜ 0 0 1 12 ⎟ ↝
⎝ 0 1 0 −6 ⎠ ⎝ 0 1 0 −6 ⎠

⎛ 1 0 0 4 ⎞ e23
⎛ 1 0 0 4 ⎞
⎜ 0 0 1 12 ⎟ ↝ ⎜ 0 1 0 −6 ⎟
⎝ 0 1 0 −6 ⎠ ⎝ 0 0 1 12 ⎠

1 −1 1
Entonces, x′ = 4, y ′ = −6, z ′ = 12 ⇒ x = , y = , z=
4 6 12

3.5.2. Regla de Cramer


Tal como en el caso anterior se tiene que si el sistema A ⋅ x⃗ = ⃗b es un S.E.L compatible
y tiene tantas ecuaciones como incógnitas, es decir que tiene solución única se tienen la
siguiente implicancia: Las filas de la matriz A son L.I ⇒ det(A) ≠ 0
Dadas estas condiciones se puede invertir la matriz A y se obtiene:

A ⋅ x⃗ = ⃗b
A−1 A ⋅ x⃗ = A−1⃗b
49

x⃗ = A−1⃗b

Bajo estas condiciones la solución x⃗ = A−1⃗b se determina a partir de la matriz A−1 tal que:

adj(A)
A−1 =
det(A)

⎛ a11 a12 a13 . . . a1n ⎞


⎜ a a22 a23 . . . a2n ⎟
Sea la matriz A = ⎜ 21 ⎟
⎜ ⋮ ⋱ ⋮ ⎟
⎝ am1 am2 am3 . . . amn ⎠

T
⎛ A11 A12 A13 . . . A1n ⎞
⎜ A21 A22 A23 . . . A2n ⎟
⎜ ⎟
⎜ ⋮ ⋱ ⋮ ⎟
adj(A) ⎝ Am1 am2 Am3 . . . Amn ⎠
A−1 = =
det(A) det(A)

Se tiene que Aij = (−1)i+j ⋅ det(A′ ) siendo A′ la matriz resultante de aplicar el desarrollo
l.c j
de Laplace a la columna j. Es decir, A → aij ⋅ A′
En la matriz adjunta no se consideran los factores que ponderan a la matriz A′ .
Considerando la componente j-ésima de la ecuación anterior se obtiene:

⎛ b1 ⎞
⎜ b2 ⎟
⎜ ⎟
( Aj1 Aj2 Aj3 . . . Ajn )⋅⎜
⎜ b3 ⎟

⎜ ⋮ ⎟
⎜ ⎟
⎝ bn ⎠ Aj1 b1 + Aj2 b2 + Aj3 b3 + . . . + Ajn bn
x⃗j = =
det(A) det(A)
n
1
x⃗j = ∑ Ajn bn ⋅
1 det(A)

∆j
Entonces, x⃗j = con ∆j = det(A′′ ) siendo A′′ la matriz que se obtiene reemplazando la

columna j por el vector ⃗b, es decir:
50 Sistemas de Ecuaciones Lineales

⎛ a11 a12 a13 . . . a1n ⎞ ⎛ a11 a12 a13 . . . b1 ⎞


⎜ a a22 a23 . . . a2n ⎟ ⎜ a a22 a23 . . . b2 ⎟
A = ⎜ 21 ⎟ ⇒ A⃗′′b = ⎜ 21 ⎟
⎜ ⋮ ⋱ ⋮ ⎟ ⎜ ⋮ ⋱ ⋮ ⎟
⎝ am1 am2 am3 . . . amn ⎠ ⎝ am1 am2 am3 . . . bn ⎠

Ejemplo :

Resolver el sistema usando la Regla de Cramer

1 1 1
+ + = 5
x y z

2 3 4
− − = −11
x y z

3 2 1
+ − = −6
x y z

Como en el caso anterior se puede aplicar un cambio de variable para simplificar la res-
olución:

1 1 1
Sea = x′ , = y′, = z′
x y z

x′ + y′ + z′ = 5
2x′ − 3y ′ − 4z ′ = −11
3x′ + 2y ′ − z′ = −6

⎛ 5 1 1 ⎞
det ⎜ −11 −3 −4 ⎟
∆x ⎝ −6 2 −1 ⎠ 15 + 24 + (−22) − 18 − (−40) − 11 28
x′ = = = = =2
∆ ⎛ 1 1 1 ⎞ 3 + (−12) + 4 − (−9) − (−2) − (−8) 14
det ⎜ 2 −3 −4 ⎟
⎝ 3 2 −1 ⎠
1 1
⇒x= =
x′ 2
51

⎛ 1 5 1 ⎞
det ⎜ 2 −11 −4 ⎟
∆y ⎝ 3 −6 −1 ⎠ 15 + 24 + (−22) − 18 − (−40) − 11 −42
y′ = = = = = −3
∆ ⎛ 1 1 1 ⎞ 14 14
det ⎜ 2 −3 −4 ⎟
⎝ 3 2 −1 ⎠
1 −1
⇒y= =
y′ 3
⎛ 1 1 5 ⎞
det ⎜ 2 −3 −11 ⎟
∆y ⎝ 3 2 −6 ⎠ 18 + (−33) + 20 − (−45) − (−22) − (−12) 84
z′ = = = = =6
∆ ⎛ 1 1 1 ⎞ 14 14
det ⎜ 2 −3 −4 ⎟
⎝ 3 2 −1 ⎠
1 1
⇒z= =
z′ 6
Capı́tulo 4

Escalares, Vectores y Espacios


Vectoriales

4.1. Escalar
Se define escalar como toda maginitud que queda expresada cuando se conoce su mag-
nitud y la unidad de medición.
Ejemplos :

1. Masa: 50kg, 16oz

2. Temperatura: -6°C, 32°F, 273K

3. Tiempo: 5 segundos

4. Rapidez: 10 km/h, 36 m/s

5. Volumen: 4 m3

4.2. Vector
Se define vector como una magnitud que se define con tres propiedades que le son carac-
terı́sticas:
54 Escalares, Vectores y Espacios Vectoriales

1. Módulo: La longitud del vector (un


√ vector contiene un segmento). En este caso es
el segmento OA y corresponde a 32 + 42 .

2. Dirección: Recta que contiene al vector. En este caso el vector está contenido en la
4
recta de forma canónica y = x
3

3. Sentido: La orientación que toma el vector. En este caso es desde el punto (0,0)
hasta el punto (3,4) y se ubica en el cuadrante I). Por convenio se divide el plano
cartesiano en cuatro cuadrantes de la forma siguiente:

II) I)

III) IV)
55

Si no se especifican las 3 propiedades anteriores, el vector no está definido. Los vectores


se denotan a⃗, ⃗b, c⃗, ..., n
⃗ y su expresión en el plano es de la forma a
⃗ = {ax , ay , az , ..., an }.

Ejemplos :

1. Velocidad: Un móvil se mueve en uno o más ejes respecto de un centro de referencia.


La velocidad es la variación de distancia respecto del tiempo y puede tomar valores
negativos, no ası́ la rapidez que correponde al módulo de la velocidad.

2. Desplazamiento: Un móvil puede ir de A a B que no es lo mismo que de B a A.


Entonces, es importante especificar el sentido de la “flecha” que describe el vector
desplazamiento.

3. Aceleración: Dependiendo del sentido una fuerza puede acelerar o desacelerar un


móvil por lo que el módulo por si sólo no define la aceleración.

Los vectores de la figura son todos de igual módulo pero su dirección y sentido no son
iguales. Por esto que es importante definir que un vector se define mediante estas tres
propiedades.
56 Escalares, Vectores y Espacios Vectoriales

Los vectores son n-dimensionales , es decir, están contenidos en planos en Kn (K puede ser
R ó C) pero por razones geométricas (no es posible graficar en más de tres dimensiones)
todo vector en el espacio está contenido en planos en R2 ó R3 .
Todo vector en Kn se denota a ⃗ = (a1 , a2 , . . . , an ) y también se puede denotar en forma de
matriz . Un vector de n-componentes , en este caso 3, se denota mediante una matriz fila
como se vió en el capı́tulo 2 tal que:
⃗ ∈ R3 = ( ax ay az )
a

Para esclarecer aún más sirve como ejemplo el caso de un alumna que llamaremos Trixi
. El desplazamiento de su casa, que queda en Diagonal Paraguay, desde un punto A a la
Ð→
facultad ubicada en un punto B es el vector AB que no es lo mismo que el desplazamiento
Ð→
opuesto BA. Ambas distancias tienen igual módulo, misma dirección pero sentido inverso.
Mediante graficos esto queda expresado claramente en los ejes (x, y) y (x, y, z). Existen
muchos más ejemplos como el de la velocidad de una piedra que cae con móudulo igual a
su rapidez, dirección vertical y sentido hacia el centro de la tierra.

4.3. Espacio Vectorial


Sea V un conjunto de vectores {⃗ a, ⃗b, c⃗, ..., n
⃗ } dotado de una LCI ⊕ denominada suma y
que además este conjunto tiene estructura de grupo abeliano.
Sea además, K un conjunto de escalares {α, β, γ, ..., λ} dotado de dos LCI (+, ⋅) tal que
(K, +, ⋅) tiene estructura de cuerpo. Entonces, V/K es un ejjespacio vectorial.

4.4. Espacios Vectoriales Usuales

4.4.1. Espacio Vectorial R2 /R

Consideremos V = R2 = R × R = {(x, y)/x ∈ R ∧ y ∈ R} que corresponde a vectores pares


ordenados de números reales.

La suma en este caso se define:


⃗ = (x, y)
a
⃗ ⊕ ⃗b = (x, y) ⊕ (p, q) = (x + p, y + q)
⃗b = (p, q) } a
57

Con esta definición el neutro de la suma de vectores en R2 es:


0⃗ = (0, 0) En efecto, a
⃗ + 0⃗ = (x, y) + (0, 0) = (x + 0, y + 0) = (x, y)

Para el caso de un vector polinomio cabe señalar que el neutro no correponde al 0 sino al
p(x) = a + bx + cx2 + . . . + nxn
0(x), es decir: }
0(x) = 0 + 0x + 0x2 + . . . + 0xn

Para el cuerpo K tomamos el cuerpo (R, +, ⋅) y finalmente consideramos la LCE entre R


y R2 que se define:
R × R2 → R2

⃗) = (α(x, y)) → α⃗
(α, a a = α(x, y) = (αx, αy)

Demostración : R2 /R es un espacio vectorial


Se pueden verificar las propiedades ya señaladas de la LCE K × V:

a ⊕ ⃗b) = α⃗
1. α(⃗ a ⊕ α⃗b
a ⊕ ⃗b) = α[(x, y) ⊕ (p, q)]
En efecto, α(⃗
a ⊕ ⃗b) = α(x + p, y + q)
α(⃗
a ⊕ ⃗b) = (α(x + p), α(y + q))
α(⃗
a ⊕ ⃗b) = (αx + αp), αy + αq)
α(⃗
a ⊕ ⃗b) = (αx, αy) ⊕ (αp, αq)
α(⃗
a ⊕ ⃗b) = α(x, y) ⊕ α(p, q)
α(⃗
a ⊕ ⃗b) = α⃗
α(⃗ a ⊕ α⃗b

2. (α + β)⃗
a = α⃗
a ⊕ β⃗
a
En efecto,
(α + β)⃗
a = (α + β)(x, y)
(α + β)⃗
a = ((α + β)x , (α + β)y)
(α + β)⃗
a = (αx + βx , αy + βy)
(α + β)⃗
a = (αx, αy) + (βx + βy)
(α + β)⃗
a = α⃗
a + β⃗
a
58 Escalares, Vectores y Espacios Vectoriales

a) = (αβ)⃗
3. α(β⃗ a
En efecto,
a) = α(β(x, y))
α(β⃗
a) = α[(βx, βy)]
α(β⃗
a) = (αβx, αβy)
α(β⃗
a) = αβ(x, y)
α(β⃗


a=a
4. 1⃗
En efecto,
a = 1(x, y)
1⃗
a = (1x, 1y)
1⃗
a = (x, y)
1⃗

a=a
1⃗

Las propiedades se han verificado con pares ordenados de números reales por lo que se
demuestra que R2 /R es un espacio vectorial.
Observación : Aquı́ solo se ha demostrado un caso particular. La demostración es válida
para R2 /R y no para cualquier espacio vectorial que puede ser R3 /R, Rn /R, etc.

4.4.2. Rn /R
n−veces
³¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ·¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ µ
Corresponde a: Rn /R = (R × R × R × . . . × R)
Todo vector en Rn /R se denota x⃗ = {(x1 , x2 , x3 , . . . , xn )/xj ∈ R ∀j = {1, 2, 3, . . . , n}}

La suma en este espacio es análoga al caso de pares ordenados, es decir:


x⃗ ⊕ y⃗ = (x1 , x2 , x3 , . . . , xn ) ⊕ (y1 , y2 , y3 , . . . , yn ) = (x1 + y1 , x2 + y2 , x3 + y3 , . . . , xn + yn )

La ponderación por escalar también es análoga al caso de pares ordenados, se cumple:


x = α(x1 , x2 , x3 , . . . , xn ) = (αx1 , αx2 , αx3 , . . . , αxn )
α⃗

Observación : Los vectores en Rn /R se denominan n-tuplas


59

4.4.3. Rn [x]/R (Polinomios reales de grado n sobre R)


Corresponde a :
Rn [x] /R = {⃗
p(x) = a0 + a1 x + a2 x2 + . . . + an xn /aj ∈ R ∀j = {(1, 2, 3, . . . , n}}
²
pol

La suma en este espacio es análoga al caso de pares ordenados, es decir:


p ⊕ q⃗)(x) = (a0 + a1 x + a2 x2 + . . . + an xn ) ⊕ (b0 + b1 x + b2 x2 + . . . + bn xn )
(⃗
p ⊕ q⃗)(x) = (a0 + b0 ) + (a1 x + b1 x) + (a2 x2 + b2 x2 ) + . . . + (an xn + bn xn )
(⃗

La ponderación por escalar en este espacio es análoga al caso de pares ordenados, es decir:
p(x) = α ⋅ p⃗(x) = α(a0 + a1 x + a2 x2 + . . . + an xn )
α⃗
p(x) = αa0 + αa1 x + αa2 x2 + . . . + αan xn
α⃗

El neutro para este espacio corresponde a 0(x), es decir: 0 + 0x + 0x2 + . . . + 0xn


Observaciones :

1. 0(x) numéricamente es cero pero conceptualmente es un polinomio.

2. n indica el grado mayor de un polinomio, de esta forma un espacio de orden n


contiene todos los polimios de grado ≤ n.

3. Un polinomio se puede expresar como n-tupla, ejemplo: 2 + 3x + 4x2 → (2, 3, 4)

4.4.4. C[a, b] (Funciones reales continuas sobre [a, b])


ÐÐ→ Ð

Suma de vectores: f + g(x) = f (x) + Ð→g (x)
Ð→ Ð

Ponderación por escalar: (αf )(x) = α ⋅ f (x)
Ð

Elemento neutro: 0 (x) = 0 ∀x ∈ [a, b]

4.5. Base de V/K


Sea V/K un espacio vectorial, entonces el conjunto A = {⃗ ⃗2 , a
a1 , a ⃗3 , . . . , a
⃗n } es una base de
V/K si y sólo si:
60 Escalares, Vectores y Espacios Vectoriales

1. A es linealmente independiente

2. lin(A) = V/K

Cuando se cumplen ambas condiciones A es un conjunto libre (linealmente independiente)


y generador , es decir que con combinaciones lineales de A se puede formar cualquier vector
de V/K.
Ejemplo :
E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es una base de R3 /R

1. E es linealmente independiente.
En efecto, α(1, 0, 0) + β(0, 1, 0) + γ(0, 0, 1) = (0, 0, 0)
⇒ (α, 0, 0) + (0, β, 0) + (0, 0, γ) = (0, 0, 0)
⇒α=β=γ=0

2. E es generador de R3 /R
En efecto, sea (x, y, z) cualquier vector de R3 /R se cumple que:
(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)
(x, y, z) = (x, 0, 0) + (0, y, 0) + (0, 0, z)
(x, y, z) = (x, y, z)
⇒ (x, y, z) ∈ lin(E) ∀(x, y, z) ∈ R3

4.5.1. Bases Canónicas


Se define base canónica como toda base formada únicamente por vectores unitarios tal
que solo una de las componentes de cada vector es no nula e igual a 1. Para toda base
canónica se cumple lo siguiente:
0 si i ≠ j
Sea c⃗i el i-ésimo vector canónico, necesariamente c⃗i { Siendo j la componente
1 si i = j
j-ésima del vector i-ésimo . Es decir, cuando la componente tiene la misma cardinalidad
que el vector entonces la componente toma el valor 1.
Para el caso de un vector polinomio la base canónica se define: E = {1, x, x2 , . . . , xn }
61

4.6. Dimensión de V/K


Sea V/K un espacio vectorial, entonces todas las bases de V/K tienen la misma cardinal-
idad.
Se define dimensión del espacio V/K a la cardinalidad de sus bases. De este concepto
surge el de vector de coordenadas de x⃗ que se define:

4.7. Vector de Coordenadas de x⃗


Sea A = {⃗ ⃗2 , a
a1 , a ⃗3 , . . . , a
⃗n } y x⃗ ∈ V cualquier vector. Entonces se puede expresar x⃗ de la
forma: n
x⃗ = α1 a
⃗1 + α2 a
⃗ 2 + α3 a
⃗3 + . . . + αn a
⃗n = ∑ αk x⃗k
k=1

Es decir, x⃗ se puede formar a partir de una combinación lineal de vectores del conjunto
al que pertenece.
El vector de coordenadas de x⃗ con respecto a la base A corresponde a la n-tupla:
⎡ α1 ⎤
⎢ ⎥
⎢ α2 ⎥
⎢ ⎥
⎢ ⎥
x]A = ⎢ α3 ⎥
[⃗
⎢ ⎥
⎢ ⋮ ⎥
⎢ ⎥
⎢ α ⎥
⎣ n ⎦

Ejemplo :

1. En R3 /R sea la base D = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} y el vector x⃗ = (2, 8, 5)
Se tiene que x⃗ = −6(1, 0, 0) + 3(1, 1, 0) + 5(1, 1, 1)
⎡ −6 ⎤
⎢ ⎥
⎢ ⎥
x]D = ⎢ 3 ⎥
Por lo tanto el vector de coordenadas corresponde a: [⃗
⎢ ⎥
⎢ 5 ⎥
⎣ ⎦
2. Determine base y dimension para W1 ∩ W2 si
W1 = {(x, y, z, w) ∈ R4 /x + y − w = 0}
W2 = {(x, y, z, w) ∈ R4 /x − w = 0}

Sea u⃗ ∈ W1 ∩ W2 tal que:


62 Escalares, Vectores y Espacios Vectoriales

a + b −d = 0
a −d 0
⇒a+b−d=0∧b=0
⇒a=d
u⃗ = (a, b, c, d) = (a, 0, c, a) = a(1, 0, 0, 1) + c(0, 0, 1, 0)
u⃗ es generado por {(1, 0, 0, 1), (0, 0, 1, 0)} que es linealmente independiente
∴ {(1, 0, 0, 1), (0, 0, 1, 0)} es base de dimensión (cardinalidad) 2 de W1 ∩ W2

4.8. Subespacio Vectorial


Sea V/K un espacio vectorial y W ⊆ V tal que W ≠ φ. Entonces W/K es un s.e.v. de V/K
si y sólo si cumple con el teorema de caracterización:

Teorema 4.8.1 W ⊆ V es s.e.v. de V/K si y sólo si:


Ð

1. 0 ∈ W lo cual comprueba que W ≠ φ
Ð→ Ð
→ Ð→
2. (Ð→
a , b ) ∈ W ⇒ (Ð

a ⊕ b ) ∈ W ∀(Ð →
a , b ) ∈ W, α ∈ K
Ð→
3. Ð
→a ∈ W ⇒ αÐ →
a ∈ W ∀(Ð →a , b ) ∈ W, α ∈ K
Ejemplo :

En R2 /R sea W ⊆ R2 [x]/W = {p(x) = a + bx + cx2 , p(1) = 0}


Probar que W/R es un s.e.v. de R2 [x]/R

Ð
→ Ð

1. Sea 0 (x) = 0 + 0x + 0x2 tenemos que 0 (x)∣x=1 = 0 + 0 ⋅ 1 + 0 ⋅ 12 = 0
Ð

⇒ 0 (x) ∈ W ⇒ W ≠ φ
Ð

p (x) = a + bx + cx2
2. Sean Ð → } ∈W⇒Ð →
p (1) + Ð→
q (1) = 0
q (x) = d + ex + f x2
ÐÐÐ→
Entonces, (p + q)(x) = Ð→p (x) + Ð→
q (x)
ÐÐÐ→ ÐÐÐ→
Por lo tanto (p + q)(1) = Ð→p (1) + Ð

q (1) = 0 + 0 = 0 ⇒ (p + q)(x) ∈ W
63

3. Sea Ð

p x = a + bx + cx2 ∈ W ⇒ p(1) = 0 y además α ∈ R
Entonces, (αÐ→p )(x) = α ⋅ Ð

p (x)
(αÐ

p )(1) = α ⋅ Ð

p (1) = α ⋅ 0 = 0
⇒ (α ⋅ Ð

p ∈ W)

∴W es un s.e.v

4.8.1. Combinación Lineal


Sea A = {x1 , x2 , x3 , . . . , xn } ⊆ V/K que puede ser un conjunto de caracter finito o infinito.
Una combinación lineal de A es todo vector de la forma:
n
⃗ = ∑ αj x⃗j a
a ⃗ = lin(A)
k=1

El concepto de combinación lineal lleva al concepto de independencia lineal que se define


como sigue:

4.8.2. Independencia Lineal de un Conjunto


Sea A = {x1 , x2 , x3 , . . . , xn } ⊆ V/K, se cumple que A es linealmente independiente si y sólo
si:

n
⃗ = ∑ αk x⃗k = 0⃗ ⇒ (α1 = α2 = α3 = . . . = αn = 0)
a
k=1

Es decir, A es un conjunto linealmente independiente cuando la única forma de obtener


una combinación lineal nula es que todos los escalares de la combinación sean 0. Si esto
no se cumple, entonces el conjunto necesariamente es linealmente dependiente.
Ejemplos :

1. Verificar que (3, 25 ) es combinación lineal de A = {(1, 0), (0, 2)}


5
En efecto, α(1, 0) + β(0, 2) = (3, )
2
5
(α, 2β) = (3, )
2
64 Escalares, Vectores y Espacios Vectoriales

α = 3
5
2β =
2
5
⇒ α = 3, β =
4
∴ es combinación lineal de A

2. Demostrar que B = A − {⃗
aj } con (A, B) ⊆ V/K es un conjunto linealmente dependi-
ente.
⃗j ∈ V/K ⇒ a
En efecto, a ⃗j ∈ lin(B)

n
⃗j = ∑ αk x⃗k ⇒ a
a ⃗j = α1 a
⃗1 + α2 a
⃗2 + α3 a
⃗3 + . . . + αj−1 a
⃗j−1 + αj+1 a
⃗j+1 + . . . + αn a
⃗n
k=1,k≠j

0⃗ = α1 a
⃗ 1 + α2 a ⃗j−1 − a
⃗3 + . . . + αj−1 a
⃗ 2 + α3 a ⃗j a ⃗j+1 + . . . + αn⃗
⃗j + αj+1 a an

⃗j está ponderado por


La combinación lineal nula es linealmente dependiente ya que a
−1.

4.9. Operatoria Vectorial

4.9.1. Suma de Vectores


Dados dos o más vectores estos se pueden sumar directamente. Para el caso de dos vec-
tores a ⃗ = (x1 , y1 ) , ⃗b = (x2 , y2 ) estos se suman componente a componente1 , es decir
⃗ + ⃗b = (x1 + x2 , y1 + y2 ). Ası́ se establece la regla del paralelogramo que define que para
a
sumar dos vectores cualquiera se debe hacer lo siguiente:

⃗ y ⃗b para obtener a
1. Dados a ⃗ + ⃗b se dibuja ⃗b a continuación de a
⃗.

2. Ambos vectores se trasladan hasta completar un paralelogramo.


Componente de un vector: La componente de un vector es la proyección de un vector sobre uno de
1

los ejes en que está contenido, es decir es el valor que el vector tiene en un éje.
Ejemplo : a ⃗ = (3, 2) ⇒ a⃗∣x = 3 (componente x) y a ⃗∣y = 2 (componente y)
65

⃗ hasta el final de ⃗b es a
3. El vector que va desde el inicio de a ⃗ + ⃗b. Una consecuencia
importante de esto es que la suma de vectores no es conmutativa ya que invertir el
orden de la suma invierte el sentido del vector resultante.

y z

a
b'
a+b
a'
a a+b

b
y
x x b

En caso de tener dos o más vectores sumados se hace de la misma manera. Para el caso
del paralelogramo deberı́an sumarse los vectores de a pares para ası́ poder formar el
paralelogramo y no otra figura. En forma álgebraica la suma de n-vectores no presenta
diferencia con la suma de dos vectores. Es importante señalar que la suma de vectores
está definida solo cuando se aplica a vectores de igual número de componentes.
De otra forma, se pueden sumar vectores mediante la regla del triángulo que consiste
en copiar el vector que se suma a continuación de otro y el vector resultante va desde el
origen del primer vector hasta el final del vector sumado.

a+b
66 Escalares, Vectores y Espacios Vectoriales

Resta de Vectores

Como tal la resta de vectores no existe. La “resta” de vectores consiste en sumar el inverso
de un vector a otro.

⃗ = (4, 2) , ⃗b = (−2, 1) , c⃗ = (−1, 0) , d⃗ = (3, −8) , e⃗ = (−2, −7)


Ejemplos : Dados a

⃗ + ⃗b = (2, 3)
1. a
⃗ − c⃗ = a
2. a ⃗ + (−⃗
c) = (4, 2) + [−(−1, 0)] = (4, 2) + (1, 0) = (5, 2)
⃗ + ⃗b + c⃗ + d⃗ + e⃗ = ([4 − 2 − 1 + 3 − 2], [2 + 1 + 0 − 8 − 7]) = (2, −12)
3. a
⃗ − ⃗b − c⃗ − d⃗ − e⃗ = ([−4 + 2 + 1 − 3 + 2], [−2 − 1 − 0 + 8 + 7]) = (−2, 12)
4. a
⃗ + ⃗b + d⃗ + c⃗ = ([4 − 2 + 3 − 1], [2 + 1 − 8 + 0]) = (4, −5)
5. a

4.9.2. Ponderación por Escalar


Dado un vector cualquiera ponderar por un escalar consiste en multiplicar todas las
componentes del vector por un mismo valor. De este modo si a ⃗ = (x, y, z) entonces,
a = (αx, αy, αz) tal que α puede alterar el módulo y el sentido del vector.
α⃗

⃗ = (1, 2, 4) , ⃗b = (−2, 0, 1) , c⃗ = (−4, 6, 3)


Ejemplos : Dados a

1 3
1. c⃗ = (−2, 3, )
2 2

a − c⃗ + 10⃗b = (2, 4, 8) + (4, −6, −3) + (−20, 0, 10) = (−12, −2, 15)
2. 2⃗

Si consideramos una LCE entre K y V de la forma:


K×V→V
⃗) → α⃗
(α, a a
⃗ ponderado por escalar α.
a es vector a
α⃗

Se cumple que:
67

a ⊕ ⃗b) = α⃗
1. α(⃗ a ⊕ α⃗b

2. (α + β)⃗
a = α⃗
a ⊕ β⃗
a

a) = (αβ)⃗
3. α(β⃗ a


a=a
4. 1⃗

Entonces la estructura (V, K, ⊕, +, ⋅, K × V) es un espacio vectorial.

Notación de espacio vectorial:


(V, K, ⊕, +, ⋅, K × V) ≡ V/K

4.9.3. Producto Cartesiano


Sean A, B conjuntos de vectores no vacı́os. Definimos el producto cartesiano de A, B como
el conjunto:
A × B = {(A, B)/a ∈ A ∧ b ∈ B}

Es decir, al efectuar producto cartesiano a dos conjuntos de vectores, se obtiene un


conjunto de combinaciones de vectores contenidos tanto en A como en B. Es importante
señalar que tal operación no contiene todas las combinaciones posibles ya que al efectuar
A × B se obtienen combinaciones de B sobre A y en otros casos es el segundo termino que
opera sobre el primero. Adicionalmente, el producto cartesiano se puede realizar entre
conjuntos de vectores de distinto número de componentes.
Ejemplos :

1. A = (1, 2) ∧ B = (α, β, γ)
A × B = {(1, α), (1, β), (1, γ), (2, α), (2, β), (2, γ)}

2. B × A = {(α, 1), (α, 2), (β, 1), (β, 2), (γ, 1), (γ, 2)}

3. A × A = {(1, 1), (1, 2), (2, 1), (2, 2)}

Por igualdad de pares ordenados:

(a, b) = (x, y) ⇔ (a = x) ∧ (b = y))

De lo anterior se tiene que A × B ≠ B × A


68 Escalares, Vectores y Espacios Vectoriales

4.9.4. Norma de un Vector


Dado un vector en Kn este cumple con las propiedades de un vector ya señaladas. Para
el caso de vectores de R2 y R3 se puede emplear el teorema de pitágoras para determinar
el módulo de un vector que en forma general se denomina norma . En todo espacio V/K
se puede definir una aplicación:

V → R+ ∪ {0}
⃗ → ∥⃗
a a∥

Esta aplicación cumple las siguiente propiedades:

1. ∥⃗
a∥ ≥ 0

2. ∥⃗ ⃗=0
a∥ = 0 ⇔ a

3. ∥α⃗ ⃗
a∥ = ∣α∣ ⋅ a

a + ⃗b∥ ≤ ∥⃗
4. ∥⃗ a∥ + ∥⃗b∥ (desigualdad triangular)

4.9.5. Normas en Rn /R
La norma de un vector se clasifica arbitrariamente asignando números:

1. Norma 1
n
∥⃗
a∥1 = ∥(a1 , a2 , a3 , . . . , an )∥1 = ∑ aj
k=1

2. Norma 2 (ó Norma Euclı́dea , esta es la que se usa comúnmente a menos que se
indique otra cosa)
n 1/2

∥⃗
a∥2 = [ ∑ ∣aj ∣ ]
2
= ∣a1 ∣2 + ∣a2 ∣2 + ∣a1 ∣3 + . . . + an ∣2
k=1

3. Norma 3
n 1/3

∥⃗
a∥3 = [ ∑ ∣aj ∣ ]
3
= 3
∣a1 ∣3 + ∣a2 ∣3 + ∣a1 ∣3 + . . . + an ∣3
k=1
69

4. Norma infinito (ó del supremo)

∥⃗
a∥∞ = sup{∣ak ∣}nk=1

Ejemplo :

∥(2, 8, 3, 0)∥∞ = 8

En efecto,

lı́m n
∣2∣n + ∣ − 8∣n + ∣3∣n
n→∞

¿
Á ∣2∣n + ∣ − 8∣n + ∣3∣n
lı́m Á
À
n
⋅ ∣ − 8∣n
n→∞ ∣ − 8∣n

¿
Á 1 n 3 n
Á
∣ − 8∣ ⋅ lı́m Á ∣ ∣ +∣1∣ + ∣ ∣
n
n→∞ ÁÀ
n
−4 −8
² ²
≈0 ≈0


∣ − 8∣ ⋅ lı́m n
∣1∣n = 8
n→∞

4.9.6. Ángulo Entre Vectores

⃗, ⃗b de este espacio se define


Dado un espacio vectorial V/K, el ángulo entre dos vectores a
según la relación:

<a ⃗, ⃗b >
a, ⃗b) =
cos∠(⃗
a∥ ⋅ ∥⃗b∥
∥⃗

Ejemplo en R2
70 Escalares, Vectores y Espacios Vectoriales

Para determinar el ángulo serı́a ası́:

< (2, [4 − 1]), (3, [3 − 1]) > 6+6 12


a, ⃗b) = √
cos∠(⃗ √ =√ √ =
22 + (4 − 1)2 ⋅ 32 + (3 − 1)2 13 ⋅ 13 13
12
Luego, el ángulo correspondiente es: arccos( 13 ) = 22○ 37′ 12′′

4.9.7. Producto Punto (ó Producto Interno)


Sea V/K un espacio vectorial . Se define el producto punto sobre V como cualquier
aplicación del tipo:
V×V→K
a, ⃗b) → < a
(⃗ ⃗, ⃗b > ∈ K ∀ a
⃗, ⃗b ∈ V

⃗, ⃗b > o en forma alternativa


Es una operación cuyo resultado es un escalar . Se denota < a
⃗ ● ⃗b
a

4.9.8. Propiedades del Producto Punto


El producto punto cumple lo siguiente:

1. Asociatividad: Si aparece una suma junto con el producto punto se puede asociar
respecto de la suma.
71

a) Para el caso de vectores:


⃗ + ⃗b, c⃗ >=< a
<a ⃗, c⃗ > + < ⃗b, c⃗ >

b) Para el caso de matrices (siempre y cuando las operaciones estén bien definidas):
< A + B, C >= tr(C T A) + tr(C T B)

c) Para el caso de polinomios:


< p(x) + q(x), r(x) >=< p(x), r(x) > + < q(x), r(x) >

d) Para el caso de funciones reales continuas en [a, b]


< f (x) + g(x), h(x) >=< f (x), h(x) > + < g(x), h(x) >

2. Distributividad: Si el producto punto se pondera por un escalar, este distribuye


respecto de cada término del producto punto

a) Para el caso de vectores:


α<a⃗, ⃗b >=< α⃗
a, ⃗b >=< a
⃗, α⃗b >

b) Para el caso de matrices (siempre y cuando las operaciones estén bien definidas):
α < A, B >= α ⋅ tr(B T A)

c) Para el caso de polinomios:


α < p(x), q(x) >=< αp(x), q(x) >=< p(x), αq(x) >

d) Para el caso de funciones reales continuas en [a, b]


α < f (x), g(x) >=< αf (x), g(x) >=< f (x), αg(x) >

3. Conmutatividad: En Rn el producto punto es conmutativo tal que:

a) Para el caso de vectores:


⃗, ⃗b >=< ⃗b, a
<a ⃗>

Para el caso de Cn se cumple que el producto punto es conmutativo respecto


de su conjugación, es decir, se cumple que:
<a⃗, ⃗b >= < ⃗b, a
⃗>
⃗ ● ⃗b = ⃗b ● a
a ⃗
72 Escalares, Vectores y Espacios Vectoriales

⃗, ⃗b >= 3 + 2i entonces, < ⃗b, a


Ejemplo en C : Si < a ⃗ >= 3 − 2i ⇔ < ⃗b, a
⃗ > = 3 + 2i

b) Para el caso de matrices (siempre y cuando las operaciones estén bien definidas):
< A, B >=< B, A >
tr(B T A) = tr(AT B)

c) Para el caso de polinomios:


< p(x), q(x) >=< q(x), p(x) >

d) Para el caso de funciones reales continuas en [a, b]


< f (x), g(x) >=< g(x), f (x) >

4. Otra propiedad, no menos importante, es que el producto punto es siempre mayor


⃗, ⃗b >≥ 0) y esto se cumple con todos los casos ya mencionados.
o igual a cero (< a

Ejemplo :
Demostrar que en M2×2 < A, A >= tr(AT A) es producto punto
Se debe demostrar que se cumplen las propiedades mencionadas

1. PD < A, A > ≥ 0
a11 a12 a a
Como < A, A >= ⟨( ) , ( 11 12 )⟩
a21 a22 a21 a22

Se tiene entonces que

a11 a12 a a
⟨( ) , ( 11 12 )⟩ = tr(AT A)
a21 a22 a21 a22

Luego,
⎛ a211 + a221 a11 a12 + a21 a22 ⎞
tr(AT A) = tr ⎜ ⎟ = a211 + a212 + a221 + a222
⎝ a11 a12 + a21 a22 a212 + a222 ⎠

En base a lo anterior se tienen dos casos,


73

a) (A ● A = 0) ⇔ (a211 + a212 + a221 + a222 = 0)


Es directo que si a11 = a12 = a21 = a22 = 0

b) (A ● A > 0) ⇔ (a11 2 + a212 + a221 + a222 > 0)

Esto implica que se debe demostrar lo siguiente:


0 0
A ● A > 0 ∀ M2×2 − {( )}
0 0

En efecto, si {a11 , a12 , a21 , a22 } ∈ R − {0}

⇒ (a211 + a212 + a221 + a222 ) > 0

⎛ a211 + a221 a11 a12 + a21 a22 ⎞


⇒ tr ⎜ + ⎟>0
⎝ a11 a12 + a21 a22 a212 + a222 ⎠

2. Conmutatividad
PD < A, A >=< A, A >

Es directo que se cumple la igualdad.

3. Distributividad
PD α < A, A >=< αA, A >=< A, αA >

⎛ a211 + a221 a11 a12 + a21 a22 ⎞


a) α < A, A >= α ⋅ tr ⎜ ⎟
⎝ a11 a12 + a21 a22 a12 + a22
2 2 ⎠

a11 a12 a a
b) < αA, A >= tr [α ( ) ( 11 12 )]
a21 a22 a21 a22
⎡ a211 + a221 a11 a12 + a21 a22 ⎞⎤⎥
⎢ ⎛
⎢ ⎥
< αA, A >= tr ⎢α ⎜ ⎟⎥
⎢ ⎝ ⎠⎥⎥
⎢ a11 a12 + a21 a22 a212 + a222
⎣ ⎦
⎡ a211 + a221 a11 a12 + a21 a22 ⎞⎤⎥
⎢⎛
⎢ ⎥
< αA, A >= α ⋅ tr ⎢⎜ ⎟⎥
⎢⎝ ⎠⎥⎥
⎢ a11 a12 + a21 a22 a212 + a222
⎣ ⎦
74 Escalares, Vectores y Espacios Vectoriales

a11 a12 a a
c) < A, αA >= tr [( ) ⋅ α ( 11 12 )]
a21 a22 a21 a22
⎡ a211 + a221 a11 a12 + a21 a22 ⎞⎤⎥
⎢ ⎛
⎢ ⎥
< A, αA >= tr ⎢α ⎜ ⎟⎥
⎢ ⎝ ⎠⎥⎥
⎢ a11 a12 + a21 a22 a212 + a222
⎣ ⎦
⎡ a211 + a221 a11 a12 + a21 a22 ⎞⎤⎥
⎢⎛
⎢ ⎥
< A, α ⋅ A >= αtr ⎢⎜ ⎟⎥
⎢⎝ ⎠⎥⎥
⎢ a11 a12 + a21 a22 a212 + a222
⎣ ⎦

Se cumple que 1) = 2) = 3)

4. Asociatividad
PD < A + B, C >=< A, C > + < B, C >

< A + B, C >= tr(C T [A + B])


< A + B, C >= tr(C T A + C T B)
< A + B, C >= tr(C T A) + tr(C T B)
< A + B, C >=< A, C > + < B, C >

∴ tr(B T A) es producto punto en M2 (R)

4.9.9. Productos Punto Usuales


1. Producto punto entre vectores en Rn
⃗, ⃗b >=< (a1 , a2 , a3 , . . . , an ), (b1 , b2 , b3 , . . . , bn ) >= a1 b1 + a2 b2 + a3 b3 + . . . + an bn
<a
⃗, ⃗b >= ∑nk=1 ak bk
<a

Para el caso de R2 ó R3 se puede emplear < a ⃗, ⃗b >= ∣⃗


a∥⃗b∣ cos(α). En la esta ecuación
⃗⋅b
a ⃗
α corresponde a ∠(⃗ a, ⃗b) = arc cos ( )
∥⃗
x∥ ⋅ ∥⃗
y∥

2. Producto punto entre matrices


< A, B >= tr(B T A) = tr(AT B) si y sólo si B T A está definida.
75

3. Producto punto entre polinomios en Rn


< p(x), q(x) >=< a0 + a1 x + a2 x2 , . . . , an xn , b0 + b1 x + b2 x2 , . . . , bn xn >
< p(x), q(x) >= ∑nk=1 ak bk

4. Producto punto entre funciones reales continuas en [a, b]


< f (x), g(x) >= ∫a [f (x)g(x)]dx
b

4.9.10. Producto Cruz (ó Producto Vectorial)


En R3 puede definirse una aplicación que define producto entre vectores tal que al efectuar
la operación producto cruz (denotada con el operador ×) se obtiene como resultado otro
vector. Entonces, se tiene lo siguiente:

R3 × R3 → R3
a, ⃗b) → a
(⃗ ⃗ × ⃗b ∈ R3 ∀ (⃗
a, ⃗b) ∈ R3

4.9.11. Propiedades del Producto Cruz


a × ⃗b) ⊥ a
1. Se cumple que el producto cruz genera otro vector tal que: (⃗ a × ⃗b) ⊥ ⃗b
⃗ ∧ (⃗

a × ⃗b∥ = ∥⃗
2. La forma operacional es: ∥⃗ a∥ ⋅ ∥⃗b∥ ⋅ sen(α)

⃗ × ⃗b, a
3. Se cumple que < a ⃗ × ⃗b, ⃗b >= 0⃗ dada la condición de ortogonalidad
⃗ >=< a

4. Para calcular producto cruz mediante determinantrs (ası́ no se consideran las nor-
mas como en el caso anterior) se toman los vectores de la base canónica R3 :
a, ⃗b) ∈ R3 . Con esto
î = (1, 0, 0) ĵ = (0, 1, 0) k̂ = (0, 0, 1) y dados los vectores (⃗
se define a ⃗ × ⃗b:

⎛ î ĵ k̂ ⎞
⃗ × ⃗b = det ⎜ ax ay az ⎟
a
⎝ bx by bz ⎠

5. El producto cruz no es conmutativo y esto es claramente visible con la forma ma-


tricial aunque tal vez no lo es a primera vista por medio de las normas.
Ejemplo
76 Escalares, Vectores y Espacios Vectoriales

√ √
a = (5, 0, 2), ⃗b = (2, 1, 2)] ∈ R3 entonces,
Dados dos vectores [⃗
RRR RRR
RR î ĵ √k̂ RRR √ √
⃗ × ⃗b = RRRR
a 5 0 2 RRR = î(− 2) − ĵ(3 2) + k̂(5)
RRR √ RRR
RRR 2 1 2 RRR
RRR RRR
RRR î√ ĵ k̂ RRR √ √
⃗b × a R
⃗ = RR 2 1 2 RRR = î( 2) − ĵ(−3 2) + k̂(−5)
RRR √ RRR
RRR 5 0 2 RRR
Capı́tulo 5

Transformaciones Lineales

5.1. Transformación Lineal


Sean U/K y V/K espacios vectoriales sobre el mismo cuerpo K. Se define una transfor-
mación lineal de U en V como una función (lineal) del tipo:

f ∶ U/K → B/K
x⃗ → f (⃗
x) ∈ V ∀⃗
x∈U

Toda transformación lineal cumple las siguiente propiedades:

1. f (α⃗
x) = αf (⃗
x) ∀⃗
x ∈ U, α ∈ K
x + y⃗) = f (⃗
2. f (⃗ x) + f (⃗ x, y⃗ ∈ U, α ∈ K
y ) ∀⃗

Notar que, si f es lineal entonces f (0⃗U ) = ⃗0V . Con esto, se tiene que f (⃗0) = 0,
⃗ cabe
preguntarse: ¿Existen otros vectores cuya imagen sea ⃗0V ?
Efectivamente existen, se tiene que se da el caso en que ∃⃗ x ≠ 0⃗U /f (⃗
x) = 0⃗V excepto
para transformaciones lineales inyectivas (recordar que una función inyectiva cumple
la condición de que cada elemento del recorrido es generado por un único elemento del
dominio de la misma función.)

Ejemplos :

1. f ∶ R2 /R → R/R
78 Transformaciones Lineales

(a, b) → f (a, b) = 2a − 5b es lineal

En efecto,

a) f [(a, b) + (x, y)] = f [(a + x, b + y)]


f [(a, b) + (x, y)] = 2(a + x) − 5(b + y)
f [(a, b) + (x, y)] = (2a − 5b) + (2x − 5y)
f [(a, b) + (x, y)] = f (a, b) + f (x, y)

b) f [α(a, b)] = f (αa, αb)


f [α(a, b)] = 2αa − 5αb
f [α(a, b)] = α(2a − 5b)
f [α(a, b)] = αf (a, b)

∴ f (a, b) es una transformación lineal .

2. Sea G ∶ M3×3 /R → R/R


A → G(A) = tr(A)
Probar que es una transformación lineal

En efecto,

n
a) G[A + B] = ∑(ajj + bjj )
j=1
n n
G[A + B] = ∑ ajj + ∑ bjj
j=1 j=1

G[A + B] = tr(A) + tr(B)


G[A + B] = G(A) + G(B)
n
b) G(αA) = α ∑ ajj
j=1

G(αA) = α ⋅ tr(A)
G(αA) = αG(A)

∴ G(A) es una transformación lineal .


79

5.1.1. Núcleo de una Trasformación Lineal


Sea f ∶ U/K → V/K una transformación lineal . Llamaremos núcleo de f al siguiente
subconjunto de U:

ker(f ) = {⃗ x) = ⃗0V }
x ∈ U/f (⃗

Demostración : ker(f ) es subespacio vectorial

1. f (0⃗U ) = 0⃗V ⇒ 0⃗U ∈ ker(f ) ⇒ ker(f ) ≠ φ

2. Sean (⃗x, y⃗) ∈ ker(f )


⇒ f (⃗
x) = f (⃗ y ) = 0⃗V
⇒ f (⃗
x) + f (⃗y ) = ⃗0V + ⃗0V
x + y⃗) = 0⃗V
⇒ f (⃗
x + y⃗) ∈ ker(f )
⇒ (⃗

3. Sea x⃗ ∈ ker(f )
⇒ f (⃗x) = ⃗0V
x) = α0⃗V
⇒ αf (⃗
x) = 0⃗V
⇒ f (α⃗
⇒ α⃗
x ∈ ker(f )

∴ ker(f ) es subespacio vectorial .

5.1.2. Imagen de una Transformación Lineal


Dada una transformación lineal f ∶ U/K → V/K, la imagen de f es el conjunto:

im(f ) = {⃗
y ∈ V/∃⃗ x) = y⃗}
x ∈ U, f (⃗

Demostración : im(f ) es subespacio vectorial


Usando el teorema de caracterización se tiene:

1. f (0⃗ x) = 0⃗ ⇒ ⃗0 ⊆ V ⇒ im(f ) ≠ φ
x) = 0 ⋅ f (⃗
80 Transformaciones Lineales

2. Si (α⃗y1 , β y⃗2 ) ∈ im(f ) y además (α, β) ∈ K entonces, existen x⃗1 + x⃗2 ∈ U tales que
αf (⃗
x1 ) = α⃗ x2 ) = β y⃗2 . De esta forma se tiene que:
y1 ∧ βf (⃗

y1 + β y⃗2 = f (α⃗
α⃗ x1 + β x⃗2 ) ⇒ α⃗
y1 + β y⃗2 = f (α⃗
x1 ) + f (β x⃗2 )

5.1.3. Teorema de las Dimensiones (Núcleo - Imagen)


Sea f ∶ U/K → V/K una transformación lineal la dimensión de esta se puede descomponer
de la forma:

dim(U) = dim[ker(f )] + dim[im(f )]

Demostración :
Dada una transformación lineal f cualquiera, supongamos los conjuntos
A = {⃗ ⃗2 , a
a1 , a ⃗3 , . . . , a
⃗v } base de ker(f )
{
B = {⃗ ⃗2 , a
a1 , a ⃗3 , . . . , a
⃗v , a
⃗v+1 , . . . , a
⃗n } base de U

Es decir, B es una extensión de A tal que cumple con ser base de U


Sea además C = {f (⃗
av+1 ), . . . , f (⃗
an )} base de im(f ).
Tomando un vector v⃗ ∈ im(f ) cualquiera, es decir v⃗ ∈ V, supongamos que existe un vector
u⃗ ∈ U tal que f (⃗
u) = v⃗.
Como B es base de U se tiene que

u⃗ = α1 ⋅ a
⃗ 1 + α2 ⋅ a
⃗ 2 + α3 ⋅ a
⃗3 + . . . + αv ⋅ a
⃗v + αv+1 ⋅ a
⃗v+1 + . . . + αn ⋅ a
⃗n

Y debido a esto último también se tiene

v⃗ = f (⃗
u) = α1 ⋅ f (⃗
a1 ) + α2 ⋅ f (⃗
a2 ) + α3 ⋅ f (⃗
a3 ) + . . . + αv ⋅ f (⃗
av ) + αv+1 ⋅ f (⃗
av+1 ) + . . . + αn ⋅ f (⃗
an )

Ya que {⃗ ⃗2 , a
a1 , a ⃗3 , . . . , a
⃗v } es base de ker(f ) se tiene que
f (⃗
u1 ) = f (⃗
u2 ) = f (⃗ u3 ) = . . . = f (⃗
uv ) = 0
De acuerdo al último párrafo v⃗ se reduce a

v⃗ = f (⃗
u) = αv+1 ⋅ f (⃗
av+1 ) + . . . + αn ⋅ f (⃗
an )
81

v⃗ es combinación lineal de C. Se debe probar que C es linealmente independiente .


Supongamos que αv+1 ⋅ f (⃗ an ) = 0⃗V , reescribiendo queda
av+1 ) + . . . + αn ⋅ f (⃗

⃗n ) = 0⃗V
⃗v+1 + . . . + αn ⋅ a
f (αv+1 ⋅ a
⃗v+1 + . . . + αn ⋅ a
⇒ (αv+1 ⋅ a ⃗n ) ∈ ker(f )

⃗v+1 + . . . + αn ⋅ a
Debido a que el vector (αv+1 ⋅ a ⃗n ) ∈ ker(f ) existirán escalares no nulos tales
que

⃗v+1 + . . . + αn ⋅ a
αv+1 ⋅ a ⃗n = λ1 ⋅ a
⃗1 + λ2 ⋅ a
⃗2 + λ3 ⋅ a
⃗3 + . . . + λv ⋅ a
⃗v
⃗v+1 + . . . + αn ⋅ a
αv+1 ⋅ a ⃗ n − λ1 ⋅ a
⃗ 1 − λ2 ⋅ a
⃗2 − λ3 ⋅ a ⃗v = 0⃗V
⃗ 3 − . . . − λv ⋅ a

⃗1 , a
De las condiciones iniciales, a partir de B se tiene que a ⃗2 , a
⃗3 , . . . , a
⃗v , a
⃗v+1 , . . . , a
⃗n es
linealmente independiente y por lo tanto se cumple que

αv+1 = . . . = αn = 0

∴ C es base de im(f ) y se tiene entonces que

dim(U) = v + (n − v) = n
dim(U) = dim[ker(f )] + dim[im(f )]

5.1.4. Tranformaciones Lineales e Independencia Lineal


Sea U/K → V/K una transformación lineal cualquiera. Considerando los conjuntos:
A = {x⃗1 , x⃗2 , x⃗3 . . . , x⃗n } ⊆ U
{
B = {f (x⃗1 ), f (x⃗2 ), f (x⃗3 ) . . . , f (x⃗n )} ⊆ V
cabe preguntarse si el conjunto y su respectiva transformación son L.I , en caso de no
cumplirse esto se origina una combinación nula de vectores en A
Suponiendo B L.I , ¿Es A L.I ?
Respuesta
f (α1 x⃗1 + α2 x⃗2 + . . . + αn x⃗n ) = f (0⃗U )
⇒ α1 ⋅ f x⃗1 + α2 ⋅ f x⃗2 + . . . + αn ⋅ f x⃗n = 0⃗V
82 Transformaciones Lineales

⇒ α1 = α2 = . . . = αn
∴ A es L.I

Suponiendo A L.I , ¿Es B L.I ?


Respuesta
f (α1 x⃗1 + α2 x⃗2 + . . . + αn x⃗n ) = 0⃗V
⇒ (α1 x⃗1 + α2 x⃗2 + . . . + αn x⃗n ) ∈ ker(f )

Suponiendo ker(f ) = 0⃗U


⇒ α1 x⃗1 + α2 x⃗2 + . . . + αn x⃗n = 0⃗U
⇒ α1 = α2 = . . . = αn
∴ B es L.I
Si B = f (A) es L.I entonces A es L.I . Además si A es L.I y ker(f ) = 0⃗U entonces B es
L.I

Importante : Si f ∶ U/K → V/K es una transformación lineal y además se tiene que

Ð

1. ker(f ) = 0U

2. f (⃗
x) = f (⃗
y)

Ð
→ Ð

De la condición 2. se obtiene: f (⃗
x) − f (⃗ x − y⃗) = 0V
y ) = 0V ⇒ f (⃗
ÐÐÐÐ→
Es decir, (x − y) ∈ ker(f )
ÐÐÐÐ→ Ð →
De la condición 1. se tiene que (x − y) = 0U . Por lo tanto, x⃗ = y⃗

Conclusión : ker(f ) = ⃗0U ⇒ f es inyectiva.

Supongamos ahora que se cumple:

1. f ∶ U/K → V/K es una transformación lineal inyectiva.

x) = 0⃗V
2. f (⃗

De esta forma se tiene que: x⃗ ≠ y⃗ ⇒ f (⃗


x) ≠ f (⃗
y)
83

5.1.5. Transformación Lineal Inyectiva

Sea f ∶ U/K → V/K una transformación lineal . Será biyectiva a partir de la condición:
[f (⃗
u1 = f (⃗ u1 = u⃗2 ]
u2 ) ⇒ [⃗

x) = 0⃗V
Sea x⃗ ∈ ker(f ), entonces para obtener ker(f ) se tiene f (⃗
Se sabe además que f (0U ) = 0V a partir de lo cual se tiene x⃗ = 0⃗U
⃗ ⃗

Entonces, ker(f ) = {⃗0U }

Inversamente, supongamos ker(f ) = {⃗0V } y además f (⃗


x) = f (⃗
y)

⇒ f (⃗
x) − f (⃗y ) = ⃗0V
x − y⃗) = 0⃗V
⇒ f (⃗
x − y⃗) ∈ ker(f )
⇒ (⃗
x − y⃗) = ⃗0U (a partir de la hipótesis ker(f ) = 0⃗U )
⇒ (⃗
⇒ x⃗ = y⃗
⇒ f es inyectiva
∴ f es una transformación lineal inyectiva ⇔ ker(f ) = {0⃗U }

5.1.6. Transformación Lineal Biyectiva

Sea f ∶ U/K → V/K una transformación lineal . Será biyectiva a partir de dos condiciones:
que sea inyectiva y sobreyectiva.
La dimensión de la transformación lineal se puede separar de la siguiente forma:

dim(U) = dim[ker(f )] + dim[im(f )]

f es inyectiva ⇔ ker(f ) = 0⃗U


f es sobreyectiva ⇔ im(f ) = V
Cumpliendose estas dos condiciones con f biyectiva se tiene que

dim(U) = dim(V)
84 Transformaciones Lineales

5.1.7. Matriz Reprensentante de una Transformación Lineal


Sean

⎪ f ∶ U/K → V/K una transformación lineal







⎨ A = {a⃗1 , a⃗2 , a⃗3 . . . , a⃗p } ⊆ U







⎪ ⃗ ⃗ ⃗ ⃗
⎩ B = {b1 , b2 , b3 . . . , bq } ⊆ V

Tal que A y B son bases de U y V respectivamente. Se tiene que f (⃗


aj ) ∈ V ∀j = {1, 2, . . . p}
y se tiene la relación
⃗j → f (⃗
a aj )
U→V

Entonces, se puede escribir

a1 ) = α11⃗b1 + α21⃗b2 + . . . + αq1⃗bq


f (⃗
a2 ) = α12⃗b1 + α22⃗b2 + . . . + αq2⃗bq
f (⃗

aj ) = α1j ⃗b1 + α2j ⃗b2 + . . . + αqj ⃗bq
f (⃗

ap ) = α1p⃗b1 + α2p⃗b2 + . . . + αqp⃗bq
f (⃗

Tal que q y p son las dimensiones de A y B respectivamente.


A partir del sistema anterior definimos la matriz representante de f (con respecto a las
bases de A y B) como:

⎛ α11 α12 α13 . . . α1j . . . α1p ⎞


⎜ α21 α22 α23 . . . α2j . . . α2p ⎟
([f ]A,B )Q×P =⎜ ⎟
⎜ ⋮ ⋱ ⋮ ⋮ ⎟
⎝ αq1 αq2 αq3 . . . αqj . . . αqp ⎠

Ejemplo

Sea f ∶ R2 [x]/R → M2×2 (R)


85

a − c a + 2c
f (a + bx + cx2 ) = ( )
2a 3c − 2a

1. Hallar ker(f ), im(f ) y sus dimensiones


Para hallar ker(f )
a − c a + 2c 0 0
f (a + bx + cx2 ) = ( )=( )
2a 3c − 2a 0 0
a − =
c 0
a + =
2c 0

2a = 0
3c − 2a = 0

Se tiene que a = 0 (ecuación 3) y reemplazando en la ecuación 2 se obtiene c = 0. De


esta forma

p(x) ∈ ker(f ) ⇔ p(x) = bx

La base de ker(f ) es {x} y es de dimensión 1.

Para hallar im(f )

Si lin[p(x)] = U ⇒ < lin[p(x)] >= im(f )


Descomponemos f de la forma {1, x, x2 }, entonces reemplazando en f (a + bx + cx2 )
1 1
f (1) = ( )
2 −3
0 0
f (x) = ( )
0 0
−1 2
f (x2 ) = ( )
0 3

Por lo tanto, un generador de im(f )es:


1 1 0 0 −1 2
{( ),( ),( )}
2 −3 0 0 0 3

Dado que 0M una base de im(f ) es:


86 Transformaciones Lineales

1 1 −1 2
{( ),( )}
2 −3 0 3

∴ dim[im(f )] = 2

2. Hallar la matriz representante con respecto a las bases



⎪ {1, 1 + 2x, x2 } = A









1 0 1 1 1 1 1 1

⎪ ( ),( ),( ),( )=B

⎩ 0 0 0 0 1 0 1 1

1 1 1 0 1 1 1 1 1 1
f (1) = ( )=0⋅( )−1⋅( )+5⋅( )−3⋅( )
2 −3 0 0 0 0 1 0 1 1

1 1 1 0 1 1 1 1 1 1
f (1 + 2x) = ( )=0⋅( )−1⋅( )+5⋅( )−3⋅( )
2 −3 0 0 0 0 1 0 1 1

−1 2 1 0 1 1 1 1 1 1
f (x2 ) = ( ) = −3 ⋅ ( )+2⋅( )−3⋅( )+3⋅( )
0 3 0 0 0 0 1 0 1 1

De esto obtenemos la transpuesta de la matriz de factores, es decir


T ⎛ 0 0 3 ⎞
⎛ 0 −1 5 −3 ⎞ ⎜ −1 −1 2 ⎟
⎜ 0 −1 5 −3 ⎟ = ⎜ ⎟
⎝ −3 2 −3 3 ⎠ ⎜ 5 5 −3 ⎟
⎝ 3 −3 3 ⎠
Que corresponde a [f ]A,B

5.1.8. Propiedades de Transformaciones Lineales

1. Suma
Sean f ∶ U/K → V/K y g ∶ U/K → V/K transformaciones lineales .
Entonces, f + g ∶ U/K → V/K tal que (f + g)(⃗
x) = f (⃗
x) + f (⃗
x) es lineal.
Se cumple que [f + g]A,B = [f ]A,B + [g]A,B
87

2. Ponderación por escalar


Sea f ∶ U/K → V/K una transformación lineal.
Entonces, λf ∶ U/K → V/K es lineal.
Se cumple que [λf ]A,B = λ[f ]A,B + [g]A,B
Es importante señalar que
λ(f + g) = (λf ) + (λg)
(λ + φ)f = (λf ) + (φf )
(λφ)f = λ(φf )
λf = f

3. Composición
Sean f ∶ U/K → V/K y g ∶ U/K → V/K transformaciones lineales .
Entonces, g(f ) ∶ U/K → V/K tal que (g ○ f )(⃗
x) = g(f (⃗
x)) es lineal.
Se cumple que [g ○ f ]A,C = [g]B,C + [f ]A,B . Es importante señalar que las matrices
representantes de este caso van en conjuntos distintos entre si.

5.1.9. ¿Cómo se Aplica la Matriz Representante?

Tal como aparece en las secciones anteriores partimos de la condición:


Sean

⎪ f ∶ U/K → V/K una transformación lineal







⎨ A = {a⃗1 , a⃗2 , a⃗3 . . . , a⃗p } ⊆ U







⎪ ⃗ ⃗ ⃗ ⃗
⎩ B = {b1 , b2 , b3 . . . , bq } ⊆ V

Tal que A y B son bases de U y V respectivamente. Tomando un vector x⃗ ∈ U se tiene la


siguiente relación: A → B ⇔ A → E → E → B
88 Transformaciones Lineales

Para el caso de la matriz representante la lectura es de derecha a izquierda tal que

[f ]A,B = [I]E,E [f ]A,B [I]A,E

Denotar la transformación lineal [f ]A,B como [I]A,E [f ]A,B [I]E,E es incorrecto y cabe
señalar que [I]E,E y [I]A,E corresponden a matrices de cambio de base

Observación :
En una matriz representante de vectores propios, los valores propios correspondientes se
ubican en la diagonal. Es decir la suma de los valores propios es igual a la traza de la
matriz representante y el producto de los valores propios es igual al determinante de la
matriz representante.

Dada una base de vectores propios A = {⃗ ⃗2 + . . . + a


a1 + a ⃗n } se cumple que:

f (⃗ ⃗1 + 0 + . . . + 0
a1 ) = λ1 a
f (⃗ ⃗1 + . . . + 0
a2 ) = 0 + λ1 a

f (⃗ ⃗n
an ) = 0 + 0 + . . . + λn a

Propiedad Básica de la Matriz representante


[f ]A,B [⃗
x]A = [f (⃗
x)]B
89

Ejemplo :
Sea f ∶ R1 [x]/R → M2×2 (R)
a b
p(x) = a + bx → ( )
a−b a+b

Obtener la matriz representante de las bases canónicas


1 0 0 1 0 0 0 0
{1, x} y {( ),( ),( ),( )}
0 0 0 0 1 0 0 1
90 Transformaciones Lineales

1 0 1 0 0 1 0 0 0 0
f (1) = ( )=1⋅( )+0⋅( )+1⋅( )+1⋅( )
1 1 0 0 0 0 1 0 0 1

0 1 1 0 0 1 0 0 0 0
f (x) = ( )=0⋅( )+1⋅( )−1⋅( )+1⋅( )
−1 1 0 0 0 0 1 0 0 1

Por lo tanto, la matriz representante es


⎛ 1 0 ⎞
⎜ 0 1 ⎟
⎜ ⎟
⎜ 1 −1 ⎟
⎝ 1 1 ⎠

A partir de esto se puede calcular la transformación lineal correspondiente a un vector


de coordenadas. Para calcular la transformación correspondiente al vector 5 − 3x se tiene

⎛ 1 0 ⎞ ⎛ 1 0 ⎞ ⎛ 5 ⎞
⎜ 0 1 ⎟ ⎜ 0 1 ⎟ 5 ⎜ −3 ⎟ 5 −3
[f (5 − 3x)] = ⎜ ⎟ ⋅ (5 − 3x) = ⎜ ⎟⋅( )=⎜ ⎟ ⇒ p(5 − 3x) = ( )
⎜ 1 −1 ⎟ ⎜ 1 −1 ⎟ −3 ⎜ 8 ⎟ 8 2
⎝ 1 1 ⎠ ⎝ 1 1 ⎠ ⎝ 2 ⎠

5.1.10. Matriz de Pasaje


Sea U/K un espacio vectorial de dimensión n. Definimos la aplicación lineal:

I ∶ Kn /K → Kn /K
[⃗
x]A → [⃗
x]B

Lo cual corresponde a un cambio de base. Cada vector de la base de partida se puede


expresar como combinación lineal de los vectores de la base de llegada.
Ejemplo :
Dadas las bases de R2
1 1
A = {( ) , ( )}
0 1
1 0
E = {( ) , ( )}
0 1
91

La matriz de pasaje de A a E corresponde a


1 1
[I]A,E = ( )
0 1
Se obtiene a partir de la descomposición
1 1 0
( )=1⋅( )+0⋅( )
0 0 1
1 1 0
( )=1⋅( )+1⋅( )
1 0 1

La matriz de pasaje de E a A corresponde a


1 −1
[I]E,A = ( )
0 1
Se obtiene a partir de la descomposición
1 1 1
( )=1⋅( )+0⋅( )
0 0 1
0 1 1
( ) = −1 ⋅ ( ) + 1 ⋅ ( )
1 0 1

A partir de esto se tiene que [I]A,E = [I]−1


E,A

5.1.11. ¿Cómo se Relacionan las Matrices Representantes?

Con respecto a distintas bases, para las matrices representantes de f ∶ U/K → V/K se
tiene la siguiente relación:

[f ]C,D = [I]B,D [f ]A,B [I]C,A


92 Transformaciones Lineales

Un caso particular de lo anterior es cuándo se tiene una transformación lineal


f ∶ U/K → U/K tal que la representación esquemática serı́a ası́:

Entonces, para este último caso se tiene:

[f ]B,B = [I]A,B [f ]A,A [I]B,A

Si denotamos [I]B,A = P y [I]A,B = P −1


Entonces, [f ]B,B = P −1 [f ]A,A P

5.1.12. Matrices Similares


Basándose en el apartado anterior, si tomamos un caso particular en que dadas las matrices
cuadradas A, D, P tal que P es invertible y se cumple la relación A = P −1 DP
93

Entonces, A y D son matrices similares tal que:


A2 = A ⋅ A = (P −1 DP) ⋅ (P −1 DP) = P −1 D2 P

A3 = A2 ⋅ A = (P −1 D2 P) ⋅ (P −1 DP) = P −1 D3 P

An = P −1 Dn P

5.2. Cambio de Base y Similaridad


A partir de lo ya expuesto en este capı́tulo asumamos una transformación lineal tal que
f ∶ U → U. Definimos la matriz representante (tal como se vio con lectura de izquierda a
derecha) de la forma
Capı́tulo 6

Formas Bilineales

6.1. Formas Bilineales


Supongamos un espacio vectorial B/K sobre el cual se define la aplicación

f ∶V×V→K

x, y⃗) → f (⃗
(⃗ x, y⃗)

Tal aplicación es una forma bilineal si y sólo si se cumple:

x1 + x⃗2 , y⃗) = f (⃗
1. f (⃗ x1 , y⃗) + f (⃗
x2 , y⃗)

x, y⃗) = α ⋅ f (⃗
2. f (α⃗ x, y⃗)

x, y⃗1 + y⃗2 ) = f (⃗
3. f (⃗ x, y⃗1 ) + f (⃗
x, y⃗2 )

x, β y⃗) = β ⋅ f (⃗
4. f (⃗ x, y⃗)

Dado un conjunto cualquiera de vectores A = {⃗ ⃗2 , a


a1 , a ⃗3 , . . . , a
⃗n } que supondremos es base
de V. Se puede formar la matriz de Gram de una forma bilineal genérica.
Se expresa:
⎛ f (⃗ ⃗1 ) f (⃗
a1 , a ⃗2 )
a1 , a . . . f (⃗ ⃗n )
a1 , a ⎞
⎜ f (⃗ ⃗1 ) f (⃗
a2 , a ⃗2 )
a2 , a . . . f (⃗ ⃗n )
a2 , a ⎟
G=⎜ ⎟
⎜ ⋮ ⋱ ... ⋮ ⎟
⎝ f (⃗ ⃗1 ) f (⃗
an , a ⃗2 )
an , a . . . f (⃗ ⃗n )
an , a ⎠
96 Formas Bilineales

G corresponde a la matriz de Gram de f respecto de la base A y se cumple

x, y⃗) = [⃗
f (⃗ x]TA G[⃗
y ]A

En esta relación [⃗
x], [⃗
y ] son los vectores de coordenadas con respecto a la base a la que
está referida G

Ejemplo :
f [(x, y)(α, β)] = 3xα − 2xβ + 5yα

Respecto de la base canónica en R2 : {(1, 0), (0, 1)} se tiene


f [(1, 0), (1, 0)]3 ⋅ 1 ⋅ 1 − 2 ⋅ 1 ⋅ 0 + 5 ⋅ 0 ⋅ 1 = 3
f [(1, 0), (0, 1)] = 3 ⋅ 1 ⋅ 0 − 2 ⋅ 1 ⋅ 1 + 5 ⋅ 0 ⋅ 1 = −2
f [(0, 1), (1, 0)] = 3 ⋅ 0 ⋅ 1 − 2 ⋅ 0 ⋅ 0 + 5 ⋅ 1 ⋅ 1 = 5
f [(0, 1), (0, 1)] = 3 ⋅ 0 ⋅ 0 − 2 ⋅ 0 ⋅ 1 + 5 ⋅ 1 ⋅ 0 = 0
Ası́ la matriz de Gram correspondiente es:
3 −2
G=( )
5 0

Cabe señalar que en este ejemplo se presenta lo siguiente:


[(x, y)] = ( x y )
α
[(α, β)] = ( )
β
3 −2 α 3α − 2β
f [(x, y), (α, β)] = ( x y ) ⋅ ( )⋅( )=( x y )⋅( )
5 0 β 5α
f [(x, y), (α, β)] = 3xα − 2xβ + 5yα
97

6.2. Cambio de Base


Sean F y G son matrices de Gram asociadas a una forma bilineal f con respecto a las
bases de A y B respectivamente y P la matriz de pasaje de A a B entonces, se tiene que

f = P T GP

6.3. Simetrı́a y Antisimetrı́a


Dada f ∶ U × U → K una forma bilineal . Se establece que las condiciones de simetrı́a o
antisimetrı́a son:

x, y⃗) = f (⃗
1. Simétrica: Si f (⃗ y , x⃗)
x, y⃗) = −f (⃗
2. Antisimétrica: Si f (⃗ y , x⃗)

Ejemplo :
f ∶ R2 × R2 → R
f [(x, y), (α, β)] = 5xα + 8xβ + 8yα + 20yβ
Corresponde a una forma bilineal simétrica ya que los coeficientes cruzados son iguales.
Importante : Toda forma bilineal se puede expresar como la suma de uan forma bilineal
simétrica con una forma bilineal antisimétrica.

6.4. Formas Cuadráticas


Sea f ∶ U × U → K es una forma bilineal simétrica . Entonces, la aplicación

w∶U→K
x⃗ → w(⃗ x, x⃗)
x) = f (⃗
es una forma cuadrática
Se tien además que x⃗ → w(⃗ x, x⃗) es forma cuadrática si y sólo si:
x) = f (⃗

x) = α2 ⋅ w(⃗
1. w(α⃗ x) ∀ α ∈ K
98 Formas Bilineales

2. f ∶ U × U → K
1
x, y⃗) → f (⃗
(⃗ x, y⃗) = [w(⃗
x + y⃗) − w(⃗
x) − w(⃗
y )] es bilineal simétrica
2
Capı́tulo 7

Referencias

1. Algebra Lineal, Stanley, Grossman. Editorial Mc Graw Hill, 1996

2. Álgebra Lineal Teorı́a y Ejercicios, Seymour Lipschutz, Editorial McGraw Hill, 1995.

3. Teorı́a y Problemas de Matrices. Frank Ayres, Serie Schaum, 1969.

4. Tutorı́a de Álgebra Lineal, Publicaciones DIM/CMM, 2008

También podría gustarte