Está en la página 1de 52

UNED Grado en Ingeniería

Universidad Nacional
de Educación a Distancia

Álgebra

Resumen-Esquema

Autor: Enrique Gargallo Quintero


Asignatura: Álgebra
Estudios: Grado en Ingeniería Mecanica
Curso: 2017/2018
Fecha: 9 de febrero de 2018

Álgebra 1 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

Índice

1. Capitulo I - HERRAMIENTAS 5
1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. Orden o dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3. Matriz traspuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.4. Matriz Simétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.5. Matriz antisimétrica (hemisimétrica) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.6. Propiedad de las matrices cuadradas) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.7. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.8. Traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.9. Operaciones elementales por las . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.10. Matrices equivalentes por las . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.11. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.12. Matriz escalonada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.13. Matriz escalonada con pivotes normalizados . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.14. Matriz escalonada reducida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.15. Escalonar una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1. Interpretación geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2. Aplicaciones de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3. Sistema de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1. Clasicación del sistema atendiendo a los rangos . . . . . . . . . . . . . . . . . . . . . 9
1.3.2. Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3. Resolución de sistemas por la Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . 9
1.3.4. Ecuaciones cartesianas ↔ Ecuaciones paramétricas . . . . . . . . . . . . . . . . . . . . 10
1.4. Métodos numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1. Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.2. Sistemas mal acondicionado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.3. Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.4. Factorización LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.5. Resolución de un sistema AX = B mediante factorización LU . . . . . . . . . . . . . . 12
1.4.6. PA=LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.7. Resolución de un sistema AX = B mediante factorización P A = LU . . . . . . . . . . 12

2. Capitulo II - ESPACIOS VECTORIALES 13


2.1. Denición de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Denición de subespacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3. Sistemas de generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.1. Combinación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.2. Sistemas generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.3. Sistemas generadores, dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.4. Sistemas generadores, independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.5. Supresión y sustitución de vectores de un sistema generador . . . . . . . . . . . . . . . 15
2.4. Base, Dimensión, Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4.1. Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4.2. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4.3. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5. Teoremas de la Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6. Operaciones entre subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6.1. Intersección se subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6.2. Unión de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

Álgebra 2 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

2.7. Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17


2.8. Formula de Grassmann o de la dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.9. Suma Directa de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3. Capitulo III - APLICACIONES LINEALES Y MATRICES 18


3.1. Denición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1.2. Algunas deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1.3. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2. Imagen y núcleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.1. Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.2. Núcleo (Kerf ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2.3. Relación entre las dimensiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3. Ecuaciones y matriz asociada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.1. Determinación de una aplicación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.2. Matriz asociada y expresión matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4. Operaciones con aplicaciones lineales y operaciones con matrices . . . . . . . . . . . . . . . . 20
3.4.1. Correspondencia entre aplicaciones lineales y matrices . . . . . . . . . . . . . . . . . . 20
3.4.2. Espacios vectoriales de aplicaciones lineales y de matrices asociadas . . . . . . . . . . . 21
3.4.3. Composición de aplicaciones lineales. Productos de matrices . . . . . . . . . . . . . . . 21
3.4.4. Relación entre las dimensiones de los subespacios y las matrices asociadas . . . . . . . 21
3.4.5. Propiedades de la composición de aplicaciones . . . . . . . . . . . . . . . . . . . . . . . 22
3.5. Matriz inversa y cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.5.1. Cambio de coordenadas en un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . 22
3.5.2. Ecuaciones de cambio de coordenadas de B0 a B . . . . . . . . . . . . . . . . . . . . . 22
3.5.3. Matriz asociada a una aplicación al cambiar las bases . . . . . . . . . . . . . . . . . . . 23

4. Capitulo IV-DIAGONALIZACIÓN DE MATRICES 24


4.1. Relación Binaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.2. Relación de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.3. Matrices Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.3.1. Propiedades de las matrices equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4. Matrices Congruentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.5. Matrices Semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.5.1. Propiedades de las matrices semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.6. Valores propios y Vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.6.1. Valores Propios o Autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.6.2. Vectores Propios o Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.6.3. Polinomio Característico y Ecuación Característica. . . . . . . . . . . . . . . . . . . . . 25
4.6.4. Multiplicidades algebraica y geométrica. . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.7. Matrices diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.7.1. Pasos para encontrar la matriz D(∧) y P. . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.8. Matriz de Jordán o forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.8.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.8.2. Construcción de la matriz de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.9. Métodos iterativos para estimar valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.9.1. Método de potencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.9.2. Método de potencias (método de calculo) . . . . . . . . . . . . . . . . . . . . . . . . . 28

5. Capitulo V-ORTOGONALIDAD 30
5.1. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.2. Producto usual o estándar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.2. Matriz de Gram o matriz métrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
o
5.2.1. 1 Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

Álgebra 3 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

5.2.2. Ejemplo como calcularla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31


o
5.2.3. 2 Cambio de base en la matriz de Gram . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.3. Normas, distancias , ángulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.3.1. Normas, normalizar un vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.3.2. Vector ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.4. Sistemas ortogonales y ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.5. Método de ortonormalización de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.5.1. Propiedades de la matriz G . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.6. Proyección ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.6.1. Calculo del modulo de la proyección . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.6.2. Mejor aproximación o mínima distancia . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.7. Matrices ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.7.1. Propiedad de las Matrices ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.7.2. Factorización QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.7.3. Proceso Factorización QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.8. Diagonalización de Matrices simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.9. Mínimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.9.1. Metodo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.9.2. Aplicación a los modelos lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.9.3. Calculo de recta de mínimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.9.4. Caracterización de las soluciones por mínimos cuadrados . . . . . . . . . . . . . . . . . 36
5.9.5. Caracterización de la unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.9.6. Proceso, calculo de la recta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.9.7. Proceso, calculo del plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

6. Capitulo VI-FORMAS BILINEALES Y CUADRÁTICAS 39


6.1. Formas Bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.1.1. Expresión analítica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.1.2. Expresión matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.1.3. Algunas propiedades de las formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . 39
6.2. Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6.2.1. Caracterización de una forma cuadrática . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6.2.2. Expresión analítica y matricial de la forma cuadrática . . . . . . . . . . . . . . . . . . 40
6.2.3. Ejemplos de formas cuadráticas y no cuadráticas . . . . . . . . . . . . . . . . . . . . . 40
6.3. Clasicación de las Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.3.1. Teorema de Sylvester y denición de signatura . . . . . . . . . . . . . . . . . . . . . . 41
6.3.2. Criterios de clasicación de las formas cuadráticas . . . . . . . . . . . . . . . . . . . . 41
6.4. Cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.4.1. Lugares geométricos mas conocidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.4.2. Ecuacion general de las Cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.4.3. Ecuacion Matricial de las Cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.4.4. Expresión matricial de las partes de una cónica . . . . . . . . . . . . . . . . . . . . . . 46
6.4.5. Ecuaciones reducidas de las Cónicas. Principales ecuaciones reducidas de las cónicas . 46
6.4.6. obtención de la ecuacion reducida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.4.7. Clasicación de las Cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.5. Cuádricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.5.1. Ecuación general de las Cuádricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.5.2. Ecuación Matricial de una Cuádrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.5.3. Expresión matricial de las partes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.5.4. Ecuacion reducida de una cuádrica. Principales ecuaciones reducidas de las cuádricas . 50
6.5.5. Clasicación de las cuádricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

Álgebra 4 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

1. Capitulo I - HERRAMIENTAS

1.1. Matrices
1.1.1. Orden o dimensión
Indica el numero de las x columnas de la matriz M3x2
Cuando es un solo numero coincide las las y las columnas M3

1.1.2. Operaciones con matrices


suma Sumamos elementos con las mismos indices

     
a11 a12 b11 b12 a11 + b11 a12 + b12
A+B = + =
a21 a22 b21 b22 a21 + b21 a22 + b22

multiplicación por un escalar Se multiplicara cada elemento por el escalar

   
a11 a12 α · a11 α · a12
α· =
a21 a22 α · a21 α · a22

Propiedades de la suma 4 propiedades

Asociativa (A + B) + C = A + (B + C)
Conmutativa A+B =B+A
Elemento neutro A + 0 = 0 + A = A, 0 −→ Matriz nula
Elemento opuesto A + (−A) = 0, 0 −→ Matriz nula

Propiedades del producto por escalares 4 propiedades

Asociativa (αβ)A = α(βA)


Distributiva respecto a la suma de escalares (α + β)A = αA + βA
Distributiva respecto a la suma de matrices α(A + B) = αA + αB
Elemento unidad 1A = A

Multiplicación de matrices Multiplicaremos las por columnas sumando los elementos.

     
a11 a12 b11 b12 a11 · b11 + a12 · b21 a11 · b12 + a12 · b22
A= B= A·B =
a21 a22 b21 b22 a21 · b11 + a22 · b21 a21 · b12 + a22 · b22
Para poder multiplicar matrices tiene que coincidir el numero de columnas de la primera matriz con el numero
de las de la segunda matriz.
A ∈ M3x2 solo podra multiplicarse con matrices que tengan 2 las ∈ M2xn

Propiedades del producto de matrices 3 propiedades

Asociativa (AB)C = A(BC)


Distributiva respecto a la suma A(B + C) = AB + AC ; (A + B)C = AC + BC
Asociativa respecto al producto por un escalar α(AB) = (αA)B

Álgebra 5 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

1.1.3. Matriz traspuesta


Cambiamos las por columnas

   
t a11 a12 a11 a21
Se denota por A −→ A = −→ At =
a21 a22 a12 a22
(At )t = A (A + B)t = At + B t (AB)t = B t · At

1.1.4. Matriz Simétrica


Es aquella matriz cuadrada que es igual a su traspuesta (tienen los elementos iguales con respecto a su
diagonal principal) A = At

1.1.5. Matriz antisimétrica (hemisimétrica)


Matriz cuadrada que tiene los elementos simétricos con respecto a la diagonal opuestos. A = −At

1.1.6. Propiedad de las matrices cuadradas)


Toda matriz cuadrada se puede expresar como suma de una simétrica y una antisimetrica

A + At A − At
SeaA ∈ Mn , =⇒ A = S + T donde S= y T =
2 2

1.1.7. Matriz inversa



 Por denición
Escalonando la ampliada Por Gauss

Por Adjuntos y determinantes

Por denición Aplicaremos el formato A · A−1 = I

    
1 2 1 a11 a12 a13 1 0 0
3 2 2 a21 a22 a23  = 0 1 0
5 4 3 a31 a32 a33 0 0 1
| {z }| {z } | {z }
−1
A A I
Operando resultan 3 sistemas de 3 ecuaciones con 3 incógnitas cada sistema

Escalonando la ampliada por Gauss Aplicaremos (A|I)=(I|A


−1 )

   
1 −1 0 1 0 0 1 0 0 1 1 0
Escalonamos la ampliada
(A|B) =  0 1 0 0 1 0  −−−−−−−−−−−−−−−→  0 1 0 0 1 0 
hasta obtener
2 0 1 0 0 1 0 0 1 −2 −2 1

La parte segunda de la matriz ampliada obtenida corresponde con la matriz inversa.

aplicando directamente la formula

Adj(At ) (Adj(A))t
A−1 = =
|A| |A|

En la obtención de los adjuntos tener en cuenta su signo

Álgebra 6 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

1.1.8. Traza de una matriz


Corresponde con la suma de elementos de su diagonal principal

i=n
X
T raza = aii
i=1
 
7 3 1
A = −1 4 0 −→ T raza = 7 + 4 + 3 = 14
1 2 3

1.1.9. Operaciones elementales por filas


1. Permutar o intercambiar las, Fi ↔ Fj

2. Multiplicar una la por un escalar no nulo ,Fi = α · Fi

3. Reemplaza runa la por ella mas el producto de otra por un escalar Fi = Fi + α · Fj

1.1.10. Matrices equivalentes por filas


Dos matrices A, B ∈ Mm×n se llaman matrices equivalentes por las si se puede pasar de una matriz a
otra mediante operaciones elementales.

1.1.11. Matrices elementales


Se llama matriz elemental (por las) a la matriz cuadrada que resulta al realizar una sola operación ele-
mental por la a la matriz identidad In

Las matrices elementales son matrices regulares

Si se hacen mas de una operación elemental {E1 , E2 , E3 · · · Ep }

E = {Ep Ep−1 · · · E3 E2 E1 } −→ B = EA

La matriz E se conoce como matriz de paso de A a B


La matriz E es una matriz regular y si queremos obtener E −1
−1
E −1 = (Ep Ep−1 · · · E3 E2 E1 )−1 −→ E1−1 E2−1 E3−1 · · · Ep−1 Ep−1

A y B son matrices equivalentes, entonces tienen el mismo rango

1.1.12. Matriz escalonada


Se llama elemento pivote al primer elemento no nulo de una la
La matriz escalonada cumple que todos los elementos por debajo y a la izquierda del pivote son 0

   
1 0 2 3 4 2 1 0 2 3 4 2
Matriz escalonada −→ 0 0 0 2 3 0 , Matriz no escalonada −→ 0 0 0 2 3 0
0 0 0 0 3 4 0 0 0 3 3 4

1.1.13. Matriz escalonada con pivotes normalizados


Matriz que a la vez que es escalonada, sus pivotes valen 1

 
1 0 2 3 4
0 0 0 1 3
0 0 0 0 1

Álgebra 7 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

1.1.14. Matriz escalonada reducida


Es una matriz escalonada con los pivotes normalizados y ademas los elementos que hay por encima también
son 0  
1 0 0 0 0
0 0 0 1 0
0 0 0 0 1

1.1.15. Escalonar una matriz


Escalonar una matriz es obtener una escalonada equivalente a la matriz original mediante operaciones
elementales.

(A|I) = (Ae |E)


Al escalonar podemos obtener su matriz de paso asociada Aplicaremos
  

1 2 1 0 0 1 2 1 0 0
Escalonamos la ampliada
(A|I3 ) =  2 3 0 1 0  −−−−−−−−−−−−−−−→  0 −1 −2 1 0  = (Ae |E)
hasta obtener
1 1 0 0 1 0 0 1 −1 1
Ae = EA
Cumpliendose que
  
 
1 2 1 0 0 1 2
 0 −1  =  −2 1 0  2 3 
0 0 1 −1 1 1 1

1.2. Determinantes
El determinante de una matriz A de orden n es el escalar denido por:
X
det(A) = |A| = sig(p)a1p1 , a2p2 · · · anpn
p∈Sn

El numero de permutaciones es n!


+1 si p es par
sig(p)
-1 si p es impar
 
a11 a12
Ejemplo: Calculo del det A −→ |A| = a11 a22 − a21 a12
a21 a22
análogamente para una matriz de 3x3 aplicamos la regla de Sarrus:
|A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a11 a23 a32 − a12 a21 a33
| {z } | {z } | {z } | {z } | {z } | {z }
no per 2 per 2 per 1 per 1 per 1 per

1. Si la matriz A posee una la o columna con todo 0 ,−→ det(A)=0

2. Si la matriz A es triangular sup o inferior ,−→ det(A) = a11 a22 a33 (la diagonal)

3. Det(A) = det(At )
4. Det(αA) = αn det(A)(α ∈ R)
5. Si A y B ∈ Mnxn Det(A+B)6= Det(A) + Det(B) (En general)

6. Si A y B ∈ Mnxn Det(AB)= Det(A) Det(B)

7. Otras propiedades

7a) Si se permutan dos las Fi ↔ Fj el determinante cambia de signo.


7b) Si se permutan dos columnas Ci ↔ Cj el determinante cambia de signo.
7c) Si se multiplica una (la o colum.) por un escalar Fi −→ Fi · α el determinante queda multiplicado
por α
7d)Si se reemplaza una (la o columna) Fi −→ Fi + αFj , el determinante no varia.

Álgebra 8 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

1.2.1. Interpretación geométrica

El area del paralelogramo denido por dos


vectores coincide con su determinante.

 
8 2
A=
3 6

|A| = 8 · 6 − 3 · 2 = 42 u2

Figura 1: Area de dos vectores

1.2.2. Aplicaciones de los determinantes



Rango de una matriz
Aplicaciones
Matriz inversa

1.3. Sistema de ecuaciones lineales


Un sistema de ecuaciones lo podemos escribir de forma matricial como (AX=B)
A es la matriz de coecientes
X es la matriz columna de las incógnitas
B es la matriz columna de los términos independientes.

Llamaremos matriz ampliada a (A|B)añadir a la matriz de coecientes la columna de la matriz términos


independientes

Se llama solución del sistema S a cualquier matriz columna que cumpla la condición AX = B . Si el
sistema tiene mas de una solución, entonces tiene innitas soluciones

1.3.1. Clasificación del sistema atendiendo a los rangos


 
Determinado, Rang = n
Compatible, Rang(A) = Rang(A|B)

Sistemas Indeterminado, Rang < n
Incompatible, Rang(A) 6= Rang(A|B)

n es el numero de incógnitas. Su solución dependerá de n-rang(A) parámetros

1.3.2. Sistemas equivalentes


Decimos que dos sistemas son equivalentes si tienen las mismas soluciones

1.3.3. Resolución de sistemas por la Regla de Cramer


Sustituimos para cada incógnita la columna por los términos independientes y dividimos el determinante
de la matriz obtenida por el determinante de la matriz de coecientes.

Álgebra 9 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

 x1 x2 x3



z}|{ z}|{
 0
z}|{ 7
2 1 
A=
 6
 B = −1
2 1 
1
2 1 1

7 2 1 0 7 1 0 2 7

−1 2 1 6 −1 1 6 2 −1

1 1 1 2 1 1 2 1 1
x1 = x2 = x3 =
0 2 1 0 2 1 0 2 1

6 2 1 6 2 1 6 2 1

2 1 1 2 1 1 2 1 1

1.3.4. Ecuaciones cartesianas ↔ Ecuaciones paramétricas


Se trata de establecer relaciones entre ellas para tratar de igualando parámetros eliminar estos, en ambos
casos se establece

o o o
n de incógnitas - n de ecuaciones = n de parámetros
o o o
n de incógnitas - n de parámetros = n de ecuaciones

cartesiana −→ paramétricas

 x5 = 0
 2x1 +2x2 +2x4 +x5 = −2


x4 = β −→ x3 + β = 1 −→ x3 = 1 − β

+x3 +x4 +1/2x5 = 1 −→
x =α
+1/2x5 = 0  2
 

2x1 + 2α + 2β + 0 = −2 −→ x1 = −1 − α − β



 x1 = −1 − α − β
 x2 = α


x3 = 1 − β
x =β

 4



x5 = 0

paramétricas −→ cartesianas
 

 x1 =α−β 
 α − β = x1 
x2 =2−α−β −α − β = x2 − 2 x1 +3x2 +2x3 = 8
 
−→ Resolviendo
x = 1 + 2β + α 2β + α = 1 − x3 −−−−−−−−→ +x2 +x4 = 2
 3

 

x4 =α+β x4 = α + β

1.4. Métodos numéricos




 Gauss
Gauss − Jordan

Métodos numéricos

 Factorización LU
Factorización P A = LU

1.4.1. Método de Gauss


o
1 Se parte de la matriz ampliada (A|B)

Álgebra 10 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

o
2 Se escalona la matriz mediante operaciones elementales hasta hacer 0 todo lo que hay bajo a matriz
y con los pivotes normalizados (=1).

o
3 Se resuelven las incógnitas desde la la inferior que no sea 0 hasta la superior

o
4 En caso necesario se utilizaran parámetros para resolver el sistema

Pivote de una matriz es el primer elemento no 0 de una la, no tiene que coincidir con la diagonal.
Normalizado signica que valga 1.
   
1 2 1 2 1 2 1 2
(A|B) =  −1 2 −1 0  operaciones elementales  0 1 0 1/2 
−−−−−−−−−−−−−−−−−→
1 1 1 4 0 0 0 5/2
n3
El método de Gauss requiere de operaciones
3

1.4.2. Sistemas mal acondicionado


Un sistema AX = B se llama sistema mal acondicionado si se producen grandes cambios en las soluciones
al realizar pequeños cambios en los coecientes.
 
x1 +2x2 = 10 x1 = 8
−→
1,05x1 +2x2 = 10,4 x2 = 1
 
x1 +2x2 = 10 x1 = 4
−→
1,1x1 +2x2 = 10,4 x2 = 3

1.4.3. Método de Gauss-Jordan


Es igual al método de Gauss y sigue el mismo procedimiento pero continua hasta dejar la matriz con la
parte superior a los pivotes = 0 , esto es es una matriz escalonada reducida.
     
3 2 −1 4 1 1 1 6 1 0 0 1
Gauss Gauss-Jordan
(A|B) =  5 −2 2 7  −−−−−−−−−−→  0 1 4 14  −−−−−−−−−−→  0 1 0 2 
oper. elementales oper. elementales
1 1 1 6 0 0 1 3 0 0 1 3

 x1 = 1
Esto nos da directamente las soluciones: x2 = 2
x3 = 3

n3
El método de Gauss requiere de operaciones
2

1.4.4. Factorización LU
Si existe la factorización de la Matriz A por el método LU, si la matriz es regular es única, si es singular
puede haber mas de una factorización LU.
Se trata de Transformar la matriz A en una matriz triangular superior U mediante operaciones de reemplazo
por Filas tipo Fi = Fi + α · Fj , aplicando el método de Gauss sin normalizar los pivotes. Construir L de tal
manera que la misma sucesión de pasos para obtener U transforme L en In .
U = EA −→ E = Ep · · · E1
L = E −1 = (Ep · · · E1 )−1 = E1−1 · · · Ep−1
Para construir L, la idea es de ir realizando las inversas de las operaciones elementales.

Finalmente A = LU

2n3
El método LU requiere de operaciones
3

Álgebra 11 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

1.4.5. Resolución de un sistema AX = B mediante factorización LU


o
Paso 1
AX = B −→ A = LU −→ LU X = B −→ Y = U X −→ LY = B −→ Obtenemos Y
o
Paso 2
Una vez obtenida Resolvemos la ecuación UX = Y y hallamos los valores propios.

1.4.6. PA=LU
Es igual a la factorización LU pero necesitamos hacer alguna permutación de las.

Finalmente P A = LU

1.4.7. Resolución de un sistema AX = B mediante factorización P A = LU


o
Paso 1
AX = B −→ P AX = P B −→ P A = LU −→ LU X = P B −→ Y = U X −→ LY = P B −→ Obtenemos Y
o
Paso 2
Una vez obtenida Resolvemos la ecuación UX = Y y hallamos los valores propios.

Álgebra 12 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

2. Capitulo II - ESPACIOS VECTORIALES

2.1. Denición de espacio vectorial


Para que un conjunto no vacío sea espacio vectorial es necesario que se veriquen condiciones (que se
denan).

Operación interna ” ∗ ”(llamaremos suma aunque no sea la estándar)

Operación externa ” • ”(llamaremos multiplicación que no tiene porque ser la estándar)

Dichas operaciones tienen que cumplir 8 propiedades (4 respecto a la interna) y 4 respecto a la externa

Propiedades que debe tener la operación interna Propiedades de la operación externa ”•”
”∗” denida en el conjunto V denida entre los elemetos de V y los escalares

S1 Asociativa E1 Distributiva de escalares

respecto a la operación entre vectores

(a ∗ b) ∗ c = a ∗ (b ∗ c) λ • (a ∗ b) = λ • a ∗ λ • b
S2 Existe Elemento neutro e E2 Distributiva de vectores

respecto a la suma de escalares

a∗e=e∗a=a (λ + µ) • a = λ • a + µ • a
S3 Existe Elemento simétrico a0 E3 Asociativa de vectores

hay un elemento simétrico tal que respecto al producto de escalares

a ∗ a0 = e = a0 ∗ a (λµ) • a = λ • (µ • a)
Al cumplir S1,S2,S3 el par (V, ∗) es un grupo

S4 Conmutativa E4 Existe un escalar unidad "1"

a∗b=b∗a 1•a=a
Al cumplir ademas S4 el par (V, ∗) es un grupo

Cumpliendo las 8 propiedades la terna (V, ∗, •, R) ES ESPACIO VECTORIAL

Cuadro 1: CONDICIONES PARA SER ESPACIO VECTORIAL.

la terna (V, ∗, •, R) para simplicar se denotara (V, ∗, R)

2.2. Denición de subespacio vectorial


U es un subespacio vectorial del espacio vectorial (V, ∗, R) si U es un subconjunto no vacío de V y (U, ∗, R)
tiene estructura de espacio vectorial
Una condición necesaria y suciente para que U sea subespacio vectorial es:

u ∗ v ∈ U yλ • u ∈ U, ∀u, v ∈ U y ∀λ ∈ R

Decir que un U (subconjunto no vacío de V) es un subespacio vectorial de (V, ∗, R) implica.

∀u, v ∈ U ∀λ, µ ∈ R =⇒ λu ∗ µv ∈ U

Álgebra 13 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

subespacio trivial Todo espacio vectorial V tiene siempre los subespacios vectoriales V y 0, los cuales se
denominan subespacios triviales.

subespacio propio Es cualquier otro subespacio que no sea el trivial.

Los Planos y las Rectas que pasan por el origen son los unicos subespacios propios de (R3 , +, R)

2.3. Sistemas de generadores


2.3.1. Combinación lineal
Consideremos un espacio vectorial (V, ∗, R) y el sistema conjunto de vectores S = {u1 , u2 , u3 , · · · , up } de
V.
Se dice que v∈V es una combinación lineal o dependiente de S, si:

v = λ1 u1 + λ2 u2 + λ3 u3 + · · · + λp up ∀λi ∈ R

2.3.2. Sistemas generadores


Decir que S es un sistema de generadores de un subespacio U de V o que U esta generado por S equivale
a decir que:

Cualquier vector de U es combinación lineal de vectores de S.

Se denota como U = hSi hSi −→ tambien se llama envoltura lineal de S

El subespacio hSi es el menor de los subespacios de V que contiene S.

Un espacio vectorial V, y en particular un subespacio vectorial U ⊂V tiene innitos sistemas generadores.

Cuando dos sistemas de vectores generan el mismo subespacio se llaman sistema de generadores equiva-
lentes.

2.3.3. Sistemas generadores, dependencia lineal


Un sistema de vectores S = {u1 , u2 , u3 , · · · , up } es linealmente dependiente o ligado si, al menos uno de
los vectores de S es combinación lineal de otros vectores de S.

Equivale a decir:

∃λ1 , λ2 · · · λp con algun λi 6= 0 /λ1 u1 , λ2 u2 · · · λp up = 0

2.3.4. Sistemas generadores, independencia lineal


Un sistema de vectores S = {u1 , u2 , u3 , · · · , up } es linealmente independiente o libre si,no es linealmente
dependiente.

Ninguno de los ui ∈ S depende linealmente de los otros vectores de S.

Por lo tanto en la expresión:

λ1 u1 + λ2 u2 + · · · + λp up = 0 ∀λi = 0

Es decir si hubiera algun λ distinto de 0 ya no seria libre o linealmente independiente

Álgebra 14 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

El rango del sistema de vectores {u1 , u2 , u3 , · · · , up } ⊂ V es el mayor numero de vectores linealmente


independientes del sistema.

Un sistema S de p vectores es linealmente independiente o libre solo si su rango es igual a p, si el rango


es inferior al numero de vectores es por tanto linealmente dependiente o ligado.

2.3.5. Supresión y sustitución de vectores de un sistema generador


Supresión Si G = {u1 , u2 , · · · , ui−1 , ui , ui+1 , · · · up } es un sistema generador de V y ui es combinación
lineal de los otros vectores de G, entonces:

El espacio generado por G1 = {u1 , u2 , · · · , ui−1 , ui+1 , · · · up } es también V, es decir hGi = hG1 i = V

Podemos decir que todo vector de V se puede generar prescindiendo de los vectores de G que sean
combinación lineal de otros de G

Sustitución Si v∈V es combinación lineal de algunos vectores {uij , · · · , uiq } del sistema G = {u1 , u2 , · · · up },
generador de V, entonces:

Al sustituir en G algún uij (con coeciente 6= 0 en la combinación lineal que expresa v) por v, el sistema
de vectores obtenido, G1 , sigue siendo generador de V

Relación entre los sistemas libres y los sistemas generadores Si {v 1 , v 2 , v 3 , · · · , v h } es un sistema


libre de generadores de V y {u1 , u2 , u3 , · · · , up } es un sistema generador de V −→ h ≤ p.

2.4. Base, Dimensión, Coordenadas


2.4.1. Base
Un espacio vectorial es nito si esta generado por un numero nito de vectores

Un sistema B = {u1 , u2 , u3 , · · · , up } de vectores de V es Base del espacio vectorial V si B es un sistema


libre y genera V.

B es una base de V equivale a decir que cualquier vector de v se puede expresar como una combinación
lineal única (salvo el orden)de los vectores de una base de B en V

B = {(1, 0, 0, · · · , 0), (0, 1, 0, · · · , 0), (0, 0, 1 · · · , 0), · · · (0, 0, 0, · · · , 1)} es la base mas sencilla de todas las
de Rn , recibe el nombre de base canónica de Rn .

Cualquier espacio vectorial nito V 6= e tiene base.

2.4.2. Dimensión
Todas las bases de un espacio vectorial V 6= {e} tienen el mismo numero de elementos.

La dimensión del espacio vectorial V 6= {e} nito Dim V es el numero de vectores de cualquiera de sus
bases.

La dimensión de del espacio vectorial Rn es n, ya que su base canónica tiene n elementos

Álgebra 15 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

2.4.3. Coordenadas
Sabemos que cualquier vector v de V se puede expresar de manera única como combinación lineal de los
elementos de una base B del espacio vectorial V, los coecientes de la combinación lineal que dene v se
llaman coordenadas del vector v respecto a la base B

Las coordenadas v ∈ deV respecto a la base B = {e1 , e2 , e3 , · · · , ep )} de V son (x1 , x2 , x3 , · · · xn ), si se


verica la igualdad.
v = x1 e1 + x2 e2 + x3 e3 + · · · + xn en
Se denota como x = (x1 , x2 , x3 , · · · , xn )B

Las coordenadas de un vector v(a, b, c, d) ∈ Rn respecto a la base canónica de Rn coinciden con el


vector.−→ a, b, c, d.

2.5. Teoremas de la Base


Existencia de la Base Cualquier espacio vectorial nito V 6= {e} tiene base.

De la dimensión Todas las bases de un espacio vectorial V 6= {e} tiene el mismo numero de elementos.

Dimensión del espacio vectorial. La dimensión del espacio vectorial V 6= {e} nito (Dim V) es el nu-
mero de vectores de cualquiera de sus bases.

La dimensión del espacio vectorial Rn es n, ya que su base canónica tienen n elementos.

Rango de S El rango de S = {u1 , u2 , u3 , · · · , up } es la dimensión del subespacio vectorial que genera S

rang(S) = DimhSi

Relación entre el rango de un sistema S y el rango de una matriz El rango de un sistema de


vectores S = {u1 , u2 , u3 , · · · , up } ⊂ V coincide con el rango de la matriz tal, que cada la (o columna) esta
compuesta por las coordenadas de cada vector del sistema S.

Conjunto libre de vectores Sea V 6= {e} un espacio vectorial, decir que Dim V =n equivale a decir
que:
Todo conjunto libre de n vectores de V forma una base de V, o que , todo conjunto generador de V con n
vectores forman una base de V

Un sistema de n vectores de un espacio V de dimensión n sera una base de V si y solo su rango es igual
a n.

De la base incompleta si la dimensión de un espacio V 6= {e} es n, entonces se verica que todo conjunto
de vectores S = {v 1 , v 2 , v 3 , · · · , v p } de V con p < n, linealmente independientes se pueden completar con
n − p vectores de V para convertirse en base.

2.6. Operaciones entre subespacios


2.6.1. Intersección se subespacios
La intersección de subespacios vectoriales de V es un subespacio de V

La intersección de subespacios Ui de un espacio vectorial V siempre es no vacía porque contiene, al menos,


el elemento neutro e de V

Álgebra 16 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

2.6.2. Unión de subespacios


La unión de subespacios de V, denida como unión de los conjuntos que los forman, normalmente no es
un subespacio.

2.7. Suma de subespacios


U1 + U2 es el subespacio suma de los subespacios U1 y U2 de V si:

Cada uno de los vectores se obtiene como suma de un vector de U1 y U2 .

U1 + U2 = {u1 + u2 : u1 ∈ U1 y u2 ∈ a U2 }

2.8. Formula de Grassmann o de la dimensión


Dim(U1 + U2 ) + Dim(U1 ∩ U2 ) = DimU1 + DimU2

2.9. Suma Directa de subespacios


Decir que la suma de los subespacios U1 y U2 de V es suma directa (U1 ⊕ U2 ) equivale a decir que la
descomposición de cada vector de U1 ⊕ U2 es única.

Otra forma de verlo es comprobar la intersección de ambos subespacios, tiene que ser 0

U1 ∩ U2 = {0}

Sean U1 y U2 dos subespacios de V


U1 y U2 serán suplementarios (complementarios) si la suma directa nos da el espacio V.

V = U1 ⊕ U2

Si B = {e1 , e2 , e3 , · · · , en } entonces:

V = (e1 ) ⊕ (e2 ) ⊕ (e3 ) ⊕ · · · ⊕ (en )

Álgebra 17 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

3. Capitulo III - APLICACIONES LINEALES Y MATRICES

3.1. Denición y propiedades


3.1.1. Definición
Si v y u son vectores cualesquiera de V y λ un escalar, f ; V −→ W es una aplicación lineal entre V y W
si:
f (v + λu) = f (v) + λf (u)

3.1.2. Algunas definiciones



 E −→ Espacio inicial
f
Aplicación Lineal: E −−−−→ F F −→ Espacio nal
f −→

Aplicacion


f A todos los elementos de E le corresponde uno distinto en F
Aplicación Inyectiva: E −−−−→ F
Puede ser que F tenga elementos sueltos


f A todos los elementos de F le corresponde
Aplicación Sobreyectiva o Suprayectiva: E −−−−→ F
uno o mas en E

f 
Aplicación Biyectiva: E −−−−→ F Al mismo tiempo inyectiva y sobreyectiva


 E −→ Espacio inicial y nal son identicos
f
Endomorsmo: E −−−−→ E R −→ R
 2
R −→ R2

3.1.3. Propiedades
Si f ; V −→ W es una aplicación lineal , verica:

f (0v ) = 0w (0v es el elemento neutro de V y 0w es el elemento neutro de W)

f (−v) = −f (v)

f (a1 v 1 + a2 v 2 + a3 v 3 + · · · + an v n ) = a1 f (v 1 ) + a2 f (v 2 ) + a3 f (v 3 ) + · · · + an f (v n ) con ai ∈ R y vi ∈ V

Si v, u ∈ V son linealmente dependientes , sus imagenes f (v) y f (u) también lo son.

Aunque v, u ∈ V sean linealmente independientes , sus imagenes f (v) y f (u) pueden no serlo.

3.2. Imagen y núcleo


3.2.1. Imagen
La imagen de una aplicación lineal f ; V −→ W esta formada por el conjunto de vectores de W que tienen
algun original en V. Se denota por Im(f )

Im(f ) = {w ∈ W/w = f (v) para algún v ∈V}

Álgebra 18 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

La imagen de f es un subespacio de W

Figura 2: Imagen de una aplicación lineal

3.2.2. Núcleo (Kerf)


El núcleo de una aplicación lineal f ; V −→ W y se denota por N uc(f ) esta formado por el subconjunto
de vectores de V cuya imagen es el elemento neutro de W.

El núcleo de f es un subespacio de V

Figura 3: Nucleo de una aplicación lineal

El núcleo también es denominado Kerf.

3.2.3. Relación entre las dimensiones


La relación de las dimensiones de una aplicación lineal f ; V −→ W son:

Dim Im(f ) + Dim N uc(f ) = Dim V

3.3. Ecuaciones y matriz asociada


3.3.1. Determinación de una aplicación lineal
Si f : V −→ W es una aplicacion lineal y B = {e1 , e2 , e3 , · · · , en } una base de V, entonces :

La imagen de cualquier vector v de V esta determinada por las imágenes f (e1 ), f (e2 ), f (e3 ), · · · , f (en ) de
los vectores en la base B.

Ejemplo: Si f : R2 −→ R3 / f (1, 0) = (1, 2, 1) y f (0, 1) = (1, 1, 0)

Las ecuaciones de cualquier vector las podremos escribir como:

          
  1 1 y1 1 1  y1 = x 1 + x 2
x1
f = x1 2 +x2 1 −→ y2 = x1 2 +x2 1 −→ unas
         ecuaciones de f son: y2 = 2x1 + x2
x2
1 0 y3 1 0 y3 = x 1

Álgebra 19 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

Estas ecuaciones nos permiten escribir cualquier vector de R3

Si f : V −→ W es una aplicacion lineal y B = {e1 , e2 , e3 , · · · , en } una base de V, y S =


{u1 , u2 , u3 , · · · , un } una base de W entonces:

f determina una matriz única que esta asociada a la aplicación lineal en las bases elegidas B y S

3.3.2. Matriz asociada y expresión matricial


Matriz asociada A es la matriz asociada a la aplicación lineal f : V −→ W respecto a las bases B⊂V
y S⊂W si:
 
a11 a12 · · · a1m
 a21 a22 · · · a2m 
A= , siendo
 
 .. .
. .. . 
. 
 . . . .
an1 an2 · · · anm
| {z }
A (matriz asociada a la aplicacion)


 f (e1 ) = a11 u1 + a21 u2 + a31 u3 + ··· + an1 un
 f (e2 ) = a12 u1 + a22 u2 + a32 u3 + ··· + an2 un

. . . . .. .
. . . . . .

 . . . . .

f (em ) = a1m u1 + a2m u2 + a3m u3 + · · · + anm un

Expresión matricial Si f (x1 , x2 , x3 , · · · , xn ) = (y1 , y2 , y3 , · · · , yn ) y A es la matriz asociada a la aplicación


lineal f : V −→ W en las bases B ⊂ V y S ⊂ W es evidente que la aplicación se puede expresar mediante
su expresión matricial.

    
y1 a11 a12 · · · a1n x1
 y2   a21 a22 · · · a2n   x2 
 ..  =  ..  ⇐⇒ Y = AX
    
. .. .  .
.  . . . .  .
. . . 
yn an1 an2 · · · ann xn
| {z }
A (matriz asociada)

De nuestro ejemplo anterior

    
y1 1 1    y1 = x1 + x2
x1
y2  = 2 1 ⇐⇒ y2 = 2x1 + x2
x2
y3 1 0 y3 = x1

| {z }
(matriz asociada)

3.4. Operaciones con aplicaciones lineales y operaciones con matrices


Se denota L(V, W ) al conjunto de todas las aplicaciones lineales entre los espacios vectoriales reales V
(de dimensión m) y W (de dimensión n) y Mn×m al conjunto de matrices de orden m × n.

3.4.1. Correspondencia entre aplicaciones lineales y matrices


La correspondencia establecida entre L(V, W ) y Mn×m es biyectiva.

Esto quiere decir que a cada elemento del primer conjunto(aplicaciones) le corresponde un solo elemento
del segundo conjunto (Matrices) y viceversa .

Álgebra 20 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

3.4.2. Espacios vectoriales de aplicaciones lineales y de matrices asociadas


Las aplicaciones lineales se pueden sumar de tal forma que:

Si f, g ∈ L(V, W ) su suma f +g es tal que:

(f + g)(v) = f (v) + g(v), ∀v ∈ V

Y su expresión matricial seria


Y = (A + B)X
También se pueden multiplicar por un escalar

Producto escalar λ∈R por la aplicacion lineal f ∈ L(V, W )

λf ∈ L(V, W ) es tal que (λf )(v) = λ(f (v)), ∀v ∈ V

Y su expresión matricial seria


Y = (λA)X
El conjunto de aplicaciones lineales entre los espacios vectoriales V y W es un espacio vectorial , esto es
cumple las 4 propiedades con respecto a la suma y las cuatro propiedades con respecto a la multiplicación
por escalares.

De igual forma el conjunto Matrices de n las y m columnas es un espacio vectorial , esto es cumple las 4
propiedades con respecto a la suma y las cuatro propiedades con respecto a la multiplicación por escalares.

3.4.3. Composición de aplicaciones lineales. Productos de matrices


Si V, W, U son espacios vectoriales reales, y g : V −→ W , y f : W −→ U dos aplicaciones lineales, la
composición f ◦g es tal que ∀x ∈ V verica:

g f f ◦g
V −−−−→ W −−−−→ U ó V −−−−−−→ U
x −→ g(x) −→ f (g(x)) x −→ (f ◦ g)(x) = f (g(x))
Ejemplo:
g : R2 −→ R/g(x1 , x2 ) = x1 − x2


f : R −→ R3 /f (y) = (y, 0, 2y)

g f f ◦g
R2 −−−−→ R −−−−→ R3 ó R2 −−−−−−→ R3
g f f ◦g
(x1 , x2 ) −−−−→ (x1 − x2 ) −−−−→ (x1 − x2 , 0, 2x1 − 2x2 ) x −−−−−−→ (x1 − x2 , 0, 2x1 − 2x2 )

Muy importante , el orden en el que se escriben f y g es el inverso al que se aplican al vector x en (f ◦g)(x)

3.4.4. Relación entre las dimensiones de los subespacios y las matrices asociadas
Si DimV = m, DimW = p Y B una matriz asociada a g, su orden es p×m

Si DimW = p, DimU = n Y A una matriz asociada a f, su orden es n×p

Por tanto la matriz asociada a (f ◦ g) es AB y su orden es n×m


 
  x1
Expresion matricial de g: y = 1 −1
| {z } x2
(B)

Álgebra 21 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

   
y1 1  
x1
Expresion matricial de f: y2  = 0
x2
y3 2
| {z }
(A)
    
y1 1 −1    y1 = x1 − x2
x
Expresion matricial def ◦ g : y2  = 0 0  1 ⇐⇒ y2 = 0
x2
y3 2 −2 y3 = 2x1 − 2x2

| {z }
(C=AB)

La expresión matricial de (f ◦ g) es : Y = (AB)X

3.4.5. Propiedades de la composición de aplicaciones


Son idénticas a las propiedades de las matrices

Asociativa (f ◦ g) ◦ h = f ◦ (g ◦ h)

Existe Aplicación identidad i◦f =f

No es conmutativa f ◦ g 6= g ◦ f

Distributiva respecto a la suma f ◦ (g + h) = f ◦ g + f ◦ h

Asociativa de escalares con aplicaciones λ(f ◦ g) = (λf ) ◦ g = f ◦ (λg)

3.5. Matriz inversa y cambios de base


3.5.1. Cambio de coordenadas en un espacio vectorial
Fijada una Base B = {e1 , e2 , e3 , · · · , en } en el espacio vectorial V, cualquier vector x de V se puede
expresar mediante sus coordenadas (x1 , x2 , x3 · · · xn )B en dicha base: x = x1 e1 + x2 e2 + x3 e3 + · · · + xn en

Si elegimos otra base diferente B 0 = {e01 , e02 , e03 , · · · , e0n } nos permitirá expresar el mismo vector en función
de otra base x= x01 e01 + x02 e02 + x03 e03+ · · · + x0n e0n

Las coordenadas serán distintas según la base que tomemos, aunque el numero de coordenadas tienen que
coincidir , pues corresponde a su dimensión (n).


(x1 , x2 , x3 · · · xn )B
x=
(x01 , x02 , x03 · · · x0n )B 0
Las coordenadas del mismo vector en ambas bases están relacionadas por las ecuaciones de cambio de
coordenadas.

3.5.2. Ecuaciones de cambio de coordenadas de B 0 a B

x01
     
x1 q11 q12 · · · q1n
 x2   q21 q22 · · · q2n   x0 
 2
 ..  = ⇐⇒ xB = QxB 0
    
 .. .
. .. . 
. 
 .. 
 .   . . . .  . 
xn B qn1 qn2 · · · qnn x0n B0
| {z }
Matriz Q cambio de coordenadas

Cada columna de la Q estará formada por cada uno de los vectores de la base B' respecto a la base B.

Álgebra 22 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

3.5.3. Matriz asociada a una aplicación al cambiar las bases


En el apartado anterior hemos resuelto como pasar vectores de la base B' a la base B, pero se nos puede
dar la situación inversa expresar los vectores dados en la base B a la base B'

La forma de hacerlo es análogo, resultando entonces una nueva matriz de cambio de coordenadas que
llamaremos P

x01
     
p11 p12 · · · p1n x1
 x0   p21 q22 · · · p2n   x2 
 2
 ..  =  ⇐⇒ xB 0 = P xB
   
 .. .
. .. . 
. 
 ..
 .   . . . .  . 
x0n B 0 pn1 pn2 · · · pnn xn B
| {z }
Matriz P cambio de coordenadas

xB 0 Q xB → xB
−P
0
−→
Las matrices de cambio de base son regulares y por tanto tienen inversa.

Entre Q y P hay una relación −→ QP = I −→ Q−1 QP = Q−1 I −→ P = Q−1 −→ Q = P −1

Esquema de la aplicación V −→ W

(V, B) −A
→ (W, S)

Q ↑↓ Q−1 T ↑↓ T −1

(V, B 0 ) −A'
−→ (W, S 0 )

A0 = T −1 AQ
Analogamente

xB −A
→ f (xB )

Q ↑↓ Q−1 T ↑↓ T −1

xB 0 −A'
−→ f (xB 0 )

f (xB 0 ) = T −1 AQxB 0

Álgebra 23 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

4. Capitulo IV-DIAGONALIZACIÓN DE MATRICES

4.1. Relación Binaria


Una Relación Binaria, R, en un conjunto de A, no vacío, es un subconjunto no vacío del producto cartesiano
AxA. 

 Ref lexiva → (aRa, ∀a ∈ A)
 Antiref lexiva → (a, a) ∈
/ R, ∀a ∈ A)


P ropiedades Simetrica → (aRb =⇒ bRa, ∀a, b ∈ A)
Antisimetrica → (si aR b , b noR a =⇒ a 6= b, ∀a, b ∈ A)




T ransitiva → (aRb, y, bRc =⇒ aRc, ∀a, b, c ∈ A)

4.2. Relación de Equivalencia


Decimos que una relación R es de equivalencia en un conjunto si cumple las propiedades:


 Ref lexiva
Simetrica
T ransitiva

El conjunto de las clases de equivalencia que ha determinado la relacion R en el conjunto A se llama conjunto
cociente : A/R

4.3. Matrices Equivalentes


Decimos que la matriz B es equivalente a la matriz A si cumple

B =M ·A·N


Congruentes
Equivalentes
Semejantes

4.3.1. Propiedades de las matrices equivalentes

Si son equivalentes tienen el mismo rango (condición suciente).


Si A=C ·B y A y B son del mismo orden entonces A y B son Equivalentes

4.4. Matrices Congruentes


Decimos que la matriz B es congruente con la matriz A si cumple

B = Pt · A · P

4.5. Matrices Semejantes


Decimos que la matriz B es semejante a la matriz A si cumple

B = P −1 · A · P −→ P · B = A · P
Las matrices asociadas a un endomorsmo en diferentes bases son semejantes y por tanto equivalentes.

Álgebra 24 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

4.5.1. Propiedades de las matrices semejantes


Si son semejantes tienen:

Mismo rango (no suciente).


Mismo determinante (no suciente)
Misma traza (no suciente)
Mismo Polinomio característico (no suciente)

Puede darse el caso que Matrices con la misma traza y la misma ecuación característica no sean semejantes.

4.6. Valores propios y Vectores propios


4.6.1. Valores Propios o Autovalores
Valor propio o autovalor (λ) de un endomorsmo (o de su matriz), asociado a un vector propio(x̄) ∈ V si:

AX = λX con λ∈R

4.6.2. Vectores Propios o Autovectores


Vector propio o autovector de un endomorsmo (o de su matriz asociada) x̄ ∈ V es un vector propio del
endomorsmo f de V y de su matriz asociada, A si:

f (x̄) = AX = λX para algún λ∈R y x̄ 6= 0̄


El conjunto de vectores propios X asociados a un valor propio λ es un subespacio vectorial. Los vectores
del subespacio verican:
(A − λI)X = 0
El conjunto de vectores propios correspondientes a los valores propios de un endomorsmo (o de una matriz)
forman un sistema libre.

4.6.3. Polinomio Característico y Ecuación Característica.


Llamamos polinomio característico P (λ) al siguiente determinante:

|A − λI|
y ecuación característica a:
|A − λI| = 0
Calculando el determinante y hallando los valores de λ obtendremos los valores propios o autovalores, tam-
bién llamados raíces características.

El polinomio característico es invariante a los cambios de base de V.

4.6.4. Multiplicidades algebraica y geométrica.


Multiplicidad algebraica αi de un valor propio λi es el numero de veces que se repite dicho valor como
solución de la ecuación característica.

Multiplicidad geométrica de un valor propio λi es la dimensión del subespacio asociado a el Li .

Si λi es una raíz característica de A con multiplicidad Algebraicaαi y Geométrica di , se verica:

1 6 di 6 αi

Un caso especial es cuando los valores son distintos entonces:



αi = 1
1 6 di 6 αi = 1
di = 1

Álgebra 25 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

4.7. Matrices diagonalizables


En álgebra lineal, una matriz cuadrada A se dice que es diagonalizable si es semejante a una matriz
diagonal. Es decir, si mediante un cambio de base puede reducirse a una forma diagonal. En este caso, la
matriz podrá descomponerse de la forma D = P −1 AP

Diagonalizar una matriz es encontrar las matrices D y P.

Para que la matriz sea diagonalizable tienen que coincidir sus multiplicidades en todos los subespacios
asociados.

A la matriz diagonalizada también se representa por ∧

4.7.1. Pasos para encontrar la matriz D(∧) y P.


o
1 Hallamos la ecuación característica.

o
2 Resolvemos la ecuación y hallamos los valores propios.

o
3 Obtenemos las multiplicidades algebraicas.

o
4 Hallamos las bases de los subespacios asociados a los valores propios.

o
5 La dimensión de estos serán las multiplicidades geométricas.

o
6 Si coinciden ambas multiplicidades es diagonalizable.

o
7 La matriz semejante Diagonal (D) estará formada por los valores propios.

o
8 La matriz de paso (P ) estará formada por los vectores de las distintas bases y en el mismo orden que
colocamos sus valores propios asociados en la matriz (D).

o
9 Si queremos podemos hacer la comprobación:

D = P −1 · A · P −→ P · D = A · P

4.8. Matriz de Jordán o forma canónica de Jordan


La matriz de Jordan es una matriz semejante a A casi diagonal, en el sentido de que es diagonal por
bloques.

J = P −1 AP
Si la matriz diagonaliza hay un solo bloque y por tanto la matriz de Jordan coincide con la diagonal.

J = D = P −1 AP

Tendremos tantos bloques Ji como vectores propios independientes de A. por lo tanto coincidirá con las
multiplicidades geométricas de los subespacios asociados a los valores propios de A.

Cada uno de los bloques es la suma de un múltiplo de los valores propios y de una matriz nihilpotente
(N es nihilpotente si ∃n ∈ N/M n es la matriz nula)

Ji = λi I + N

Álgebra 26 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

     
λi 1 0 · · · 0 1 0 0 ··· 0 0 1 0 ··· 0
 ..   ..   .. 
 . λi 1 · · · 0  = λi  . 1 0 · · · 0 + . 0 1 · · · 0
 
 
 .. .
.
.
. .. . 
. 
 .. .. .. . . .
.
 .. .. .. . . .
.
. . . . . . . . . . . . . . .
0 0 0 ··· λi 0 0 0 ··· 1 0 0 0 ··· 0
| {z }
Matriz nihilpotente

4.8.1. Propiedades
J y A son semejantes y tienen los mismos valores propios.

Por ser semejante existe una matriz regular de paso (P ) que verica J = D = P −1 AP .

Si los bloques se cambian entre si, la matriz obtenida sigue perteneciendo a la misma clase de matrices
semejantes a A.

La forma canónica de Jordan es única para cada A, salvo en el orden de los bloques (solo podremos
cambiar el orden de los bloque correspondientes a cada valor propio, dentro del mismo valor los bloques no
serán crecientes)

Si los autovalores son todos distintos las multiplicidades algebraicas y geométricas serán 1 y por tanto la
matriz sera diagonalizable y coincidirá con la forma canónica de Jordan

4.8.2. Construcción de la matriz de Jordan


El calculo de la matriz de Jordan es previo al computo de la matriz P. La construcción de la matriz de
paso P corresponde al calculo de una matriz de cambio de base.

Hay que atender a los siguientes pasos:

1o Una vez calculadas las multiplicidades geométricas y algebraicas de cada valor propio podemos escribir
las posibles matrices de Jordan J1 , J2 ....Jr asociadas a la matriz A. Para ello se tiene en cuenta que: el
número de bloques asociados al autovalor que habría en J es la multiplicidad geométrica del autovalor. Ello
es debido a que los vectores propios linealmente independientes van a formar parte de la base que permite
representar A como J. En otras palabras, pertenecen a la matriz de cambio de base.

2o La matriz de Jordan J se calcula a partir de las dimensiones de los subespacios propios generalizados
observando las matrices Ji y lo que signican.La construiremos atendiendo a las multiplicidades geométricas
que serán los bloques.

3o Calcular la matriz de paso P asociada a la matriz de Jordan obtenida teniendo en cuenta las bases de
los subespacios propios generalizados y de la forma de jordan J determinada en el PASO 2.

Nótese que el número de columna en la que interviene el vector (columna) que forma la matriz de paso P
está relacionado con la misma columna de la matriz J . Así, podemos diferenciar dos casos o tipos de vectores
que intervienen en la construcción de la matriz P.

Caso 1El vector calculado es un vector propio y participa en un bloque 1x1. Entonces, se sitúa en el
mismo lugar o columna de P en el que participa en J.

Caso 2 El vector calculado participa en un bloque de orden mayor a 1x1, es decir, 2x2 3x3,.... Estos
vectores están participando en los bloques de J de orden mayor estricto al orden 1x1.

Álgebra 27 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

Procedemos a realizar el esquema de los subespacios propios generalizados asociados al valor propio para
aclarar lo anterior. Por ejemplo esquema del problema 4.39 y 4.40
La multiplicidad geométrica (di ) que tenemos que conseguir es 4 para que coincida con la algebraica, por
tanto calculamos:

N uc(A − λI)1 =⇒ obteniendo d1 = 2


N uc(A − λI)2 =⇒ obteniendo d2 = 3
N uc(A − λI)3 =⇒ obteniendo d3 = 4

d3 = 4 es el subespacio total M (λ)

genera 2 vectores genera (3-2=1)vector li genera(4-3=1)vector li


d1 = 2 d2 = 3 d3 = 4
N uc(A − λI)1 N uc(A − λI)2 N uc(A − λI)3
E 1 (λ) ⊂ E 2 (λ) ⊂ E 3 (λ)... hasta conseguir di = αi
v1 ←− v2 ←− v3
v4
Este esquema responde a 2 bloques (3 y 1)

v3 ∈ E 3 (λ) − E 2 (λ)
v2 = (A − λI)v 3
v1 = (A − λI)v 2
v4 ∈ E 1 (λ)li con los anteriores

4.9. Métodos iterativos para estimar valores propios



 Metodo de Jacobi
Metodo de potencias

El algoritmo QR

4.9.1. Método de potencias


El método de potencias se aplica a matrices cuadradas para determinar un valor propio estrictamente
dominante

Si A es una matriz cuadrada de orden n tal que sus valores propios son {λ1 , λ2 , λ3 , ....λn } diremos que λ1
es un valor propio estrictamente dominante si se cumple:

|λ1 | > |λ2 | > |λ3 | > ....|λn |

λ1 tiene mayor valor absoluto que cualquier otro valor propio.

4.9.2. Método de potencias (método de calculo)


1o Seleccionar un vector inicial
xK ∈ R

2o Iterar para k=0 ,1,...n. Procederemos a realizar iteraciones hasta acercar el valor k=0 a k=n

3o Calculamos
Axk

Álgebra 28 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

4o Obtenemos µk Corresponde con la mayor coordenada en valor absoluto de Axk , una vez seleccionada
la tomaremos con su propio signo.

5o Calculamos xk+1
1
xk+1 = Axk
µk

6o Procedemos con la nueva iteración

7o Ejemplo de tabla obtenida

n Axk µk xk+1
k=0 (-3,-5) -5 (0.6,1)
k=1 (-1.4,-2.6) -2.6 (0.5384, 1)
k=2 (-1.15538,-2.23076) 2.23076 (0.51724, 1)
 
−4 1
A= −→ Tomamos x0 = (1, 1) −→ . . . .
−6 1 .
.
.
.
.
.
.
.
k=8 (-1.00195,-2.00293) -2.00293 (0.50245, 1)
k=9 (-1.00097,-2.00146) -2.00146 (0.50012, 1)
k=10 (-1.00048,-2.00073) -2.00073 (0.50006, 1)

8o Resultados De la tabla anterior observamos que µk tiende al valor -2


y que xk+1 tiende al valor (0.5 , 1)

Podremos tomar entonces como valor propio estrictamente dominante λ=2


Y como vector propio (0.5 , 1) −→ (1,2)

En caso de no obtener unos resultados por no tender a un valor propio o a un vector , tendríamos que
comenzar tomando otro vector inicial.

Álgebra 29 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

5. Capitulo V-ORTOGONALIDAD

5.1. Producto escalar


5.1.1. Definición
Sea (V, +, R) un espacio vectorial . Una aplicación • : V xV −→ R , es un producto escalar sobre V si
para todo u, v, w ∈ V y λ ∈ R, se verican las siguientes propiedades.

1o Conmutativa u•v =v•u

2o Distributiva respecto a un escalar (λu) • v = λ(u • v)

3o Distributiva respecto a la suma (u + v) • w = u • v + v • w

4o El producto por si mismo tiene que ser ≥ 0 −→ u • u ≥ 0

5o El producto por si mismo es 0 implica que el vector es 0 u • u = 0 =⇒ u = 0


Un espacio vectorial con un producto escalar denido sobre el se llama espacio vectorial euclídeo.

5.1.2. Producto usual o estándar


El producto usual es la multiplicación, pero puede ser que se nos dena otra clase de producto y entonces
no sea el usual.

Producto usual −→= u • v


u • v = (u1 , u2 , u3 · · · , un ) • (v1 , v2 , v3 · · · , vn ) = (u1 · v1 + u2 · v2 + u3 · v3 + · · · + un · vn )

5.2. Matriz de Gram o matriz métrica


5.2.1. 1o Definición
La matriz G se llama matriz de Gram o matriz metrica del producto escalar • en la base B = {e1 , e2 , · · · en }
Se cumple
x • y = X t GY
siendo x = (x1 , x2 , · · · en )B , y = (y 1 , y 2 , · · · y n )B , y G = (gij ) con gij = ei • ej

  
e1 • e1 e1 • e2 e1 • e3 ··· e1 • en y1
 e2 • e1 e2 • e2 e2 • e3 ··· e2 • en   y2 
x • y = (x1 x2 · · · xn )  .
  
. . .. .   .. 
 .. .
.
.
. . .
.  . 
en • e1 en • e2 en • e3 · · · en • en yn
  
g1 1 g1 2 g1 3 · · · g1 n y1
 g2 1 g2 2 g2 3 · · · g2 n   y2 
t
ei • ej = gij −→ x • y = (x1 x2 · · · xn )  . .   .  = X GY
  
. . ..
 .. .
.
.
. . .
.   .
. 
gn 1 gn 2 gn 3 · · · gn n yn
G depende da la base B

G es simétrica , esto es G = Gt

Álgebra 30 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

5.2.2. Ejemplo como calcularla

Dado el producto escalar denido por:x • y = 4x1 y1 + x1 y2 + x2 y1 + 9x2 y2

  
g g y1
x • y = (x1 x2 ) 11 12 = g11 x1 y1 + g12 x1 y2 + g21 x2 y1 + g22 x2 y2
g21 g22 y2
Igualamos coecientes


 g11 = 4  
g12 = 1 4 1

−→ G =

 g21 = 1 1 9
g22 = 9

5.2.3. 2o Cambio de base en la matriz de Gram


Si G y G0 son las matrices de Gram asociadas a un mismo producto escalar respecto de bases diferentes
B y B 0 se cumple:

G0 = Qt GQ (donde Q es la matriz cambio de base)

Las matrices son congruentes −→ son equivalentes y tienen por tanto el mismo rango.

5.3. Normas, distancias , ángulos


5.3.1. Normas, normalizar un vector
Denición de Norma Si V es un espacio euclídeo y • su producto escalar, la norma o longitud de un
vector v∈V es:
p
||v|| = |v • v|

Normalizar un vector Normalizar un vector no nulo v 6= 0 es obtener otro que tiene la misma dirección
y sentido, pero que su norma vale 1. Para ello lo único que tenemos que hacer es dividir el vector por su
modulo.
v
||v||

Distancia entre dos vectores La distancia entre dos vectores u y v es el modulo de la diferencia de los
dos vectores, esto es el modulo de u−v
d(u, v = ||u − v||

Producto escalar en física En sica se dene el producto escalar de dos vectores como

||u|| · ||v|| · cos(α)

Coseno del angulo que forman dos vectores Igualamos las dos deniciones de producto escalar, por
ejemplo su nos situamos en R
3

||u|| · ||v|| · cos(α) = u • v


u•v (u1 · v1 + u2 · v2 + u3 · v3 ) (u1 · v1 + u2 · v2 + u3 · v3 )
cos(α) = = =p p
||u|| · ||v|| ||u|| · ||v|| (u1 ) + (u2 )2 + (u3 )2 · (v1 )2 + (v2 )2 + (v3 )2
2

Álgebra 31 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

5.3.2. Vector ortogonal


Decimos que dos vectores son ortogonales y lo representamos como u⊥v si su producto escalar es 0.

u ⊥ v =⇒ u • v = 0

Un vector v es ortogonal a un conjunto de vectores (u1 , u2 , u3 · · · un ) si es ortogonal a cada uno de ellos es


decir v ⊥ ui ∀i

5.4. Sistemas ortogonales y ortonormales



 Sistema normalizado
Sistema ortonormal +
Sistema ortogonal

Un sistema decimos que es ortogonal si el producto escalar de todos los vectores (en una matriz tomaremos
las columnas una por una) de 0. si una sola combinación de ellos es distinto de 0 podemos armar que el
sistema no es ortogonal.
Un sistema decimos que esta normalizado si todos sus vectores (en una matriz tomaremos las columnas una
por una) están normalizados , esto es su modulo o norma vale 1
Un sistema es ortonormalizado si es ortogonal y normalizado al mismo tiempo.

Cualquier sistema ortogonal de vectores es linealmente independiente

Un vector v ∈ V es ortogonal a un subespacio S de V ,


(v ⊥ S), si v es ortogonal a un sistema generador de S .

Figura 4: Vector ortogonal a un subespacio

5.5. Método de ortonormalización de Gram-Schmidt


Sea S = {u1 , u2 , · · · up } un sistema linealmente independiente de V.

Paso 1 Construir un sistema = {e1 , e2 , · · · ep } como sigue. Este paso forma un sistema ortogonal

e1 = u1
u2 • e1
e2 = u2 − · e1
e1 • e1
u3 • e1 u3 • e2
e3 = u3 − · e1 − · e2
e1 • e1 e2 • e2
.
.
.

up • e1 up • e2 up • ep−1
ep = up − · e1 − · e2 − · · · − · ep−1
e1 • e1 e2 • e2 ep−1 • ep−1

Álgebra 32 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

Paso 2 Normalizamos los vectores

ei
e0i = para todo i ∈ {1, 2, , · · · p}
||ei ||
0
El Sistema S'={e1 , e2 , · · ·
0 , e0p } es ortonormal y cumple hSi = hS 0 i

5.5.1. Propiedades de la matriz G


Si B es una base ortogonal , G es una matriz diagonal

Si B es una base ortonormal, G es una matriz identidad , (G = In )

Si B es una base normalizada, G cumple que gii = 1 ∀i

Si B es una base de vectores unitarios, todos los valores de la diagonal de G son 1

5.6. Proyección ortogonal


Dos subespacios son ortogonales U ⊥ U 0, si cualquier vector de U es ortogonal a cualquier vector de U0

U0 es suplementario ortogonal a U, si se verica

U y U0 son subespacios ortogonales

U ⊕ U0 = V , es decir , V es suma directa de U y U0


Sea u y v dos vectores pertenecientes al espacio vectorial V

La proyeccion de v sobre u se representa P royu (v) =


P royhui (v)

Figura 5: P royu (v)

5.6.1. Calculo del modulo de la proyección

||u|| · ||v|| · cos(α) = u • v


u•v
cos(α) =
||u|| · ||v||
Por otro lado:

||P royu (v)|| ||P royu (v)|| u•v u•v


cos α = −→ = −→ ||P royu (v)|| =
||v|| ||v|| ||u|| · ||v|| ||u||
Luego tenemos el modulo de la proyección , pero si queremos obtener el vector calculamos el vector unitario
en u
u
||u||
Y este multiplicado por el modulo obtenido nos dará el vector P royu (v)
u•v u u•v
P royu (v) = · −→ P royu (v) = ·u
||u|| ||u|| ||u||2

Álgebra 33 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

5.6.2. Mejor aproximación o mínima distancia

d(u, v) = ||u − v||


Es decir la distancia es la norma del vector u−v

5.7. Matrices ortogonales


Decimos que una matriz A ∈ Mm×n es una matriz ortogonal si Col A es un sistema ortonormal de Rm
con el producto escalar estándar.

Si A es una matriz ortogonal =⇒ At .A = In


Si ademas de ser ortogonal es
t
cuadrada =⇒ A = A
−1

5.7.1. Propiedad de las Matrices ortogonales


Si A ∈ Mm×n es una matriz ortogonal y x, y ∈ Rn se verica

Ax · Ay = x · y

||Ax|| = ||x|
Ax · Ay = 0 ⇐⇒ x · y = 0

5.7.2. Factorización QR
Si A ∈ Mm×n , verica que las columnas de A son linealmente independientes, entonces el proceso de
Gram-Schmidt construye un sistema ortonormal de la forma siguiente

A = QR

siendo Q ∈ Mm×n tal que sus columnas forman una base ortonormal, QQt = I

Finalmente obtenemos R = Qt A , donde R es triangular superior con elementos positivos en la diagonal

5.7.3. Proceso Factorización QR


Factorizacion QR de A

 
1 −2 1
A =  −1 3 2 
1 −1 −4
o
1 Comprobamos su determinante

det(A) = −8 6= 0, entonces col(A) son L.I.

Construimos usando Gram-Schmidt un sistema ortonormal


o
2 ortogonal

 
1 0 8/3
⊥ A =  −1 1 4/3 
1 1 −4/3

Álgebra 34 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

o
3 normalizamos y obtenemos Q

1 2
 
√ 0 √
 3 6 
 −1 1 1 
Q=
 √ √ √ 

 3 2 6 
 1 1 −1 
√ √ √
3 2 6
4
o
Obtenemos R = Qt A
−1
1 1
 
√√ √
 3
3 3 
t
 1 1 
Q =
 √ 0 √ 

 2 2 
 2 1 −1 
√ √ √
6 6 6
3 −6 −5
 
√ √ √
 3 3 3 
 2 −2 
R=
 0 √ √ 

 2 2 
 8 
0 0 √
6
Nótese que la matriz es triangular superior y su diagonal son elementos positivos

5.8. Diagonalización de Matrices simétricas


Todas las raíces de la ecuación característica de una matriz simétrica son reales.

Si A es una matriz simétrica real de orden n, entonces los subespacios de los vectores propios asociados
a los vectores propios distintos son ortogonales con respecto al producto escalar estándar de Rn

Las matrices simétricas, poseen bases ortogonales (pudiendo ser ortonormales) de vectores propios , y por
tanto son siempre diagonalizables.

En particular si la base fuera ortonormal, la matriz de paso es ortogonal y por tanto posee mejor es
propiedades.

A es una matriz simétrica con elementos reales ,entonces existe una matriz
Si de paso P ortogonal tal
t
que P AP = ∧ siendo ∧ una matriz diagonal formada por los valores propios de A. En particular A y ∧ son,
ademas de semejantes congruentes.

   
1 0 1 1 0 1
A =  0 2 0  −→ P =  0 1 0 
1 0 1 1 0 −1
Considerando las bases y normalizando los vectores

 1 1 
√ 0 √
 2 2 
P = 0 1 0
 

 1 −1 
√ 0 √
2 2
P es ortogonal ya que sus columnas están formadas por vectores ortonormales.

Luego cumple P P t = I3 , =⇒ P −1 = P t

Álgebra 35 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

por ultimo se comprueba que P t AP es una matriz diagonal que tiene los valores propios de A
 1 1   1 1 
√ 0 √  √ 0  √  
 2 2  1 0 1  2 2  2 0 0
0 1 0  0 2 0  0 1 0 = 0 2 0 
    

 1 −1 
1 0 1
 1 −1 
0 0 0
√ 0 √ √ 0 √
2 2 2 2

5.9. Mínimos cuadrados


La idea es buscar una solución aceptable a un sistema AX = B que no tenga solución

La solucion por minimos cuadrados siempre existe

La idea del método de mínimos cuadrados aplicado a un sistema Ax = b consiste en hallar un xo tal
que el vector Axo se aproxime a b lo máximo posible.

5.9.1. Metodo
Como es una aproximación cometemos un error, se denomina error cuadrático y es cometido al sustituir
xo en el sistema Ax = b
Error cuadratico −→ ||Axo − b||
Una solución por minimos cuadrados de Ax = b es un x0 ∈ Rn tal que minimiza el error cuadrático, es decir

||Axo − b|| ≤ ||Ax − b||, ∀x ∈ Rn

5.9.2. Aplicación a los modelos lineales


La ecuación de la recta y = mx + n que mejor se aproxima a un conjunto de puntos observados (xi , yi )
mediante la técnica de mínimos cuadrados se llama linea o recta de mínimos cuadrados.

5.9.3. Calculo de recta de mínimos cuadrados


La recta y = mx + n se calcula minimizando la suma de los cuadrados de los errores ei cometidos entre
los valores observados (xi , yi ) y los valores pronosticados de la forma (xi , mxi + n).

Es decir, se trata de resolver el problema de optimización.

X
min e2i siendo ei = |mxi + n − yi |
i

Es decir
||Ax − b|| es minimo para x = x0

5.9.4. Caracterización de las soluciones por mínimos cuadrados


Se dice que xo ∈ Rn es solución por mínimos cuadrados del sistema de Ax = b si y solo si:

||Ax − b|| es mínimo para x = xo

b − Ax es ortogonal al subespacio hColAi

Xo es solución del sistema At AX = At B

xo es solución del sistema Ax = P royhColAi b =⇒ Axo = P royhColAi b

Álgebra 36 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

5.9.5. Caracterización de la unicidad


Son equivalentes las siguientes condiciones:

La solucion por minimos cuadrados es unica

ColA es linealmente independiente

At A es regular

5.9.6. Proceso, calculo de la recta


Dados los puntos (2, 3), (4, 2), (5, 1), (7, 0· 5)

Construimos el sistema AX = B
   
2 1   3
 4 1  m  2 
A=
 5
, X= , B= 
1  n  1 
7 1 0· 5

Calculamos At AX = At B
   
  2 1     3
2 4 5 7  4
  m = 2 4 5 7  2 
1   
1 1 1 1  5 1  n 1 1 1 1  1 
7 1 0· 5

Obtenemos CX = D  
   45
94 18 m  2 
=  13
18 4 n

2
Operamos C −1 CX = C −1 D
 
 −1     −1 45
94 18 94 18 m 94 18  2 
=  13 
18 4 18 4 n 18 4
2
Finalmente X=E
−27
 
 
m  52 
=  103
n

26
Finalmente la recta sera
−27 103
y= x+
52 26

5.9.7. Proceso, calculo del plano


Cuando nos dan puntos ∈ R3 lo que mejor se ajusta es un plano y no una recta. Si estos son tres puntos
la solución es un plano, pero cuando hay mas de tres hay que buscar el plano que mejor se ajuste.

El plano responde a la ecuacion z = ax + by + c

Al ser un plano que se ajusta no tiene porque pasar por los puntos al igual que sucede con la recta

Álgebra 37 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

Ejemplo Ajustar el plano dados los siguientes puntos. (1,-1,3)(2,3,-2),(1,1,1)(1,3,4)


Construimos el sistema AX = B
   
1 −1 1   3
a
  b  =  −2 
 2 3 1   

 1 1 1   1 
c
1 3 1 4

Si resolvemos al igual que se hizo con la recta llegamos a

31
 
  −
a  6 

 b = 1 

c
 4 
 91 
12
31 1 91
El pano pedido es: z=− x+ y+
6 4 12

Álgebra 38 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

6. Capitulo VI-FORMAS BILINEALES Y CUADRÁTICAS

6.1. Formas Bilineales


Para que f : E × F −→ V sea bilineal se tiene que cumplir que sea lineal en la primera variable y lineal
en la segunda variable

f (x + x0 , y) = f (x, y) + f (x0 , y) −→ Conserva



la suma
1a V ariable
f (λx, y) = λf (x, y) −→ Conserva el producto
f (x, y + y 0 ) = f (x, y) + f (y, y 0 ) −→ Conserva la

a suma
2 V ariable
f (x, λy) = λf (x, y) −→ Conserva el producto
Siendo x, x0 ∈ E y, y 0 ∈ F y λ∈R y E, F y V tres espacios vectoriales

Una aplicación f : E × E −→ R es una forma bilineal si f es una aplicación bilineal.

6.1.1. Expresión analítica


Si f : E × E −→ R es una aplicación bilineal, su expresión analítica es

 
n
X n
X Xn
f (x, y) = aij xi yj = xi  aij yj 
i,j=1 i=1 j=1

Ejemplo−→ f (x, y) = x1 y1 − 4x1 y2 + 6x2 y3 − x3 y1 − 3x3 y3

6.1.2. Expresión matricial


La expresión matricial de f es

  
a11 a12 · · · a1n y1
  21 a22 · · ·
 a a2n 
  y2 
 
f (x, y) = X t AY = x1 x2 · · · xn  . . .. . . 
 .. . .   .. 
 
. . .
an1 an2 · · · ann yn

Si B = {e1 , e2 , e3 } es una base de E, de la forma bilineal f : E × E −→ R tiene asociada una unica matriz
cuadrada A de orden n, siendo sus elementos aij = f (ei , ej )

6.1.3. Algunas propiedades de las formas bilineales


f (x, 0) = f (0, y) = 0

f (−x, y) = f (x, −y) = −f (x, y)

La matriz A, asociada a una forma bilineal f, depende de la base jada en E.

Dos matrices cuadradas A y A0 son congruentes si existe alguna matriz regular P / A0 = P t AP

Las matrices asociadas a una forma bilineal f : E × E −→ R en distintas bases son congruentes.

Álgebra 39 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

6.2. Formas Cuadráticas


Forma cuadrática o forma bilineal simétrica f : E × E −→ R es una forma bilineal simétrica y por tanto
cuadrática si:

f (x, y) = f (y, x), ∀(x, y) ∈ E × E.


f : E × E −→ R es una forma bilineal antisimétrica si:

f (x, y) = −f (y, x), ∀(x, y) ∈ E × E.

6.2.1. Caracterización de una forma cuadrática


Que una forma bilineal sea simétrica equivale a que su matriz asociada sea simétrica.

El producto escalar es una forma bilineal simétrica.

Que una forma bilineal sea antisimétrica equivale a que su matriz asociada sea antisimétrica.

El rango de una forma cuadrática Q es el rango de la matriz A asociada a Q.

6.2.2. Expresión analítica y matricial de la forma cuadrática


Q : E −→ R es la forma cuadrática generada por la forma bilineal simétrica f : E × E −→ R si

Q(x) = f (x, x) ∀x ∈ E (Expresion analitica)

En caso que nos den la forma bilineal en (x, y) se sustituye y por x y se simplica.

Q(x) = X t AX A −→ matriz asociada a f en la base b (Expresion matricial)


Para obtener a matriz A simétrica a partir de la forma cuadrática Q se desdoblan los términos rectangulares
y se colocan en el lugar correspondiente de la matriz.

Q(x1 , x2 , x3 ) = 2x21 + 2x1 x2 − 6x2 x3 + x22 + 5x23


 
2 1 0
A= 1 1 −3 
0 −3 5

si i = j el termino se llama cuadrado
Los terminos son xi xj
si i 6= j el termino se llama rectangular

El rango de una forma cuadrática Q es el rango de su matriz asociada A

6.2.3. Ejemplos de formas cuadráticas y no cuadráticas


Los términos de una forma cuadrática son todos de grado 2


 Q(x1 , x2 ) = x1 x2
Cuadraticas Q(x1 , x2 , x3 ) = x21 + 2x2 x3
Q(x1 , x2 , x3 ) = 2x21 + 2x1 x2 − 6x2 x3 + x22 + 5x23


 Q(x1 , x2 , x3 ) = x1 x2 + x3
No Cuadraticas Q(x1 , x2 , x3 ) = x21 + 2x2 x3 + 5
Q(x1 , x2 , x3 ) = sen(2x21 + 2x1 x2 − 6x2 x3 ) + x22 + 5x23

Álgebra 40 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

6.3. Clasicación de las Formas Cuadráticas


Siempre es posible expresar una forma cuadrática de tal modo que su matriz asociada sea una matriz
diagonal (simplemente lo sera respecto a otra base).

Cuando la matriz asociada solo tiene términos cuadrados, pero no rectangulares (osea es una matriz dia-
gonal), se llama forma cuadrática canónica.

n
X
Q(x) = Q(x1 , x2 , x3 , · · · , xn ) = ki x2i siendo ki ∈ R
i=1

La forma canónica asociada a una forma cuadrática Q no es única

6.3.1. Teorema de Sylvester y definición de signatura


Teorema de Sylvester Si ∧1 y ∧2 son matrices diagonales asociadas a Q en distintas bases, el numero
de elementos positivos y el numero de elementos negativos en ∧1 es el mismo que en ∧2 , independiente de
las bases utilizadas.

Denición de signatura La signatura de una forma cuadrática Q se denota por sig(Q), es el numero de
términos positivos no nulos (ki > 0) de una forma canónica asociada.

6.3.2. Criterios de clasificación de las formas cuadráticas


Clasicación de las cuádricas en función de su imagen

Denida positiva si Q(x) = X t AX > 0 ∀0 6= x ∈ E

Denida negativa si Q(x) = X t AX < 0 ∀0 6= x ∈ E

Semidenida positiva si Q(x) = X t AX ≥ 0 ∀0 6= x ∈ E y ∃ x 6= 0/Q(x) = 0

Semidenida negativa si Q(x) = X t AX 6 0 ∀0 6= x ∈ E y ∃ x 6= 0/Q(x) = 0

Indenida o de signo variable si ∃ x0 , x1 ∈ E/Q(x0 ) > 0 y Q(x1 ) > 0

Caracterización de la clasicación de las formas cuádricas o clasicación atendiendo a los


autovalores de la matriz asociada Sea Q : E −→ R es una forma cuadrática, A una de sus matrices
asociadas y λi son todas las raíces características de A. Entonces

λi > 0 ∀i ⇔ Q es denida positiva.

λi < 0 ∀i ⇔ Q es denida negativa.

λi ≥ 0 ∀i y λi = 0 para algún i ⇔Q es Semidenida positiva.

λi ≤ 0 ∀i y λi = 0 para algún i ⇔Q es Semidenida negativa.

Existen raíces características positivas y negativas no nulas⇔ Q es indenida.

Álgebra 41 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

Criterio de Sylvester Sea Q : E −→ R una forma cuadrática y A una matriz asociada a Q

4 −→ Determinantes de Submatrices principales



a11
a12 a13 ··· a1(n−1)
a11 a12 a13 ..
a11 a12 . a22 a23 ··· a2(n−1)
41 = a11 42 =
43 = a21 a22 a23 4n−1 = . . . .. .
a21 a22 .. . . . .

a31 a32 a33 . . .

a(n−1)1 a(n−1)2 a(n−1)3 · · · a(n−1)(n−1)

41 > 0, 42 > 0, · · · , 4n−1 > 0, |A| > 0 ⇐⇒ Q es denida positiva

41 < 0, 42 > 0, 43 < 0 ⇐⇒ Q es denida negativa, (impares <0 y pares >0)

41 > 0, 42 > 0, · · · , 4n−1 > 0, |A| = 0 ⇐⇒ Q es semidenida positiva

41 < 0, 42 > 0, 43 < 0, |A| = 0 ⇐⇒ Q es semidenida negativa

En otros casos se utiliza la clasicación por raíces características o por invariantes.

Clasicación por invariantes Los invariantes de la forma cuadrática Q : E −→ R son las propiedades
de cualquier matriz asociada a la forma cuadrática que no dependen de la base considerada en el espacio
vectorial E.

El rango y la signatura de una forma cuadrática son invariantes.

Sea Q : E −→ R una forma cuadrática tal que dimE = n y A una matriz asociada a Q

Q es denida positiva ⇐⇒ rang(Q) = sig(Q) = n

Q es denida negativa ⇐⇒ rang(Q) = n y sig(Q) = 0

Q es semidenida positiva ⇐⇒ rang(Q) = sig(Q) < n

Q es semidenida negativa ⇐⇒ rang(Q) < n y sig(Q) = 0

Q es indenida ⇐⇒ rang(Q) 6= sig(Q) y sig(Q) 6= 0

Álgebra 42 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

(a) Conicas (b) Conicas

Figura 6: Cónicas

6.4. Cónicas
Lugar geométrico es el conjunto de puntos que satisfacen determinadas condiciones geométricas.

Su nombre se debe a que son guras que resultan de cortar un cono con un plano.
La cónica se llama degenerada si el plano que corta al cono pasa por su vértice.

De entre las cónicas no degeneradas tienen centro: Las elipses y las hipérbolas.

El centro de una cónica se puede entender como el centro de simetría.

6.4.1. Lugares geométricos mas conocidos


Circunferencia: Lugar geométrico de los puntos del plano que equidistan de un punto llamado centro.

(x1 − h)2 + (x2 − k)2 = r2 (h, k) −→ centro

Figura 7: Circunferencia

Álgebra 43 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

Elipse: Lugar geométrico de los puntos del plano cuya suma de distancias a dos puntos jos llamados
focos, es constante.

(x1 − h)2 (x2 − k)2


+ =1
a2 b2
(a, b) −→ semiejes
(h, k) −→ centro

Figura 8: Elipse

Hipérbola: Lugar geométrico de los puntos del plano tales que la diferencia de sus distancias a dos
puntos jos, que se llaman focos, es en valor absoluto, constante.

(x1 − h)2 (x2 − k)2


− =1
a2 b2
O(h, k) −→ centro

Figura 9: Hipérbola

Álgebra 44 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

Parábola: Lugar geométrico de los puntos del plano que equidistan de un punto jo llamado foco y de
una recta ja llamada directriz.

Horizontal
(x2 − k)2 = 4p(x1 − h)
V ertical
(x1 − h)2 = 4p(x2 − k)
(h, k) −→ V ertice

Figura 10: Parábola

6.4.2. Ecuacion general de las Cónicas


Una Cónica es el lugar geométrico de los puntos del espacio que verican una ecuación de segundo grado
en dos variables.
a11 x21 + a22 x22 + 2a12 x1 x2 + 2a01 x1 + 2a02 x2 + a00
La ecuación anterior es llamada ecuación analítica de una cónica. Siendo aij ∈ R y alguno de los coecientes
a11 , a22 , , a12 no nulos. (para garantizar que se trata de una ecuacion de segundo grado)
La ecuacion general de las cónicas contiene una parte cuadrática, una parte lineal y una constante, osea tres
partes

a11 x21 + a22 x22 + 2a12 x1 x2 +2a01 x1 + 2a02 x2 +a00 =0


| {z } | {z } | {z }
cuadratica lineal constante

6.4.3. Ecuacion Matricial de las Cónicas


La ecuacion matricial es:
   
1 a00 a01 a02
X t AX = 0 donde X =  x1  y A =  a01 a11 a12 
x2 a02 a12 a22

La matriz A es la matriz asociada la cónica y es simétrica

  
 a00 a01 a02 1
1 x1 x2  a01 a11 a12   x1  = 0
a02 a12 a22 x2

Álgebra 45 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

6.4.4. Expresión matricial de las partes de una cónica


   
 a11 a12 x1

 Parte cuadratica(f2) −→ x1 x2
a12
 a22 x2


 
 x1
Parte lineal(f1) −→ 2 a01 a02
x2




−→ a00

Parte constante

6.4.5. Ecuaciones reducidas de las Cónicas. Principales ecuaciones reducidas de las


cónicas

Principales ecuaciones reducidas de las cónicas

a>b focos(±c, 0)

p=1 elipse con centro en origen a<b focos (0, ±c)


x21 x22
+ 2 =p
a2 b a=b circunferencia radio a
a, b > 0
p=0 Punto en origen (0,0)

p = −1 Elipse imaginaria

p=1 hipérbola con centro en origen focos(±c, 0)


x21 x22
− 2 =p
a2 b p=0 Par de rectas secantes
a, b > 0
p = −1 hipérbola con centro en origen focos(0, ±c)

x21 = 2px2 siendo p 6= 0 Parábola con vértice en origen Foco (0, p/2)
x22 = 2px1 siendo p 6= 0 Parábola con vértice en origen Foco (p/2, 0)
p>0 Par de rectas paralelas

x21 = p o x22 = q p=0 Recta doble

q<0 Par de rectas imaginarias

Álgebra 46 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

6.4.6. obtención de la ecuacion reducida


Toda ecuacion de una cónica se puede transformar mediante un movimiento de giro/ y o traslación en su
ecuacion reducida.

Paso 1 Giro (Se giran los ejes cartesianos) Se giran los ejes cartesianos denidos por x1 y x2 , mediante
el giro se elimina el termino a12



 Caso 1 −→ a12 = 0 −→ Pasamos
 a paso 2



 

o
 
1 Descomponemos la conica en cuadratica lineal y constante

 


 
    

   a11 a12 x1
Parte cuadratica(f2) −→


 
 
 x1 x2
 a12  a22 x2

 
 


 
 

 
  x1
 Parte lineal(f1) −→ 2 a01 a02

 

x2
 
 
 

−→ a12 6= 0 −→ Parte constante −→ a00


 Caso 2
o
2 Comprobamos que a12 6= 0

 


 

o

3 Diagonalizamos la matriz cuadratica, obteniendo una matriz semejante Λ
 


 

o
4 Hallamos una base ortonormal de vectores asociados → P

 


 

o
 
La base obtenida en 4 esta asociada a los autovalores obtenidos

 


 
  

 
 o t a11 a 12
 5 Se cumple entonces que P P =Λ

 

a12 a22

La ecuacion obtenida queda de la forma:

x01 x01
     
a11 a12
x01 x02 Pt
 
P +2 a01 a02 P + a00 = 0
a12 a22 x02 x02

Aqui desaparecen los términos rectangulares a12 de la parte cuadratica

Paso 2 Traslación . Si (a1 , a2 ) 6= (0, 0) , se hace una traslación



 (a1 , a2 ) = (0, 0) −→ Se termina
(a1 , a2 ) 6= (0, 0) −→ Se reescribe la conica como suma o resta de cuadrados

para que despues de hacer una traslacion se obtenga una ecuacion de tipo reducida

6.4.7. Clasificación de las Cónicas


Se llaman invariantes métricos de una cónica a los parámetros que no varían al cambiar de un sistema de
coordenadas a otro mediante un giro o una traslación. Son invariantes métricos de una cónica

|A| (Determinante de la matriz asociada a la cónica)

Ia = a11 + a22 Traza de la matriz asociada a la forma cuadrática f2

A00 (Adjunto del elemento a00 de la matriz A o el determinante de la matriz asociada a la forma
cuadrática f 2 −→ (a11 a22 − a12 a21 )

a
|A| = 0 −→ Conica degenerada
1 clasicacion
|A| =
6 0 −→ Conica no degenerada

a
A00 = 0 −→ Conica sin unico centro
2 clasicacion
A00 6= 0 −→ La Conica posse un unico centro
a
3 Clasicación por invariantes

Álgebra 47 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

6.5. Cuádricas
6.5.1. Ecuación general de las Cuádricas
Una Cuádrica es el lugar geométrico de los puntos del espacio que verican una ecuación de segundo
grado en tres variables.

a11 x21 + a22 x22 + a33 x23 + 2a12 x1 x2 + 2a13 x1 x3 + 2a23 x2 x3 + 2a01 x1 + 2a02 x2 + 2a03 x3 + a00

La ecuación anterior es llamada ecuación analítica de una cuádrica. Siendo aij ∈ R y alguno de los coecien-
tes a11 , a22 , a33 , a12 , a13 ya23 no nulos. (para garantizar que se trata de una ecuacion de segundo grado)

Al igual que las cónicas la ecuacion analítica de una cuádrica contiene tres partes

a11 x21 + a22 x22 + a33 x23 + 2a12 x1 x2 + 2a13 x1 x3 + 2a23 x2 x3 +2a01 x1 + 2a02 x2 + 2a03 x3 +a00 = 0
| {z } | {z } | {z }
cuadratica lineal constante

6.5.2. Ecuación Matricial de una Cuádrica


La ecuacion matricial es:
   
1 a00 a01 a02 a03
 x1   a01 a11 a12 a13 
X t AX = 0 donde X =  
 x2  y A=
 a02

a12 a22 a23 
x3 a03 a13 a23 a33

La matriz A es la matriz asociada la cuádrica y es simétrica

  
a00 a01 a02 a03 1
  a01 a11 a12 a13   x1 
1 x1 x2 x3  a02
 =0
a12 a22 a23   x2 
a03 a13 a23 a33 x3

6.5.3. Expresión matricial de las partes


  

 a11 a12 a13
 x1
Parte cuadratica(f2) −→ x1 x2 x3  a12 a22 a23   x2 




 a13 a23 a33 x3



 x 1
lineal(f1) −→ 2 a01 a02 a03  x2 



 Parte
x3




constante −→ a00

Parte

Álgebra 49 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

6.5.4. Ecuacion reducida de una cuádrica. Principales ecuaciones reducidas de las cuádric

6.5.5. Clasificación de las cuádricas


Son invariantes métricos de una cuádrica:

rangA (Rango de la matriz asociada a la cuádrica)

Ia = a11 + a22 + a33

A00 (Adjunto del elemento a00 de la matriz A o el determinante de la matriz asociada a la forma
cuadrática f 2)

Ja Parámetro dado por la expresión.


a22 a23 a11 a13 a11 a12
Ja =
+ +
a23 a33 a13 a33 a12 a22

Álgebra 50 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería


a
|A| = 0 −→ Cuadrica degenerada
1 clasicacion
|A| =
6 0 −→ Cuadrica no degenerada

a
A00 = 0 −→ Cuadrica sin unico centro
2 clasicacion
A00 6= 0 −→ La Cuadrica posse un unico centro

a
3 Clasicación por invariantes

cada bloque de signos (Ejemplo + + -) representa los signos que resultan de las raíces de la ecuacion:

p3 − Ia p2 + Ja p − A00 = 0

Álgebra 51 Resumen-Esquema de la Asignatura


UNED Grado en Ingeniería

Bibliografía

[1] Sanz y Torres, Álgebra para Ingenieros.


Ana María Díaz Hernández, Elvira Hernández García, Luis Tejero Escribano
Edición Revisada 2010 , ISBN 978-84-92948-24-6.

[2] Sanz y Torres, Ejercicios de Álgebra para Ingenieros.


Ana María Díaz Hernández, Elvira Hernández García, Luis Tejero Escribano
Edición Revisada 2012, ISBN 978-84-15550-18-1.

[3] Apuntes de Álgebra para Ingenieros.


Francisco José Álvarez López (Tutor centro asociado de Ceuta)
Octubre 2016.

Álgebra 52 Resumen-Esquema de la Asignatura

También podría gustarte