Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Universidad Nacional
de Educación a Distancia
Álgebra
Resumen-Esquema
Índice
1. Capitulo I - HERRAMIENTAS 5
1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. Orden o dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3. Matriz traspuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.4. Matriz Simétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.5. Matriz antisimétrica (hemisimétrica) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.6. Propiedad de las matrices cuadradas) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.7. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.8. Traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.9. Operaciones elementales por las . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.10. Matrices equivalentes por las . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.11. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.12. Matriz escalonada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.13. Matriz escalonada con pivotes normalizados . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.14. Matriz escalonada reducida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.15. Escalonar una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1. Interpretación geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2. Aplicaciones de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3. Sistema de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1. Clasicación del sistema atendiendo a los rangos . . . . . . . . . . . . . . . . . . . . . 9
1.3.2. Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3. Resolución de sistemas por la Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . 9
1.3.4. Ecuaciones cartesianas ↔ Ecuaciones paramétricas . . . . . . . . . . . . . . . . . . . . 10
1.4. Métodos numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1. Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.2. Sistemas mal acondicionado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.3. Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.4. Factorización LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.5. Resolución de un sistema AX = B mediante factorización LU . . . . . . . . . . . . . . 12
1.4.6. PA=LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.7. Resolución de un sistema AX = B mediante factorización P A = LU . . . . . . . . . . 12
5. Capitulo V-ORTOGONALIDAD 30
5.1. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.2. Producto usual o estándar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.2. Matriz de Gram o matriz métrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
o
5.2.1. 1 Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1. Capitulo I - HERRAMIENTAS
1.1. Matrices
1.1.1. Orden o dimensión
Indica el numero de las x columnas de la matriz M3x2
Cuando es un solo numero coincide las las y las columnas M3
a11 a12 b11 b12 a11 + b11 a12 + b12
A+B = + =
a21 a22 b21 b22 a21 + b21 a22 + b22
a11 a12 α · a11 α · a12
α· =
a21 a22 α · a21 α · a22
Asociativa (A + B) + C = A + (B + C)
Conmutativa A+B =B+A
Elemento neutro A + 0 = 0 + A = A, 0 −→ Matriz nula
Elemento opuesto A + (−A) = 0, 0 −→ Matriz nula
a11 a12 b11 b12 a11 · b11 + a12 · b21 a11 · b12 + a12 · b22
A= B= A·B =
a21 a22 b21 b22 a21 · b11 + a22 · b21 a21 · b12 + a22 · b22
Para poder multiplicar matrices tiene que coincidir el numero de columnas de la primera matriz con el numero
de las de la segunda matriz.
A ∈ M3x2 solo podra multiplicarse con matrices que tengan 2 las ∈ M2xn
t a11 a12 a11 a21
Se denota por A −→ A = −→ At =
a21 a22 a12 a22
(At )t = A (A + B)t = At + B t (AB)t = B t · At
A + At A − At
SeaA ∈ Mn , =⇒ A = S + T donde S= y T =
2 2
1 2 1 a11 a12 a13 1 0 0
3 2 2 a21 a22 a23 = 0 1 0
5 4 3 a31 a32 a33 0 0 1
| {z }| {z } | {z }
−1
A A I
Operando resultan 3 sistemas de 3 ecuaciones con 3 incógnitas cada sistema
1 −1 0 1 0 0 1 0 0 1 1 0
Escalonamos la ampliada
(A|B) = 0 1 0 0 1 0 −−−−−−−−−−−−−−−→ 0 1 0 0 1 0
hasta obtener
2 0 1 0 0 1 0 0 1 −2 −2 1
Adj(At ) (Adj(A))t
A−1 = =
|A| |A|
i=n
X
T raza = aii
i=1
7 3 1
A = −1 4 0 −→ T raza = 7 + 4 + 3 = 14
1 2 3
3. Reemplaza runa la por ella mas el producto de otra por un escalar Fi = Fi + α · Fj
E = {Ep Ep−1 · · · E3 E2 E1 } −→ B = EA
1 0 2 3 4 2 1 0 2 3 4 2
Matriz escalonada −→ 0 0 0 2 3 0 , Matriz no escalonada −→ 0 0 0 2 3 0
0 0 0 0 3 4 0 0 0 3 3 4
1 0 2 3 4
0 0 0 1 3
0 0 0 0 1
1.2. Determinantes
El determinante de una matriz A de orden n es el escalar denido por:
X
det(A) = |A| = sig(p)a1p1 , a2p2 · · · anpn
p∈Sn
El numero de permutaciones es n!
+1 si p es par
sig(p)
-1 si p es impar
a11 a12
Ejemplo: Calculo del det A −→ |A| = a11 a22 − a21 a12
a21 a22
análogamente para una matriz de 3x3 aplicamos la regla de Sarrus:
|A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a11 a23 a32 − a12 a21 a33
| {z } | {z } | {z } | {z } | {z } | {z }
no per 2 per 2 per 1 per 1 per 1 per
2. Si la matriz A es triangular sup o inferior ,−→ det(A) = a11 a22 a33 (la diagonal)
3. Det(A) = det(At )
4. Det(αA) = αn det(A)(α ∈ R)
5. Si A y B ∈ Mnxn Det(A+B)6= Det(A) + Det(B) (En general)
7. Otras propiedades
8 2
A=
3 6
|A| = 8 · 6 − 3 · 2 = 42 u2
Se llama solución del sistema S a cualquier matriz columna que cumpla la condición AX = B . Si el
sistema tiene mas de una solución, entonces tiene innitas soluciones
x1 x2 x3
z}|{ z}|{
0
z}|{ 7
2 1
A=
6
B = −1
2 1
1
2 1 1
7 2 1 0 7 1 0 2 7
−1 2 1 6 −1 1 6 2 −1
1 1 1 2 1 1 2 1 1
x1 = x2 = x3 =
0 2 1 0 2 1 0 2 1
6 2 1 6 2 1 6 2 1
2 1 1 2 1 1 2 1 1
o o o
n de incógnitas - n de ecuaciones = n de parámetros
o o o
n de incógnitas - n de parámetros = n de ecuaciones
cartesiana −→ paramétricas
x5 = 0
2x1 +2x2 +2x4 +x5 = −2
x4 = β −→ x3 + β = 1 −→ x3 = 1 − β
+x3 +x4 +1/2x5 = 1 −→
x =α
+1/2x5 = 0 2
2x1 + 2α + 2β + 0 = −2 −→ x1 = −1 − α − β
x1 = −1 − α − β
x2 = α
x3 = 1 − β
x =β
4
x5 = 0
paramétricas −→ cartesianas
x1 =α−β
α − β = x1
x2 =2−α−β −α − β = x2 − 2 x1 +3x2 +2x3 = 8
−→ Resolviendo
x = 1 + 2β + α 2β + α = 1 − x3 −−−−−−−−→ +x2 +x4 = 2
3
x4 =α+β x4 = α + β
o
2 Se escalona la matriz mediante operaciones elementales hasta hacer 0 todo lo que hay bajo a matriz
y con los pivotes normalizados (=1).
o
3 Se resuelven las incógnitas desde la la inferior que no sea 0 hasta la superior
o
4 En caso necesario se utilizaran parámetros para resolver el sistema
Pivote de una matriz es el primer elemento no 0 de una la, no tiene que coincidir con la diagonal.
Normalizado signica que valga 1.
1 2 1 2 1 2 1 2
(A|B) = −1 2 −1 0 operaciones elementales 0 1 0 1/2
−−−−−−−−−−−−−−−−−→
1 1 1 4 0 0 0 5/2
n3
El método de Gauss requiere de operaciones
3
n3
El método de Gauss requiere de operaciones
2
1.4.4. Factorización LU
Si existe la factorización de la Matriz A por el método LU, si la matriz es regular es única, si es singular
puede haber mas de una factorización LU.
Se trata de Transformar la matriz A en una matriz triangular superior U mediante operaciones de reemplazo
por Filas tipo Fi = Fi + α · Fj , aplicando el método de Gauss sin normalizar los pivotes. Construir L de tal
manera que la misma sucesión de pasos para obtener U transforme L en In .
U = EA −→ E = Ep · · · E1
L = E −1 = (Ep · · · E1 )−1 = E1−1 · · · Ep−1
Para construir L, la idea es de ir realizando las inversas de las operaciones elementales.
Finalmente A = LU
2n3
El método LU requiere de operaciones
3
1.4.6. PA=LU
Es igual a la factorización LU pero necesitamos hacer alguna permutación de las.
Finalmente P A = LU
Dichas operaciones tienen que cumplir 8 propiedades (4 respecto a la interna) y 4 respecto a la externa
Propiedades que debe tener la operación interna Propiedades de la operación externa ”•”
”∗” denida en el conjunto V denida entre los elemetos de V y los escalares
(a ∗ b) ∗ c = a ∗ (b ∗ c) λ • (a ∗ b) = λ • a ∗ λ • b
S2 Existe Elemento neutro e E2 Distributiva de vectores
a∗e=e∗a=a (λ + µ) • a = λ • a + µ • a
S3 Existe Elemento simétrico a0 E3 Asociativa de vectores
a ∗ a0 = e = a0 ∗ a (λµ) • a = λ • (µ • a)
Al cumplir S1,S2,S3 el par (V, ∗) es un grupo
a∗b=b∗a 1•a=a
Al cumplir ademas S4 el par (V, ∗) es un grupo
u ∗ v ∈ U yλ • u ∈ U, ∀u, v ∈ U y ∀λ ∈ R
∀u, v ∈ U ∀λ, µ ∈ R =⇒ λu ∗ µv ∈ U
subespacio trivial Todo espacio vectorial V tiene siempre los subespacios vectoriales V y 0, los cuales se
denominan subespacios triviales.
Los Planos y las Rectas que pasan por el origen son los unicos subespacios propios de (R3 , +, R)
v = λ1 u1 + λ2 u2 + λ3 u3 + · · · + λp up ∀λi ∈ R
Cuando dos sistemas de vectores generan el mismo subespacio se llaman sistema de generadores equiva-
lentes.
Equivale a decir:
λ1 u1 + λ2 u2 + · · · + λp up = 0 ∀λi = 0
El espacio generado por G1 = {u1 , u2 , · · · , ui−1 , ui+1 , · · · up } es también V, es decir hGi = hG1 i = V
Podemos decir que todo vector de V se puede generar prescindiendo de los vectores de G que sean
combinación lineal de otros de G
Sustitución Si v∈V es combinación lineal de algunos vectores {uij , · · · , uiq } del sistema G = {u1 , u2 , · · · up },
generador de V, entonces:
Al sustituir en G algún uij (con coeciente 6= 0 en la combinación lineal que expresa v) por v, el sistema
de vectores obtenido, G1 , sigue siendo generador de V
B es una base de V equivale a decir que cualquier vector de v se puede expresar como una combinación
lineal única (salvo el orden)de los vectores de una base de B en V
B = {(1, 0, 0, · · · , 0), (0, 1, 0, · · · , 0), (0, 0, 1 · · · , 0), · · · (0, 0, 0, · · · , 1)} es la base mas sencilla de todas las
de Rn , recibe el nombre de base canónica de Rn .
2.4.2. Dimensión
Todas las bases de un espacio vectorial V 6= {e} tienen el mismo numero de elementos.
La dimensión del espacio vectorial V 6= {e} nito Dim V es el numero de vectores de cualquiera de sus
bases.
2.4.3. Coordenadas
Sabemos que cualquier vector v de V se puede expresar de manera única como combinación lineal de los
elementos de una base B del espacio vectorial V, los coecientes de la combinación lineal que dene v se
llaman coordenadas del vector v respecto a la base B
De la dimensión Todas las bases de un espacio vectorial V 6= {e} tiene el mismo numero de elementos.
Dimensión del espacio vectorial. La dimensión del espacio vectorial V 6= {e} nito (Dim V) es el nu-
mero de vectores de cualquiera de sus bases.
rang(S) = DimhSi
Conjunto libre de vectores Sea V 6= {e} un espacio vectorial, decir que Dim V =n equivale a decir
que:
Todo conjunto libre de n vectores de V forma una base de V, o que , todo conjunto generador de V con n
vectores forman una base de V
Un sistema de n vectores de un espacio V de dimensión n sera una base de V si y solo su rango es igual
a n.
De la base incompleta si la dimensión de un espacio V 6= {e} es n, entonces se verica que todo conjunto
de vectores S = {v 1 , v 2 , v 3 , · · · , v p } de V con p < n, linealmente independientes se pueden completar con
n − p vectores de V para convertirse en base.
U1 + U2 = {u1 + u2 : u1 ∈ U1 y u2 ∈ a U2 }
Otra forma de verlo es comprobar la intersección de ambos subespacios, tiene que ser 0
U1 ∩ U2 = {0}
V = U1 ⊕ U2
Si B = {e1 , e2 , e3 , · · · , en } entonces:
f A todos los elementos de E le corresponde uno distinto en F
Aplicación Inyectiva: E −−−−→ F
Puede ser que F tenga elementos sueltos
f A todos los elementos de F le corresponde
Aplicación Sobreyectiva o Suprayectiva: E −−−−→ F
uno o mas en E
f
Aplicación Biyectiva: E −−−−→ F Al mismo tiempo inyectiva y sobreyectiva
E −→ Espacio inicial y nal son identicos
f
Endomorsmo: E −−−−→ E R −→ R
2
R −→ R2
3.1.3. Propiedades
Si f ; V −→ W es una aplicación lineal , verica:
f (−v) = −f (v)
f (a1 v 1 + a2 v 2 + a3 v 3 + · · · + an v n ) = a1 f (v 1 ) + a2 f (v 2 ) + a3 f (v 3 ) + · · · + an f (v n ) con ai ∈ R y vi ∈ V
Aunque v, u ∈ V sean linealmente independientes , sus imagenes f (v) y f (u) pueden no serlo.
La imagen de f es un subespacio de W
El núcleo de f es un subespacio de V
La imagen de cualquier vector v de V esta determinada por las imágenes f (e1 ), f (e2 ), f (e3 ), · · · , f (en ) de
los vectores en la base B.
1 1 y1 1 1 y1 = x 1 + x 2
x1
f = x1 2 +x2 1 −→ y2 = x1 2 +x2 1 −→ unas
ecuaciones de f son: y2 = 2x1 + x2
x2
1 0 y3 1 0 y3 = x 1
f determina una matriz única que esta asociada a la aplicación lineal en las bases elegidas B y S
y1 a11 a12 · · · a1n x1
y2 a21 a22 · · · a2n x2
.. = .. ⇐⇒ Y = AX
. .. . .
. . . . . .
. . .
yn an1 an2 · · · ann xn
| {z }
A (matriz asociada)
y1 1 1 y1 = x1 + x2
x1
y2 = 2 1 ⇐⇒ y2 = 2x1 + x2
x2
y3 1 0 y3 = x1
| {z }
(matriz asociada)
Esto quiere decir que a cada elemento del primer conjunto(aplicaciones) le corresponde un solo elemento
del segundo conjunto (Matrices) y viceversa .
De igual forma el conjunto Matrices de n las y m columnas es un espacio vectorial , esto es cumple las 4
propiedades con respecto a la suma y las cuatro propiedades con respecto a la multiplicación por escalares.
g f f ◦g
V −−−−→ W −−−−→ U ó V −−−−−−→ U
x −→ g(x) −→ f (g(x)) x −→ (f ◦ g)(x) = f (g(x))
Ejemplo:
g : R2 −→ R/g(x1 , x2 ) = x1 − x2
g f f ◦g
R2 −−−−→ R −−−−→ R3 ó R2 −−−−−−→ R3
g f f ◦g
(x1 , x2 ) −−−−→ (x1 − x2 ) −−−−→ (x1 − x2 , 0, 2x1 − 2x2 ) x −−−−−−→ (x1 − x2 , 0, 2x1 − 2x2 )
Muy importante , el orden en el que se escriben f y g es el inverso al que se aplican al vector x en (f ◦g)(x)
3.4.4. Relación entre las dimensiones de los subespacios y las matrices asociadas
Si DimV = m, DimW = p Y B una matriz asociada a g, su orden es p×m
y1 1
x1
Expresion matricial de f: y2 = 0
x2
y3 2
| {z }
(A)
y1 1 −1 y1 = x1 − x2
x
Expresion matricial def ◦ g : y2 = 0 0 1 ⇐⇒ y2 = 0
x2
y3 2 −2 y3 = 2x1 − 2x2
| {z }
(C=AB)
Asociativa (f ◦ g) ◦ h = f ◦ (g ◦ h)
No es conmutativa f ◦ g 6= g ◦ f
Si elegimos otra base diferente B 0 = {e01 , e02 , e03 , · · · , e0n } nos permitirá expresar el mismo vector en función
de otra base x= x01 e01 + x02 e02 + x03 e03+ · · · + x0n e0n
Las coordenadas serán distintas según la base que tomemos, aunque el numero de coordenadas tienen que
coincidir , pues corresponde a su dimensión (n).
(x1 , x2 , x3 · · · xn )B
x=
(x01 , x02 , x03 · · · x0n )B 0
Las coordenadas del mismo vector en ambas bases están relacionadas por las ecuaciones de cambio de
coordenadas.
x01
x1 q11 q12 · · · q1n
x2 q21 q22 · · · q2n x0
2
.. = ⇐⇒ xB = QxB 0
.. .
. .. .
.
..
. . . . . .
xn B qn1 qn2 · · · qnn x0n B0
| {z }
Matriz Q cambio de coordenadas
Cada columna de la Q estará formada por cada uno de los vectores de la base B' respecto a la base B.
La forma de hacerlo es análogo, resultando entonces una nueva matriz de cambio de coordenadas que
llamaremos P
x01
p11 p12 · · · p1n x1
x0 p21 q22 · · · p2n x2
2
.. = ⇐⇒ xB 0 = P xB
.. .
. .. .
.
..
. . . . . .
x0n B 0 pn1 pn2 · · · pnn xn B
| {z }
Matriz P cambio de coordenadas
xB 0 Q xB → xB
−P
0
−→
Las matrices de cambio de base son regulares y por tanto tienen inversa.
Esquema de la aplicación V −→ W
(V, B) −A
→ (W, S)
Q ↑↓ Q−1 T ↑↓ T −1
(V, B 0 ) −A'
−→ (W, S 0 )
A0 = T −1 AQ
Analogamente
⇓
xB −A
→ f (xB )
Q ↑↓ Q−1 T ↑↓ T −1
xB 0 −A'
−→ f (xB 0 )
f (xB 0 ) = T −1 AQxB 0
Ref lexiva
Simetrica
T ransitiva
El conjunto de las clases de equivalencia que ha determinado la relacion R en el conjunto A se llama conjunto
cociente : A/R
B =M ·A·N
Congruentes
Equivalentes
Semejantes
B = Pt · A · P
B = P −1 · A · P −→ P · B = A · P
Las matrices asociadas a un endomorsmo en diferentes bases son semejantes y por tanto equivalentes.
Puede darse el caso que Matrices con la misma traza y la misma ecuación característica no sean semejantes.
AX = λX con λ∈R
|A − λI|
y ecuación característica a:
|A − λI| = 0
Calculando el determinante y hallando los valores de λ obtendremos los valores propios o autovalores, tam-
bién llamados raíces características.
1 6 di 6 αi
Para que la matriz sea diagonalizable tienen que coincidir sus multiplicidades en todos los subespacios
asociados.
o
2 Resolvemos la ecuación y hallamos los valores propios.
o
3 Obtenemos las multiplicidades algebraicas.
o
4 Hallamos las bases de los subespacios asociados a los valores propios.
o
5 La dimensión de estos serán las multiplicidades geométricas.
o
6 Si coinciden ambas multiplicidades es diagonalizable.
o
7 La matriz semejante Diagonal (D) estará formada por los valores propios.
o
8 La matriz de paso (P ) estará formada por los vectores de las distintas bases y en el mismo orden que
colocamos sus valores propios asociados en la matriz (D).
o
9 Si queremos podemos hacer la comprobación:
D = P −1 · A · P −→ P · D = A · P
J = P −1 AP
Si la matriz diagonaliza hay un solo bloque y por tanto la matriz de Jordan coincide con la diagonal.
J = D = P −1 AP
Tendremos tantos bloques Ji como vectores propios independientes de A. por lo tanto coincidirá con las
multiplicidades geométricas de los subespacios asociados a los valores propios de A.
Cada uno de los bloques es la suma de un múltiplo de los valores propios y de una matriz nihilpotente
(N es nihilpotente si ∃n ∈ N/M n es la matriz nula)
Ji = λi I + N
λi 1 0 · · · 0 1 0 0 ··· 0 0 1 0 ··· 0
.. .. ..
. λi 1 · · · 0 = λi . 1 0 · · · 0 + . 0 1 · · · 0
.. .
.
.
. .. .
.
.. .. .. . . .
.
.. .. .. . . .
.
. . . . . . . . . . . . . . .
0 0 0 ··· λi 0 0 0 ··· 1 0 0 0 ··· 0
| {z }
Matriz nihilpotente
4.8.1. Propiedades
J y A son semejantes y tienen los mismos valores propios.
Por ser semejante existe una matriz regular de paso (P ) que verica J = D = P −1 AP .
Si los bloques se cambian entre si, la matriz obtenida sigue perteneciendo a la misma clase de matrices
semejantes a A.
La forma canónica de Jordan es única para cada A, salvo en el orden de los bloques (solo podremos
cambiar el orden de los bloque correspondientes a cada valor propio, dentro del mismo valor los bloques no
serán crecientes)
Si los autovalores son todos distintos las multiplicidades algebraicas y geométricas serán 1 y por tanto la
matriz sera diagonalizable y coincidirá con la forma canónica de Jordan
1o Una vez calculadas las multiplicidades geométricas y algebraicas de cada valor propio podemos escribir
las posibles matrices de Jordan J1 , J2 ....Jr asociadas a la matriz A. Para ello se tiene en cuenta que: el
número de bloques asociados al autovalor que habría en J es la multiplicidad geométrica del autovalor. Ello
es debido a que los vectores propios linealmente independientes van a formar parte de la base que permite
representar A como J. En otras palabras, pertenecen a la matriz de cambio de base.
2o La matriz de Jordan J se calcula a partir de las dimensiones de los subespacios propios generalizados
observando las matrices Ji y lo que signican.La construiremos atendiendo a las multiplicidades geométricas
que serán los bloques.
3o Calcular la matriz de paso P asociada a la matriz de Jordan obtenida teniendo en cuenta las bases de
los subespacios propios generalizados y de la forma de jordan J determinada en el PASO 2.
Nótese que el número de columna en la que interviene el vector (columna) que forma la matriz de paso P
está relacionado con la misma columna de la matriz J . Así, podemos diferenciar dos casos o tipos de vectores
que intervienen en la construcción de la matriz P.
Caso 1El vector calculado es un vector propio y participa en un bloque 1x1. Entonces, se sitúa en el
mismo lugar o columna de P en el que participa en J.
Caso 2 El vector calculado participa en un bloque de orden mayor a 1x1, es decir, 2x2 3x3,.... Estos
vectores están participando en los bloques de J de orden mayor estricto al orden 1x1.
Procedemos a realizar el esquema de los subespacios propios generalizados asociados al valor propio para
aclarar lo anterior. Por ejemplo esquema del problema 4.39 y 4.40
La multiplicidad geométrica (di ) que tenemos que conseguir es 4 para que coincida con la algebraica, por
tanto calculamos:
v3 ∈ E 3 (λ) − E 2 (λ)
v2 = (A − λI)v 3
v1 = (A − λI)v 2
v4 ∈ E 1 (λ)li con los anteriores
Si A es una matriz cuadrada de orden n tal que sus valores propios son {λ1 , λ2 , λ3 , ....λn } diremos que λ1
es un valor propio estrictamente dominante si se cumple:
2o Iterar para k=0 ,1,...n. Procederemos a realizar iteraciones hasta acercar el valor k=0 a k=n
3o Calculamos
Axk
4o Obtenemos µk Corresponde con la mayor coordenada en valor absoluto de Axk , una vez seleccionada
la tomaremos con su propio signo.
5o Calculamos xk+1
1
xk+1 = Axk
µk
n Axk µk xk+1
k=0 (-3,-5) -5 (0.6,1)
k=1 (-1.4,-2.6) -2.6 (0.5384, 1)
k=2 (-1.15538,-2.23076) 2.23076 (0.51724, 1)
−4 1
A= −→ Tomamos x0 = (1, 1) −→ . . . .
−6 1 .
.
.
.
.
.
.
.
k=8 (-1.00195,-2.00293) -2.00293 (0.50245, 1)
k=9 (-1.00097,-2.00146) -2.00146 (0.50012, 1)
k=10 (-1.00048,-2.00073) -2.00073 (0.50006, 1)
En caso de no obtener unos resultados por no tender a un valor propio o a un vector , tendríamos que
comenzar tomando otro vector inicial.
5. Capitulo V-ORTOGONALIDAD
e1 • e1 e1 • e2 e1 • e3 ··· e1 • en y1
e2 • e1 e2 • e2 e2 • e3 ··· e2 • en y2
x • y = (x1 x2 · · · xn ) .
. . .. . ..
.. .
.
.
. . .
. .
en • e1 en • e2 en • e3 · · · en • en yn
g1 1 g1 2 g1 3 · · · g1 n y1
g2 1 g2 2 g2 3 · · · g2 n y2
t
ei • ej = gij −→ x • y = (x1 x2 · · · xn ) . . . = X GY
. . ..
.. .
.
.
. . .
. .
.
gn 1 gn 2 gn 3 · · · gn n yn
G depende da la base B
G es simétrica , esto es G = Gt
g g y1
x • y = (x1 x2 ) 11 12 = g11 x1 y1 + g12 x1 y2 + g21 x2 y1 + g22 x2 y2
g21 g22 y2
Igualamos coecientes
g11 = 4
g12 = 1 4 1
−→ G =
g21 = 1 1 9
g22 = 9
Las matrices son congruentes −→ son equivalentes y tienen por tanto el mismo rango.
Normalizar un vector Normalizar un vector no nulo v 6= 0 es obtener otro que tiene la misma dirección
y sentido, pero que su norma vale 1. Para ello lo único que tenemos que hacer es dividir el vector por su
modulo.
v
||v||
Distancia entre dos vectores La distancia entre dos vectores u y v es el modulo de la diferencia de los
dos vectores, esto es el modulo de u−v
d(u, v = ||u − v||
Producto escalar en física En sica se dene el producto escalar de dos vectores como
Coseno del angulo que forman dos vectores Igualamos las dos deniciones de producto escalar, por
ejemplo su nos situamos en R
3
u ⊥ v =⇒ u • v = 0
Un sistema decimos que es ortogonal si el producto escalar de todos los vectores (en una matriz tomaremos
las columnas una por una) de 0. si una sola combinación de ellos es distinto de 0 podemos armar que el
sistema no es ortogonal.
Un sistema decimos que esta normalizado si todos sus vectores (en una matriz tomaremos las columnas una
por una) están normalizados , esto es su modulo o norma vale 1
Un sistema es ortonormalizado si es ortogonal y normalizado al mismo tiempo.
Paso 1 Construir un sistema = {e1 , e2 , · · · ep } como sigue. Este paso forma un sistema ortogonal
e1 = u1
u2 • e1
e2 = u2 − · e1
e1 • e1
u3 • e1 u3 • e2
e3 = u3 − · e1 − · e2
e1 • e1 e2 • e2
.
.
.
up • e1 up • e2 up • ep−1
ep = up − · e1 − · e2 − · · · − · ep−1
e1 • e1 e2 • e2 ep−1 • ep−1
ei
e0i = para todo i ∈ {1, 2, , · · · p}
||ei ||
0
El Sistema S'={e1 , e2 , · · ·
0 , e0p } es ortonormal y cumple hSi = hS 0 i
Ax · Ay = x · y
||Ax|| = ||x|
Ax · Ay = 0 ⇐⇒ x · y = 0
5.7.2. Factorización QR
Si A ∈ Mm×n , verica que las columnas de A son linealmente independientes, entonces el proceso de
Gram-Schmidt construye un sistema ortonormal de la forma siguiente
A = QR
siendo Q ∈ Mm×n tal que sus columnas forman una base ortonormal, QQt = I
1 −2 1
A = −1 3 2
1 −1 −4
o
1 Comprobamos su determinante
1 0 8/3
⊥ A = −1 1 4/3
1 1 −4/3
o
3 normalizamos y obtenemos Q
1 2
√ 0 √
3 6
−1 1 1
Q=
√ √ √
3 2 6
1 1 −1
√ √ √
3 2 6
4
o
Obtenemos R = Qt A
−1
1 1
√√ √
3
3 3
t
1 1
Q =
√ 0 √
2 2
2 1 −1
√ √ √
6 6 6
3 −6 −5
√ √ √
3 3 3
2 −2
R=
0 √ √
2 2
8
0 0 √
6
Nótese que la matriz es triangular superior y su diagonal son elementos positivos
Si A es una matriz simétrica real de orden n, entonces los subespacios de los vectores propios asociados
a los vectores propios distintos son ortogonales con respecto al producto escalar estándar de Rn
Las matrices simétricas, poseen bases ortogonales (pudiendo ser ortonormales) de vectores propios , y por
tanto son siempre diagonalizables.
En particular si la base fuera ortonormal, la matriz de paso es ortogonal y por tanto posee mejor es
propiedades.
A es una matriz simétrica con elementos reales ,entonces existe una matriz
Si de paso P ortogonal tal
t
que P AP = ∧ siendo ∧ una matriz diagonal formada por los valores propios de A. En particular A y ∧ son,
ademas de semejantes congruentes.
1 0 1 1 0 1
A = 0 2 0 −→ P = 0 1 0
1 0 1 1 0 −1
Considerando las bases y normalizando los vectores
1 1
√ 0 √
2 2
P = 0 1 0
1 −1
√ 0 √
2 2
P es ortogonal ya que sus columnas están formadas por vectores ortonormales.
Luego cumple P P t = I3 , =⇒ P −1 = P t
por ultimo se comprueba que P t AP es una matriz diagonal que tiene los valores propios de A
1 1 1 1
√ 0 √ √ 0 √
2 2 1 0 1 2 2 2 0 0
0 1 0 0 2 0 0 1 0 = 0 2 0
1 −1
1 0 1
1 −1
0 0 0
√ 0 √ √ 0 √
2 2 2 2
La idea del método de mínimos cuadrados aplicado a un sistema Ax = b consiste en hallar un xo tal
que el vector Axo se aproxime a b lo máximo posible.
5.9.1. Metodo
Como es una aproximación cometemos un error, se denomina error cuadrático y es cometido al sustituir
xo en el sistema Ax = b
Error cuadratico −→ ||Axo − b||
Una solución por minimos cuadrados de Ax = b es un x0 ∈ Rn tal que minimiza el error cuadrático, es decir
X
min e2i siendo ei = |mxi + n − yi |
i
Es decir
||Ax − b|| es minimo para x = x0
At A es regular
Construimos el sistema AX = B
2 1 3
4 1 m 2
A=
5
, X= , B=
1 n 1
7 1 0· 5
Calculamos At AX = At B
2 1 3
2 4 5 7 4
m = 2 4 5 7 2
1
1 1 1 1 5 1 n 1 1 1 1 1
7 1 0· 5
Obtenemos CX = D
45
94 18 m 2
= 13
18 4 n
2
Operamos C −1 CX = C −1 D
−1 −1 45
94 18 94 18 m 94 18 2
= 13
18 4 18 4 n 18 4
2
Finalmente X=E
−27
m 52
= 103
n
26
Finalmente la recta sera
−27 103
y= x+
52 26
Al ser un plano que se ajusta no tiene porque pasar por los puntos al igual que sucede con la recta
31
−
a 6
b = 1
c
4
91
12
31 1 91
El pano pedido es: z=− x+ y+
6 4 12
n
X n
X Xn
f (x, y) = aij xi yj = xi aij yj
i,j=1 i=1 j=1
a11 a12 · · · a1n y1
21 a22 · · ·
a a2n
y2
f (x, y) = X t AY = x1 x2 · · · xn . . .. . .
.. . . ..
. . .
an1 an2 · · · ann yn
Si B = {e1 , e2 , e3 } es una base de E, de la forma bilineal f : E × E −→ R tiene asociada una unica matriz
cuadrada A de orden n, siendo sus elementos aij = f (ei , ej )
Las matrices asociadas a una forma bilineal f : E × E −→ R en distintas bases son congruentes.
Que una forma bilineal sea antisimétrica equivale a que su matriz asociada sea antisimétrica.
En caso que nos den la forma bilineal en (x, y) se sustituye y por x y se simplica.
Q(x1 , x2 ) = x1 x2
Cuadraticas Q(x1 , x2 , x3 ) = x21 + 2x2 x3
Q(x1 , x2 , x3 ) = 2x21 + 2x1 x2 − 6x2 x3 + x22 + 5x23
Q(x1 , x2 , x3 ) = x1 x2 + x3
No Cuadraticas Q(x1 , x2 , x3 ) = x21 + 2x2 x3 + 5
Q(x1 , x2 , x3 ) = sen(2x21 + 2x1 x2 − 6x2 x3 ) + x22 + 5x23
Cuando la matriz asociada solo tiene términos cuadrados, pero no rectangulares (osea es una matriz dia-
gonal), se llama forma cuadrática canónica.
n
X
Q(x) = Q(x1 , x2 , x3 , · · · , xn ) = ki x2i siendo ki ∈ R
i=1
Denición de signatura La signatura de una forma cuadrática Q se denota por sig(Q), es el numero de
términos positivos no nulos (ki > 0) de una forma canónica asociada.
a11
a12 a13 ··· a1(n−1)
a11 a12 a13 ..
a11 a12 . a22 a23 ··· a2(n−1)
41 = a11 42 =
43 = a21 a22 a23 4n−1 = . . . .. .
a21 a22 .. . . . .
a31 a32 a33 . . .
a(n−1)1 a(n−1)2 a(n−1)3 · · · a(n−1)(n−1)
Clasicación por invariantes Los invariantes de la forma cuadrática Q : E −→ R son las propiedades
de cualquier matriz asociada a la forma cuadrática que no dependen de la base considerada en el espacio
vectorial E.
Sea Q : E −→ R una forma cuadrática tal que dimE = n y A una matriz asociada a Q
Figura 6: Cónicas
6.4. Cónicas
Lugar geométrico es el conjunto de puntos que satisfacen determinadas condiciones geométricas.
Su nombre se debe a que son guras que resultan de cortar un cono con un plano.
La cónica se llama degenerada si el plano que corta al cono pasa por su vértice.
De entre las cónicas no degeneradas tienen centro: Las elipses y las hipérbolas.
Figura 7: Circunferencia
Elipse: Lugar geométrico de los puntos del plano cuya suma de distancias a dos puntos jos llamados
focos, es constante.
Figura 8: Elipse
Hipérbola: Lugar geométrico de los puntos del plano tales que la diferencia de sus distancias a dos
puntos jos, que se llaman focos, es en valor absoluto, constante.
Figura 9: Hipérbola
Parábola: Lugar geométrico de los puntos del plano que equidistan de un punto jo llamado foco y de
una recta ja llamada directriz.
Horizontal
(x2 − k)2 = 4p(x1 − h)
V ertical
(x1 − h)2 = 4p(x2 − k)
(h, k) −→ V ertice
a00 a01 a02 1
1 x1 x2 a01 a11 a12 x1 = 0
a02 a12 a22 x2
a>b focos(±c, 0)
p = −1 Elipse imaginaria
x21 = 2px2 siendo p 6= 0 Parábola con vértice en origen Foco (0, p/2)
x22 = 2px1 siendo p 6= 0 Parábola con vértice en origen Foco (p/2, 0)
p>0 Par de rectas paralelas
Paso 1 Giro (Se giran los ejes cartesianos) Se giran los ejes cartesianos denidos por x1 y x2 , mediante
el giro se elimina el termino a12
Caso 1 −→ a12 = 0 −→ Pasamos
a paso 2
o
1 Descomponemos la conica en cuadratica lineal y constante
a11 a12 x1
Parte cuadratica(f2) −→
x1 x2
a12 a22 x2
x1
Parte lineal(f1) −→ 2 a01 a02
x2
−→ a12 6= 0 −→ Parte constante −→ a00
Caso 2
o
2 Comprobamos que a12 6= 0
o
3 Diagonalizamos la matriz cuadratica, obteniendo una matriz semejante Λ
o
4 Hallamos una base ortonormal de vectores asociados → P
o
La base obtenida en 4 esta asociada a los autovalores obtenidos
o t a11 a 12
5 Se cumple entonces que P P =Λ
a12 a22
x01 x01
a11 a12
x01 x02 Pt
P +2 a01 a02 P + a00 = 0
a12 a22 x02 x02
A00 (Adjunto del elemento a00 de la matriz A o el determinante de la matriz asociada a la forma
cuadrática f 2 −→ (a11 a22 − a12 a21 )
a
|A| = 0 −→ Conica degenerada
1 clasicacion
|A| =
6 0 −→ Conica no degenerada
a
A00 = 0 −→ Conica sin unico centro
2 clasicacion
A00 6= 0 −→ La Conica posse un unico centro
a
3 Clasicación por invariantes
6.5. Cuádricas
6.5.1. Ecuación general de las Cuádricas
Una Cuádrica es el lugar geométrico de los puntos del espacio que verican una ecuación de segundo
grado en tres variables.
a11 x21 + a22 x22 + a33 x23 + 2a12 x1 x2 + 2a13 x1 x3 + 2a23 x2 x3 + 2a01 x1 + 2a02 x2 + 2a03 x3 + a00
La ecuación anterior es llamada ecuación analítica de una cuádrica. Siendo aij ∈ R y alguno de los coecien-
tes a11 , a22 , a33 , a12 , a13 ya23 no nulos. (para garantizar que se trata de una ecuacion de segundo grado)
Al igual que las cónicas la ecuacion analítica de una cuádrica contiene tres partes
a11 x21 + a22 x22 + a33 x23 + 2a12 x1 x2 + 2a13 x1 x3 + 2a23 x2 x3 +2a01 x1 + 2a02 x2 + 2a03 x3 +a00 = 0
| {z } | {z } | {z }
cuadratica lineal constante
a00 a01 a02 a03 1
a01 a11 a12 a13 x1
1 x1 x2 x3 a02
=0
a12 a22 a23 x2
a03 a13 a23 a33 x3
6.5.4. Ecuacion reducida de una cuádrica. Principales ecuaciones reducidas de las cuádric
A00 (Adjunto del elemento a00 de la matriz A o el determinante de la matriz asociada a la forma
cuadrática f 2)
a22 a23 a11 a13 a11 a12
Ja =
+ +
a23 a33 a13 a33 a12 a22
a
|A| = 0 −→ Cuadrica degenerada
1 clasicacion
|A| =
6 0 −→ Cuadrica no degenerada
a
A00 = 0 −→ Cuadrica sin unico centro
2 clasicacion
A00 6= 0 −→ La Cuadrica posse un unico centro
a
3 Clasicación por invariantes
cada bloque de signos (Ejemplo + + -) representa los signos que resultan de las raíces de la ecuacion:
p3 − Ia p2 + Ja p − A00 = 0
Bibliografía