Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1 Preliminares 3
1.1 Lógica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Soluciones a Algunos Ejercicios . . . . . . . . . . . . . . . . . . . . . . 11
2 El Principio de Inducción 13
2.1 Los Números Naturales . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Variantes de Inducción . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Ejercicios de Inducción . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3 Espacios Vectoriales 23
4 Subespacios 31
4.1 Subespacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7 Aplicaciones lineales 59
7.1 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1
1 Preliminares
1.1. Lógica
En esta sección damos un breve repaso a la lógica y al lenguaje que vamos a utilizar a
lo largo del curso.
Intuitivamente, una proposición es una afirmación al que le podemos dar un valor de
verdad, verdadero o falso.
p q p→q
V V V p NOT p
V F F V F
F V V F V
F F V
3
1 Preliminares
Recuerda que:
• p → q ≃ (NOT p) OR q
1.1.2. Cuantificadores
Dada una propiedad P (x) que depende de una variable, por ejemplo x es un alumno de
Álgebra Lineal y Discreta, podemos crear predicados cuantificando sobre dicha propiedad.
Los cuantificadores que usaremos son “para todo” (sı́mbolo ∀) y “existe” (sı́mbolo ∃).
3. Existe un marciano.
4. Para toda persona p existe una mujer m tal que m es la madre de p (todas las
personas tienen madre).
4
1.2 Conjuntos
1.2. Conjuntos
Admitiremos una idea intuitiva de conjunto como una colección o familia de objetos
relacionados por alguna propiedad común. Un conjunto queda completamente determinado
por sus elementos, es decir, dos conjuntos son iguales si y sólo si tienen exactamente los
mismos elementos.
La relación básica de los conjuntos es la relación de pertenencia, que se denota
por ∈. Si B es un conjunto y x es un elemento de B escribiremos x ∈ B, que se lee x
pertenece a B. Por otro lado, si x no pertenece a B, escribiremos x ∈ / B.
Una forma de describir conjuntos pequeños es por extensión, listando sus elementos
entre llaves
A = {1, 2, 3}
1∈A
8∈
/A
Nótese que un conjunto puede ser a su vez un elemento de otro conjunto.
Ejemplo 1.2.2.
• A = {1, 3}, B = {1, 3, 4}. En este caso A ̸= B son conjuntos distintos, 4 pertenece a
B pero no a A.
• A = {1, 1, 2}, B = {2, 2, 1, 1}, A y B son iguales, pues ambos tienen los mismos
elementos, el 1 y el 2. No importa el orden en el que estén los elementos y no hay
repeticiones.
5
1 Preliminares
Ejemplo 1.2.4.
• Sea A = {1, 2, 3}, B = {1, 2, 3, 4}. Claramente A ⊆ B, pues todos los elementos de
A son elementos de B. Sin embargo B ̸⊆ A pues 4 ∈ B pero no es un elemento de A.
Observación 1.2.5. Para comprobar A ⊆ B debemos demostrar que todos y cada uno de
los elementos de A son elementos de B. Sin embargo, para comprobar A ̸⊆ B debemos
encontrar un elemento que está en A pero no esté en B.
Hay varios conjuntos que tienen una notación definida por la tradición
La forma más común de describir los conjuntos es mediante una propiedad que distinga
los elementos del conjunto de los que no están
A = {x ∈ N | 0 ≤ x ≤ 100}
A es el conjunto de todos los números naturales entre 0 y 100 (inclusive). La barra
vertical se lee “tal que”. Esta manera de describir un conjunto suele tomar la estructura:
A = {x ∈ B | x cumple P }
A es el conjunto formado por todos los elementos de B que verifican la propiedad P .
6
1.2 Conjuntos
B = {x ∈ R | x2 + 1 = 0}
• ∅ ⊆ A.
• x∈
/ ∅.
En particular:
• ∅ ⊆ ∅.
• ∅∈
/ ∅.
7
1 Preliminares
1. A ∪ A = A ∩ A = A.
2. A ∪ ∅ = A.
3. A ∩ ∅ = ∅.
4. A ∪ B = B ∪ A.
5. A ∩ B = B ∩ A.
6. (A ∪ B) ∪ C = A ∪ (B ∪ C).
7. (A ∩ B) ∩ C = A ∩ (B ∩ C).
8. (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C).
9. (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C).
1. A ∪ B ∪ C
2. A ∩ B ∩ C
1. (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C)
3. A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
4. (A ∪ B)′ = A′ ∩ B ′
5. (A ∩ B)′ = A′ ∪ B ′
Ejercicio 1.2.14. Muestra dos conjuntos A, B tales que A\B = A, B\A = B. Para ese
conjunto A calcula un conjunto C tal que A\C = ∅ y C\A = ∅ ¿qué relación deben tener
A y C en este caso?
8
1.2 Conjuntos
1. A ⊆ A ∪ B
2. A ∩ B ⊆ B
3. A′′ = A
4. Leyes de Morgan:
a) (A ∪ B)′ = A′ ∩ B ′
b) (A ∩ B)′ = A′ ∪ B ′
5. A\B = A\(A ∩ B)
6. A ⊆ A
7. A′ = E\A
8. E ′ = ∅
9. ∅′ = E
10. Si A ⊆ B entonces B ′ ⊆ A′
3. {x ∈ Z | x2 = 2}
4. {x ∈ Z | x < 100, x2 ∈ Z}
Ejercicio 1.2.18. Da una propiedad para describir los conjuntos siguientes:
1. {0, 3, 6, 9, 12, 15}
3. {−2, 2}
4. {a, e, i, o, u}
Ejercicio 1.2.19. Sea A = {2, 4, 6}, B = {2, 6}, C = {4, 6}, D = {4, 6, 8}
¿Cuáles son subconjuntos de otro distinto?
9
1 Preliminares
3. {2, {2}}
Ejercicio 1.2.25. Sea A el conjunto de los estudiantes que viven a menos de 2 kilómetros
de la Facultad y B el conjunto de los estudiantes que van a pie a clase. Describir:
10
1.3 Soluciones a Algunos Ejercicios
(A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C)
Ejercicio 1.3.2. Muestra dos conjuntos A, B tales que A\B = A, B\A = B. Para ese
conjunto A calcula un conjunto C tal que A\C = ∅ y C\A = ∅ ¿qué relación deben tener
A y C en este caso?
3. A′′ = A
11
1 Preliminares
Vamos a probar que A′′ ⊆ A y que A ⊆ A′′ . Primeramente, para probar que A′′ ⊆ A
vamos a ver que si x ∈ A′′ entonces x ∈ A. Para ello, si x ∈ A′′ = (A′ )′ , entonces por
definición de conjuntos complementario, x ∈/ A′ . Ahora bien, si x ∈ / A′ , debe ser x ∈ A.
De esta manera probamos que A ⊆ A. Veamos ahora el otro contenido. Tenemos que ver
′′
4. a) (A ∪ B)′ = A′ ∩ B ′
10. Si A ⊆ B entonces B ′ ⊆ A′
12
2 El Principio de Inducción
2.1. Los Números Naturales
En este capı́tulo trabajamos con los números naturales y el principio de inducción.
Para ello introducimos los aximoas de Peano
Partimos de un conjunto N, llamado el conjunto de los números naturales, que cumple
los siguientes axiomas.
3. N − s(N) = {0}, él único número natural que no es un siguiente de otro número
natural es el número 0. (∀x ∈ N, 0 ̸= s(x)).
2. Si n ∈ X entonces s(n) ∈ X.
En estas condiciones X = N.
Observación 2.1.1. En algunos textos, el 0 no se considera un número natural. En los
axiomas anteriores sustituirı́amos el 0 por 1.
Normalmente, no escribimos s(x), sino x + 1, el siguiente de x. También denotamos
por 1 = s(0), 2 = s(1), 3 = s(2) etc.
El principio de inducción es útil para demostrar propiedades de los números naturales.
Sea P (n) una propiedad que depende de un número natural n. Si somos capaces de:
13
2 El Principio de Inducción
Entonces, podemos afirmar que todos los números naturales verifican la propiedad P .
Ejemplo 2.1.2. Para todo número natural n
n(n + 1)
0 + 1 + 2 + 3 + ··· + n =
2
14
2.2 Variantes de Inducción
k(k + 1)
0 + 1 + 2 + ... + k =
2
podrı́a parecer que k > 2, pero esto es erróneo, lo único que sabemos que k es que es un
número natural que verifica la fórmula, podrı́a ser incluso que k = 0. Para evitar estas
ambigüedades usaremos más adelante otra notación para una suma de términos.
Ejemplo 2.2.2. Para todo n ≥ 4 tenemos que n2 − 1 > 3n. (Nótese que la propiedad no
es cierta para n = 0, 1, 2, 3).
Primeramente, la propiedad es cierta para n = 4, pues 42 − 1 = 15 > 12.
Ahora, suponemos que k ≥ 4 y k 2 − 1 > 3k, debemos probar que (k + 1)2 − 1 > 3(k + 1).
(k + 1)2 − 1 = k 2 + 2k
sabemos que, por hipótesis de inducción, k 2 > 3k + 1, por lo que
(k + 1)2 − 1 = k 2 + 2k > 3k + 2k + 1
como k ≥ 4, 2k + 1 ≥ 9 > 3
De manera análoga se pueden hallar muchas variantes. Por ejemplo, para demostrar
que una propiedad P es cierta para todos los números impares, procederı́amos ası́:
15
2 El Principio de Inducción
Si P (n) es la propiedad que queremos demostrar para los números impares, realmente
harı́amos inducción sobre la propiedad Q(n) : P (2n + 1), pues todo número impar es de
la forma 2n + 1.
2. Suponemos que la propiedad se cumple para todos los números naturales {0, 1, . . . , k}
y, a partir de aquı́, probamos que es cierto para k + 1.
k = p · q = p1 · · · ps q1 · · · qr
Por inducción completa, todo número natural n ≥ 2 se puede expresar como producto de
números primos.
16
2.3 Ejercicios de Inducción
i=0 (2 ∗ i + 1) = (n + 1)2
Pn
•
i=0 2 = 2n+1 − 1
Pn i
•
an+1 −1
= para a ̸= 1
Pn i
• i=0 a a−1
n(n+1)
=
Pn
• i=0 i 2
n(n+1)(2n+1)
=
Pn 2
• i=1 i 6
• 13 + 23 + 33 + · · · + n3 = (1 + 2 + · · · + n)2
n(n+1)(n+2)
+ 1) =
Pn
• i=1 i(i 3
3n(n+1)
=
P2n
• i=n i 2
=0
Pn
• i=−n i
n(3n+1)
=
P2n
• i=−n i 2
• Sea a ≥ −1 un número real. Demuestre por inducción que para todo natural
(1 + a)n ≥ 1 + an
• 1
1·2 + 1
2·3 + ··· + 1
n·(n+1)
= (n + 1)! − 1, n ≥ 1
Pn
• k=1 k(k!)
= (n − 1) · 2n+1 + 2, n≥1
Pn k
• k=1 k2
n(n+1)(2n+1)
= , n≥1
Pn 2
• k=1 k 6
• n2 ≤ n!, n≥4
• n3 − n es siempre un múltiplo de 6.
17
2 El Principio de Inducción
def ordena_bruto(lista):
if len(lista) < 2:
return lista
sublista1 = lista[:-1]
ultimo = lista[-1]
listaordenada = ordena_bruto(sublista1)
if listaordenada[-1] <= ultimo:
return listaordenada + [ultimo]
else:
nuevoultimo = listaordenada[-1]
listaordenada[-1] = ultimo
listaordenada = ordena_bruto(listaordenada)
return listaordenada + [nuevoultimo]
18
2.3 Ejercicios de Inducción
• El algoritmo devuelve una lista con los mismos elementos que el input pero ordenada
de manera creciente.
2. Ahora, supuesto cierto para todo m ≤ n, veamos que es cierto para n + 1. Tenemos
a2n an an 1·1
que an+1 = a2n−(n−1) = n−1 = n−1 = = 1.
a a 1
f: N → N
0 Si x = 0
x 7→ f (x) = 1 Si x = 1
f (x − 1) + f (x − 2)
En otro caso
def Fibo(n):
if (n == 0) or (n == 1):
return n
return Fibo(n-1) + Fibo(n-2);
Ejercicio 2.3.11. Demuestre por inducción que el código Sage termina en una cantidad
finita de pasos para cada número natural n.
√
Ejercicio 2.3.12. Sea ϕ el número áureo. y ψ = 1 − ϕ = 1− 5
2
√
1+ 5
ϕ=
2
19
2 El Principio de Inducción
ϕn + ϕn+1 = ϕn+2
ψ n + ψ n+1 = ψ n+2
Utilice este hecho para demostrar por inducción que, para todo n
ϕn − ψ n
F ib(n) = √
5
Nota: de la anterior fórmula vemos que F ib(n) crece exponencialmente. En particular,
crece más rápido que cualquier potencia.
F ib(n)
∀k > 0 lı́m =∞
n→∞ nk
Ejercicio 2.3.13. Demuestre por inducción que, para todo n ≥ 2, para calcular F ib(n)
el código Sage dado necesita realizar F ib(n + 1) − 1 sumas. ¿Qué opina sobre el coste
en número de operaciones que necesita este algoritmo? ¿Cree que hay alguna forma de
calcularlo más rápido?
Ejercicio 2.3.14. Sea A la matriz
!
0 1
A=
1 1
Esta propiedad de la matriz A permite generar un código más rápido para calcular
F ib(n).
20
2.3 Ejercicios de Inducción
def Fiborapido(n):
if (n == 0) or (n == 1):
return n;
A = matrix([[0,1],[1,1]])
return potencia_matricial_rapida(A,n)[0][1];
Caso n = 6
Ejercicio 2.3.16.
13 + 23 + 33 + · · · + n3 = (1 + 2 + · · · + n)2 (⋆)
13 + 23 + 33 + . . . + (n − 1)3 + n3 = (1 + 2 + 3 + . . . + (n − 1) + n)2
Y, usando esta igualdad, debemos probar que:
21
2 El Principio de Inducción
13 + 23 + . . . + n3 + (n + 1)3 = (1 + 2 + 3 + . . . + n + (n + 1))2
Partamos de la parte de la izquierda de la igualdad y veamos si podemos transformarlo
en el elemento de la derecha.
13 + 23 + 33 + . . . + n3 + (n + 1)3 (2.3)
La hipótesis de inducción nos da una fórmula para la suma de los n primeros cubos,
luego sustituimos (13 + 23 + . . . + n3 ) por (1 + 2 + . . . + n)2 en 2.3, nos queda
(1 + 2 + 3 + . . . + n + (n + 1))2
22
3 Espacios Vectoriales
En esta parte de la asignatura, la estructura matemática que queremos estudiar es la
de espacio vectorial. Son conocidos los ejemplos de R2 y R3 , pero los espacios vectoriales
son mucho más generales y la teorı́a se puede aplicar en contextos diversos.
Asociado a cada espacio vectorial V tenemos siempre un cuerpo K (las constantes).
Los tipos de objetos que vamos a trabajar son dos:
2⃗v 2⃗v
⃗u +
⃗
w =3
⃗v
⃗u 3⃗u
23
3 Espacios Vectoriales
• Propiedad discributiva a ∗ (b + c) = a ∗ b + a ∗ c.
Ejemplo 3.0.2. Son cuerpos: Q, R, C. Si tomamos el conjunto Z2 = {0, 1}, este conjunto
con las operaciones:
+ 0 1 ∗ 0 1
0 0 1 0 0 0
1 1 0 1 0 1
también es un cuerpo.
Definición 3.0.3. Un conjunto V se dice que es un espacio vectorial sobre un cuerpo
K si existen dos operaciones:
+: V ×V → V ∗: K×V → V
(u, v) 7→ u + v (λ, u) 7 → λ∗u
• u + (v + w) = (u + v) + w
• λ ∗ (u + v) = λ ∗ u + λ ∗ v
• (λ +K µ) ∗ u = λ ∗ u + µ ∗ u
• λ ∗ (µ ∗ u) = (λ ·K µ) ∗ u
• 1K ∗ u = u
A los elementos de V los denominados vectores, a los elementos de K escalares (o
constantes).
Ejemplo 3.0.4. 1. R2 es un R-espacio vectorial con las operaciones
24
3. C 0 ([0, 1]) = {f : [0, 1] → R | f continua }.
Es un espacio vectorial sobre R donde la suma de vectores es:
f + g : [0, 1] → R
x 7→ f (x) + g(x)
λ · f : [0, 1] → R
x 7→ λ · f (x)
4. C es un R-espacio vectorial.
La suma viene dada por la suma de números complejos y el producto de un número
real por un número complejo es el producto usual.
6. R[x]<3 los polinomios con coeficientes reales de grado menor que 3 forman un
R-espacio vectorial.
7. Las matrices m×n con coeficientes racionales, Mm×n (Q) forman un espacio vectorial
sobre Q.
u = a1 v1 + . . . + ar vr
En R3 , el vector (1, 0, 1) no es combinación lineal de (1, 1, 0) y (1, 0, 2), pues para ser
combinación lineal, deberı́an existir dos constantes a, b de manera que
25
3 Espacios Vectoriales
26
Ejemplo 3.0.11. Veamos si, en R3 , los vectores (1, 0, 1), (0, 1, −1), (0, 1, 1) son lineal-
mente independientes o no. Buscamos valores para que:
Analizamos el sistema:
a
= 0
b + c = 0
a − b + c = 0
• Si S es libre y u ∈
/ ⟨S⟩ entonces S ∪ {u} es libre.
Definición 3.0.13. Una matriz n × m sobre K es una tabla con n filas y m columnas
cuyos elementos son elementos de K.
a11 . . . a1m
A= ..
.
an1 . . . amn
Definición 3.0.15. Dada una matriz A, su rango es el número máximo de filas li-
nealmente independientes. Este número coincide con el número máximo de columnas
linealmente independientes.
27
3 Espacios Vectoriales
Definición 3.0.16. Dada una matriz A, son operaciones elementales por filas
(columnas):
• Intercambiar dos filas (columnas)
• Sumar a una fila (columna) un múltiplo de otra.
• Multiplicar una fila (columna) por una constante c ̸= 0.
Las operaciones elementales por filas o columnas aplicadas a una matriz no cambia su
rango.
Definición 3.0.17. Dada una fila no nula de una matriz, llamamos pivote al primer
término (leı́da la fila de izquierda a derecha) distinto de cero. Una matriz es escalonada
por filas si:
• Las filas nulas son las últimas filas de la matriz.
• En cada fila no nula, el pivote está estrictamente a la derecha del pivote de la fila
anterior.
Si A es una matriz escalonada por filas, su rango es igual al número de filas no nulas.
0 1 1
28
Teorema 3.0.21 (Rouché-Frobenius). Un sistema de ecuaciones es compatible si y solo
si el rango de la matriz asociada es igual al rango de la matriz ampliada. En este caso,
es determinado si el rango es igual al número de incógnitas.
Definición 3.0.23. Una matriz n × n A es invertible si existe una matriz inversa A−1
tal que AA−1 = A−1 A = In .
Teorema 3.0.25. tenemos una función | · | : Mn×n (K) → K que a cada matriz A n × n le
asocia un número real |A| llamado determinante que verifica las siguientes propiedades:
Ejemplo 3.0.26. Para matrices 3 × 3, el determinante viene dado por la regla de Sarrus:
a a12 a13
11
a21 a22 a23 =
a31 a32 a33
= a11 a22 a33 + a12 a23 a31 + a21 a32 a13 − a31 a22 a13 − a32 a23 a11 − a21 a12 a33
• |A| = |At |.
• (desarrollo por una fila) Si denotamos Aij la matriz que resulta de eliminar la fila i
y columna j, el determinante se puede calcular por desarrollo de la fila (columna) k.
29
3 Espacios Vectoriales
• {v1 , . . . , vr } es libre.
• M tiene rango r.
Los vectores {u, v, w} son linealmente independientes si y solo si la matriz M tiene rango
3.
30
4 Subespacios
4.1. Subespacio vectorial
Definición 4.1.1. Si V es un espacio vectorial sobre K y W ⊆ V un subconjunto no
vacı́o, diremos que W es un subespacio si es un espacio vectorial con las operaciones de
V.
⟨S⟩ = {λ1 v1 + . . . + λr vr | λ1 , . . . , λn ∈ K}
λ1 v1 + . . . + λr vr
Ejemplo 4.1.4.
31
4 Subespacios
• En R3 el conjunto
U = {x + 3y − 4z = 0}
es un espacio vectorial dado de manera implı́cita.
Por otro lado el conjunto
V = {(λ, λ, λ) | λ ∈ R}
W = {(λ + 5µ, λ + µ, λ + 2µ) | λ, µ ∈ R}
son espacios vectoriales dados de manera paramétrica V = ⟨(1, 1, 1)⟩, W = ⟨(1, 1, 1), (5, 1, 2)⟩.
Sea V = Kn espacio vectorial sobre K.
Si tenemos un conjunto de ecuaciones homogéneas
a11 x1
+ a12 x2 + . . . + a1n xn = 0
...
+ at2 x2 + . . . + atn xn = 0
a x
t1 1
U = {(x, y, z, t) ∈ R4 | x + 2y = 0, y − t = 0}
Esta matriz está ya escalonada, los pivotes se corresponden con las variables x, y, por
tanto z y t serán parámetros. Resolviendo:
= −2b
x
=
y b
z = a
t =
b
Para calcular generadores, escogemos cada una de las variables, la sustituimos por 1 y el
resto por cero.
U = ⟨(0, 0, 1, 0), (−2, 1, 0, 1)⟩
32
4.1 Subespacio vectorial
α1 x1 + . . . + αr xr = 0
α1 a11 + . . . + αn a1n = 0
α1 ai1 + . . . + αn ain = 0
α1 0
a11 . . . a1n
.. ..
... . = .
ar1 . . . arn αn 0
α1 = f1 (t1 , . . . , ts )
..
.
αn = fn (t1 , . . . , ts )
dependientes de s parámetros t1 , . . . , ts .
Para cada parámetro obtendremos una ecuación implı́tica. Por ejemplo, para t1 = 1 y
el resto cero, la solución:
α1 = f1 (t1 , 0, . . . , 0)
..
.
αn = fn (t1 , 0, . . . , 0)
nos proporciona la ecuación (sustituyendo las α en la ecuación general
33
4 Subespacios
Segundo método:
Si nos dan un subespacio de Kn
equivalentemente:
x1 = a11 t1 + a21 t2 + . . . + ar1 tr
..
V = .
xn = a1n t1 + a2n t2 + . . . + arn tr
Ahora, aplicamos Gauss hasta escalonar la parte de los coeficientes. las últimas s filas
serán ceros en la parte de los coeficientes. Algo de la forma:
* ··· * *
..
.
* ··· * *
0 ··· 0 g1 (x1 , . . . , xn )
..
.
0 ··· 0 gs (x1 , . . . , xn )
De la última columna, los polinomios que aparecen en filas que el resto de coeficientes
sean cero, forman ecuaciones implı́citas de V .
g1 (x1 , . . . , xn ) = 0
V = ···
g (x , . . . , x )
= 0
s 1 n
equivalentemente:
= 2a + 2b
x
=
y b
V =
z = a − b
t =
a
Primer método:
34
4.1 Subespacio vectorial
0 0 x-2y-2t
De aquı́, las ecuaciones implı́citas de V son la ecuación que aparece en la última columna
de las filas que sean cero:
(
y +z −t = 0
V =
x −2y −2t = 0
Los dos métodos nos dan resultados diferentes, pero ambos son correctos ya que la
representación no es única.
35
5 Bases, dimensión, Fórmula de Grassmann
Definición 5.0.1. Sea V un espacio vectorial, un subconjunto S es un conjunto
generador de V si V = ⟨S⟩. Una base de V es una familia de vectores que es libre y
conjunto generador.
Teorema 5.0.2. Todas las bases de U tienen el mismo número de elementos, la dimen-
sión de U .
Ejemplo 5.0.3. En R2 , B = [(1, 0), (0, 1)] es una base. Es un conjunto generador, pues
Ejemplo 5.0.4. En R3 , A = [(1, 1, 0), (1, −1, 0), (0, 0, 1)] es una base. Los vectores son
independientes, pues:
1 1 0
rango 1 −1 0 = 3
0 0 1
Es un conjunto generador, pues dado cualquier vector (a, b, c), el sistema de ecuaciones
en las incógnitas x, y, z
37
5 Bases, dimensión, Fórmula de Grassmann
Ejemplo 5.0.6. Sea R[x]<3 los polinomios en la variable x que tienen grado menor que
3.
R[x]<3 = {a + bx + cx2 }
Tenemos que los polinomios [1, x, x2 ] forman una base del espacio ¿Por qué?. Por tanto
R[x]<3 tiene dimensión 3.
Teorema 5.0.7.
T = [(2, 1, 0, 2), (3, 4, 2, 1), (1, 3, 2, −1), (3, 4, 2, 1), (0, 0, 1, −1), (0, 0, 0, 0)]
rango(2 1 0 2) = 1
L = [(2, 1, 0, 2)]
38
Repetimos el proceso hasta agotar los vectores.
2 1 0 2 2 1 0 2
2 1 0 2
1 1 0 0 0 1 1 0 0 0
1 −1 0 0 0 0 −2 0 0 0
rango = rango =
0 0 0 0 2 0 0 0 0 2
1 0 0 0 0 0 −1 0 0 0
1 1 0 0 0
0 −2 0 0 0
rango =3
0 0 0 0 2
0 0 0 0 0
No nos sirve, probamos con e2
1 1 0 0 0 1 1 0 0 0
0 −2 0 0 0 0 −2 0 0 0
rango = rango =3
0 0 0 0 2 0 0 0 0 2
0 1 0 0 0 0 0 0 0 0
39
5 Bases, dimensión, Fórmula de Grassmann
1 1 0 0 0
0 −2 0 0 0
rango 0 0 0 0 2 = 5
0 0 1 0 0
0 0 0 1 0
[(1, 1, 0, 0, 0), (1, −1, 0, 0, 0), (0, 0, 0, 0, 2), (0, 0, 1, 0, 0), (0, 0, 0, 1, 0)]
Teorema 5.0.10.
Definición 5.0.11.
40
Ejemplo 5.0.13. El plano P de R3 dado por las ecuaciones {2x − y + 3z = 0}
y la recta R de ecuaciones {x − 3y = 0, y + 2z = 0} la intersección es:
{2x − y + 3z = 0, x − 3y = 0, y + 2z = 0}
2 U1 = ⟨u1 ⟩
u1
U2 = ⟨u2 ⟩ 1
u1 + u2
0
−2 −1 0 1 2 3
−1
u1
−2
−3
La unión de U1 y U2 no es un subespacio.
w = u + v, u ∈ U, v ∈ V
U + V = {u + v | u ∈ U, v ∈ V }
41
5 Bases, dimensión, Fórmula de Grassmann
BU = [v1 , . . . , vr , u1 , . . . , un−r ]
BW = [v1 , . . . , vr , w1 , . . . , wm−r ]
Entonces tenemos el conjunto generador de U + W
Veamos que estos vectores son independientes. Supongamos una combinación nula:
tenemos que comprobar que las constantes deben ser nulas. Pasando los w a la derecha
d1 v1 + . . . + dr vr + c1 w1 + · · · cm−r wm−r = 0
como [v1 , . . . , vr , w1 , . . . , wm−r ] es una familia libre, las constantes di y ci deben ser cero.
Sustituyendo en la combinación nula original.
por lo que
a1 v1 + · · · + ar vr + b1 u1 + · · · + bn−r un−r = 0
de nuevo [v1 , . . . , vr , u1 , . . . , un−r ] es linealmente independiente, por lo que las constantes
ai y bi deben ser nulas. Tenemos ası́ que:
42
Ejemplo 5.0.18. Sea P1 = {2x − y + 3z = 0}, P2 = {x + y + z = 0} subespacios de R3 .
P1 y P2 son planos de R3 , dim(P1 ) = dim(P2 ) = 2.
P1 ∩ P2 = ⟨(−4, 1, 3)⟩
Una recta.
dim(P1 + P2 ) + dim(P1 ∩ P2 ) = dim(P1 ) + dim(P2 )
dim(P1 + P2 ) + 1 = 2 + 2
Sin necesidad de calcularlo, la fórmula de Grassmann me dice que P1 + P2 = R3 . En
efecto P1 = ⟨(−3, 0, 2), (1, 2, 0)⟩, P2 = ⟨(1, −1, 0), (1, 0, −1)⟩ y
{(−3, 0, 2), (1, 2, 0), (1, −1, 0)}
es base de R3 .
En R3 , si dim(P1 ) = dim(P2 ) = 2 son dos planos
dim(P1 ∩ P2 ) dim(P1 + P2 ) posible
0 4 NO
1 3 SI
2 2 SI
3 1 NO
4 0 NO
Teorema 5.0.19. En un espacio vectorial, si U y V son subespacios, son equivalentes:
• dim(U ∩ V ) = 0
• dim(U + V ) = dim(U ) + dim(V )
• La unión de una base de U y una base de V es siempre una base de U + V .
• Cada vector de U + V se escribe de forma única como un vector de U más un
vector de V .
Diremos, en este caso, que la suma es directa y escribiremos U ⊕ V en lugar de
U +V.
Ejemplo 5.0.20. Si P = {x + y + z = 0}, R = ⟨(1, 2, 3)⟩ en R3 , vemos que la intersección
es cero, luego la suma será directa.
El vector w = (−5, −5, 0) se escribirá, de manera única como w = u + v, u ∈ P , v ∈ U .
• Calculamos una base de P = ⟨(1, −1, 0), (1, 0, −1)⟩
• Calculamos una base de R = ⟨(1, 2, 3)⟩
• Como la suma es directa, (1, −1, 0), (1, 0, −1), (1, 2, 3) es base de P + R = R3
• Escribimos (−5, −5, 0) como combinación de la base.
(−5, −5, 0) = 5/3(1, −1, 0) − 5(1, 0, −1) − 5/3(1, 2, 3)
u = 5/3(1, −1, 0) − 5(1, 0, −1) = (−10/3, −5/3, 5)
v = −5/3(1, 2, 3) = (−5/3, −10/3 − 5)
43
5 Bases, dimensión, Fórmula de Grassmann
5.1. Problemas
Ejercicio 5.1.1. Calcule el rango de las siguientes matrices:
1 −1 1 −1
1 2 3 0 1 −1 1
4 5 6 2 1 0 1
7 8 9 1 1 1 1
2 0 2 0
1 −1 −2 −10
−1 2 2 10
−1 6 3 15
0 −4 2 11
Ejercicio 5.1.6. Demuestre que si {u, v} ⊆ V es una familia libre y a es una constante
cualquiera, entonces {u, v + au} también es una familia libre.
Ejercicio 5.1.7. Sean {v1 , v2 , v3 } ⊆ V una de vectores, tales que {v1 , v2 }, {v1 , v3 } y
{v2 , v3 } son familias independientes ¿Es {v1 , v2 , v3 } una familia independiente?
Ejercicio 5.1.8. Calcule todas las soluciones en R2 de los siguientes sistemas. ¿Cuáles
de ellos definen subespacios
( vectoriales de R ?
2
(
n 2x + y = 1 3x + y = 5
2x − y = 0
x − 3y = 0 −6x − 2y = 5
• {1 + x, 2 − x2 , 1 + x + 2x2 } en R[x]<3
• U = ⟨(1, 0, 1), (0, 0, 0), (1, 1, 2), (0, −1, −1), (0, 1, 1)⟩
44
5.1 Problemas
V = ⟨(0, 0, 0, 0), (0, 1, 1, 1), (0, 0, 1, 1), (1, 0, 0, 0), (0, 2, 3, 3)⟩.
Calcula la suma de U + V y la intersección U ∩ V ¿Es la suma directa? ¿Se cumple la
fórmula de las dimensiones? ¿Es cierto siempre que si U + V = V entonces U ∩ V = U ?
¿por qué?
Ejercicio 5.1.14. Sea U = ⟨(1, −1, 1), (0, 2, 3)⟩, V = ⟨(0, 1, 1), (−1, 0, 1)⟩. Para cada
vector ei de la base canónica, escribe ese vector como la suma de un vector ui ∈ U y un
vector vi ∈ V , ei = ui + vi ¿Es esa manera de escribirlo única? ¿Es U + V suma directa?
Ejercicio 5.1.15. En Z52 , calcule U ∩ V ∩ W donde:
• U = {(x, y, z, t, u)|x + y + z + t = 0}
• V = {(a, b, a + b, 0, a)|a, b ∈ Z2 }
• W = ⟨(0, 1, 1, 1, 0), (0, 1, 1, 0, 0), (0, 0, 1, 0, 1), (1, 0, 1, 1, 0), (1, 1, 0, 1, 0)⟩
Ejercicio 5.1.16. En R4 , sea V = {(x, y, z, t)|x−y+z−t = 0}, U = ⟨(1, 0, 1, 0), (0, 1, 0, 1)⟩.
Tenemos que (1, 0, 1, 0) ∈
/ V , (0, 1, 0, 1) ∈
/ V . ¿Significa esto que U ∩ V = {0}?
Ejercicio 5.1.17. Calcule
1. Un espacio V de R6 de dimensión 4.
2. Un subespacio U de V de dimensión 1.
45
5 Bases, dimensión, Fórmula de Grassmann
1. R3 = ⟨v1 , v2 , v3 , v4 ⟩.
46
5.1 Problemas
47
6 Coordenadas, cambio de coordenadas
En este capı́tulo vamos a ver que dos espacios vectoriales sobre un cuerpo cualquier
espacio vectorial sobre K de la misma dimensión son esencialmente iguales.
Una noción importante es el concepto de coordenadas de un vector respecto de una
base.
Vamos a describir de una manera un poco distinta los conceptos de sistema generador,
libre y base. Tomemos por ejemplo R4 .
A = [(1, 0, 2, 3), (−1, 2, 1, 2), (0, 1, 2, −2), (0, 0, 1, 2), (2, 3, 4, 5), (0, 0, 0, 3)]
es un conjunto generador pero no es una base. Si queremos escribir un vector (a, b, c, d)
como combinación lineal de los vectores de A
1 0 0 2 0
−1 a
0 2 1 0 3 0 b
x + y + z + t + u + v =
2 1 2 1 4 0 c
3 2 −2 2 5 3 d
debemos resolver el sistema:
x
1 −1 0 0 2 0
y a
0 2 1 0 3 0 z b
=
2 1 2 1 4 0 t c
3 2 −2 2 5 3 u
d
v
que el conjunto A sea generador significa que, sea quien sea (a, b, c, d) el sistema es
compatible, siempre tiene solución.
0 0
! a
1 0 x b
=
0 2 y c
0 0 d
El sistema no siempre tiene solución, pues C no es generador, pero si hay solución, esta
es única. Es decir el sistema siempre es o incompatible o compatible determinado.
49
6 Coordenadas, cambio de coordenadas
Finalmente D = [(1, 0, 0, 0), (2, 1, 0, 0), (−8, 1, 2, 2), (0, 0, 0, 1)] es una base de R4 . Esto
se traduce en que el sistema
1 2 −8 0
x a
0 1 1 0 y b
=
0 0 2 0 z c
0 0 2 1 t d
Siempre es compatible determinado, sea quien sea (a, b, c, d), luego la solución es única.
A esta solución la llamamos coordenadas del vector (a, b, c, d) en la base D.
Definición 6.0.1. Si V es un espacio vectorial y B = [v1 , . . . , vn ] es una base de V
entonces todo vector u ∈ V se escribe, de manera única, como
u = a1 v1 + . . . + an vn
(a1 , a2 , . . . , an )B son las coordenadas de u en la base B.
u = (a1 , a2 , . . . , an )B
Si cambiamos la base, cambiamos las coordenadas, pero no cambiamos el vector.
Ejemplo 6.0.2. Sea V = C[x]<6 , una base de V es B = [1, x, x2 , x3 , x4 , x5 ]. El polinomio
f = 1 + 3x + (4 + i)x2 + x5 tiene por coordenadas en la base B
f = (1, 3, 4 + i, 0, 0, 1)B
En cambio, en la base B1 = [i, x, x2 , x3 , x4 , x5 ] el polinomio f tiene coordenadas
f = (−i, 3, 4 + i, 0, 0, 1)B1
Esto son abreviaturas de:
f = 1 · 1 + 3 · x + (4 + i) · x2 + 1 · x5 =
(−i) · i + 3 · x + (4 + i) · x2 + 1 · x5
Ejemplo 6.0.3. Sea Bc = [(1, 0), (0, 1)] la base canónica
Sea B = [(2, 3), (−1, 0)]
El vector (4, −5)B ¿Qué coordenadas tiene en la base canónica?
50
Ejemplo 6.0.4. Sea V un espacio vectorial de dimensión 5 y A = [v1 , v2 , v3 , v4 , v5 ] una
base cualquiera. Siempre se cumple:
v1 = 1v1 + 0v2 + 0v3 + 0v4 + 0v5 = (1, 0, 0, 0, 0)A
v3 = 0v1 + 0v2 + 1v3 + 0v4 + 0v5 = (0, 0, 1, 0, 0)A
v4 + v5 = (0, 0, 0, 1, 1)A
Si u = (a1 , a2 , a3 , a4 , a5 )A y w = (b1 , b2 , b3 , b4 , b5 )A . Entonces:
u + w = (a1 + b1 , a2 + b2 , a3 + b3 , a4 + b4 , a5 + b5 )
λu = (λa1 , λa2 , λa3 , λa4 , λa5 )
Ejemplo 6.0.5. Tomemos R2 y las bases canónica Bc = [(1, 0), (0, 1)] y A = [(2, 0), (1, −1)].
Tomemos el vector:
v = (3, 1) = (3, 1)Bc = 2(2, 0) − (1, −1) = (2, −1)A
una representación gráfica de las coordenadas es la siguiente:
2 2
0
..
MB1 B2 ·
.
0
51
6 Coordenadas, cambio de coordenadas
Por un lado, este producto devuelve la primera columna de MB1 B2 . Por otro estas deben
ser las coordanadas de v1 en la base B2 . Esto ocurre para cada columa:
La columna i-ésima de MB1 B2 son las coordenadas de vi , el i-ésimo vector de la base
de salida respecto de la base de llegada.
Vemos que esto determina de manera única la matriz. Para ver que esta cumple lo
pedido, sea
v = (a1 , . . . , ar )B1
entonces
v = a1 v1 + . . . ar vr
Si denotamos por Ci la columna i de la matriz, las coordenadas de v en la base B2 será
a1
..
a1 C1 + a2 C2 + . . . + ar Cr = MB1 B2 · .
ar
Tomemos v1 = (1, −1, 2) = (1, 0, 0)A . Sus coordenadas en la base B son la solución de:
x = −3 y = 2 z = 3
Luego la matriz MAB debe cumplir:
1
a11 a12 a13 −3
a21 a22 a23 · 0 = 2
a31 a32 a33 0 A 3 B
52
De manera análoga, la segunda columna viene determinada por las coordenadas de
(0, 1, 0)A en la base B
MAB = 2 1 1
3 2 1
Por ejemplo:
−3 0 −1 2
−9
2 1 1 · −3 = 4
3 2 1 3 A 3 B
Es decir:
1 2 1 1 2 0
Es decir MB2 B3 MB1 B2 es una matriz que si la multiplicamos por las coordenadas de un
vector en la base B1 nos devuelve las coordenadas de dicho vector en la base B3 . Es decir,
es la matriz de cambio de base de B1 a B3
53
6 Coordenadas, cambio de coordenadas
1 0 ... 0
0 1 . . . 0
MAA = Idn =
..
.
0 0 ... 1
tenemos que:
In = MBA MBA
es decir:
−1
MBA = MAB
El cambio de coordenadas inverso viene dado por la matriz inversa.
Ejemplo 6.0.10. En R3 , Tomemos las bases A = [(1, 2, 3), (4, 5, 6), (7, 0, 0)], B =
[(0, 1, 0), (1, 1, 1), (2, 8, 15)]. Entonces la matriz de cambio de base MABc es la matriz que
tiene por columnas las coordenadas de los vectores de A escritos en la base canónica.
1 4 7
MABc = 2 5 0
3 6 0
de manera análoga:
0 1 2
MBBc = 1 1 8
0 1 15
Entonces:
−1
0 1 2 1 4 7
−1
MAB = MBc B MABc = MBB MABc = 1 1 8 2 5 0
c
0 1 15 3 6 0
−1
1 4 7 0 1 2
−1 −1
MBA = MAB = MAB MBBc = 2 5 0 1 1 8
c
3 6 0 0 1 15
54
6.1 Ejercicios
6.1. Ejercicios
Ejercicio 6.1.1. Calcule las matrices de cambio de base en los siguientes casos:
1. En R2 MAB con A = [(1, 0), (0, 1)], B = [(2, 3), (1, 1)].
2. En R2 MAC con A = [(1, 0), (0, 1)], C = [(5, 1), (1, 0)].
3. En R2 MBC con B = [(2, 3), (1, 1)], C = [(5, 1), (1, 0)]
• ¿Qué vector tiene por coordenadas (1, 2, 3)A ? (Escrı́balo en función de los vectores
[u, v, w].
A = [(1, 0, 1), (2, 0, 1), (1, 1, 0)], B = [(1, −1, 0), (2, 0, 1), (−3, 2, −1)].
0 · x = ∅, 1·x=x
x +V y = (x\y) ∪ (y\x)
En esta estructura la suma es el conjunto que contiene a los elementos que están en uno
y solo uno de los conjuntos x, y.
Por ejemplo:
{1, 2, 3} +V {2, 4, 5} = {1, 3, 4, 5}
{2, 3} +V {2, 3} = ∅
Con estas operaciones V es un espacio vectorial.
55
6 Coordenadas, cambio de coordenadas
• Demuestre que B = [{1}, {2}, {3}, {4}, {5}] es una base de V . ¿Qué dimensión tiene
V?
• ¿Cuales son las coordenadas en la base B de los vectores ∅, {1, 5}, {2, 4}?
• Compruebe que la suma de las coordenadas de {1, 2, 3} y {2, 4, 5} son las coordenadas
de {1, 3, 4, 5}.
Ejercicio 6.1.6. En R3 tenemos el plano dado en implı́citas por
U = {(x, y, z) | x + y + z = 0}.
0 2 3 2
−1 −1
M = 1 0 −1 M −1 = 2 3 −3
1 1 1 −1 −2 2
56
6.1 Ejercicios
3. Dada la base C = [(1, 0, 1), (0, 1, 2), (0, 0, 1)] calcule una base D para que la matriz
de cambio de base de C a D sea la matriz M .
1
∗ ∗ ∗
∗ ∗ 0 ∗
MAB =
∗ ∗ 0 ∗
∗ ∗ 0 ∗
0 0 1 0
0 1 0 0
MAB =
0 0 0 1
1 0 0 0
57
7 Aplicaciones lineales
En este capı́tulo estudiamos funciones entre distintos espacios vectoriales. Muchas
de estas funciones tienen un sabor geométrico, giros, simetrı́as, proyecciones etc. Sin
empargo no es completamente geométrico porque tenemos la restricción de que el vector
cero es especial.
f: R3 → R4
(x, y, z) 7→ (2x, −y, z, 0)
es lineal.
En efecto, sean v = (a, b, c) y w = (d, e, g) dos vectores y α, β dos constantes.
= αf (a, b, c) + βf (d, e, g)
• f (0V ) = 0W
• f (−v) = −f (v)
• g ◦ f : V → U también es lineal.
59
7 Aplicaciones lineales
f : R −→ R
x 7→ x + 1
f (0) = 1 ̸= 0
La aplicación
ℜ: C → C
z 7→ ℜ(z)
Que lleva a cada número complejo sobre su parte real f (a + b · i) = a es lineal sobre R
pero no sobre C.
p: Z82 → Z2
u = (x1 , x2 , x3 , x4 , x5 , x6 , x7 , x8 ) 7→ p(u)
p(u) = x1 + x2 + x3 + x4 + x5 + x6 + x7 + x8
π: V → U
v = uv + wv 7→ uv
Es lineal.
Ejemplo 7.0.7. R4 = ⟨(2, 3, −1, 2), (1, 4, 5, 0)⟩ ⊕ ⟨(2, −2, 2, 1), (3, 0, 4, 1)⟩
v1 = (2, 3, −1, 2), v2 = (1, 4, 5, 0), v3 = (2, −2, 2, 1), v4 = (3, 0, 4, 1).
Si v ∈ R4 , existen únicos a, b, c, d con
60
R2 = ⟨(1, −1)⟩ ⊕ ⟨(1, 1)⟩
π, la proyección sobre ⟨(1, −1)⟩ en la dirección ⟨(1, 1)⟩.
a−b a+b
(a, b) ∈ R2 = (1, −1) + (1, 1)
2 2
π: R2 → ⟨(1, −1)⟩
(a, b) 7→ a−b b−a
2 , 2
⟨(1, 1)⟩
⟨(1, −1)⟩
Ejemplo 7.0.9. Consideremos el cuerpo K = Z23 . La parte numérica del DNI se puede
interpretar como vector en K8 . Como cada cifra del DNI está solamente entre 0 y 9, el
conjunto de todos los DNI NO es un subespacio de K8 .
Por otro lado, las letras del DNI posibles son
0 1 2 3 4 5 6 7 8 9 10 11
T R W A G M Y F P D X B
12 13 14 15 16 17 18 19 20 21 22
N J Z S Q V H L C K E
Hay una aplicación lineal de K8 en Let que hace corresponder a cada DNI su le-
tra. El DNI 00000001 se corresponde con la tupla (0, 0, 0, 0, 0, 0, 0, 1). El 12345678 con
(1, 2, 3, 4, 5, 6, 7, 8) etc. Pero hay tuplas que no se corresponden con ningún DNI como
(13, 8, 20, 18, 2, 3, 11, 8).
61
7 Aplicaciones lineales
(a1 , a2 , a3 , a4 , a5 , a6 , a7 , a8 ) 7→
7→ a1 Z + a2 Y + a3 L + a4 H + a5 B + a6 P + a7 X + a8 R
Esta forma de calcular el DNI como aplicación lineal es correcta, pero no suele exponerse
de esta forma. Busque cómo se presenta el cálculo de letra del DNI y compárelo con lo
anterior.
Definición 7.0.10. Si f : V → W es lineal. El Núcleo de f , escrito como ker(f ) es el
conjunto de vectores de V que van a parar al cero de W
ker(f ) = {v ∈ V | f (v) = 0W }
Si v1 , v2 ∈ ker(f ) y a, b ∈ K, entonces
f (av1 + bv2 ) = af (v1 ) + bf (v2 ) = a0W + b0W
Por tanto ker(f ) es un subespacio de V .
Ejemplo 7.0.11.
g: R3 → R2
x ! !
1 −1 0 x−y
(x, y, z) 7→ · y =
0 1 −1 y−z
z
62
Definición 7.0.14. f : V → W lineal
Una aplicación lineal es inyectiva si ker(f ) = {0V }. En este caso, si f (v) = f (w) entonces
v = w.
Una aplicación lineal es sobreyectiva si Im(f ) = W . En este caso, todo elemento de W
proviene de algún elemento de V .
Una aplicación es biyectiva si es a la vez inyectiva y sobreyectiva.
Teorema 7.0.15. Si f : V → W es lineal:
dim(V ) = dim(ker(f )) + dim(Im(f ))
Además
• Si f es inyectiva dim(V ) ≤ dim(W ).
• Si f es sobreyectiva dim(V ) ≥ dim(W ).
• Si f es biyectiva dim(V ) = dim(W ).
• Si f es biyectiva f −1 existe y es lineal.
Sea f : V → W una aplicación lineal y sean B = [v1 , . . . , vn ], B ′ = [w1 , . . . , wm ] bases
de V y W . Tenemos entonces que
f (vi ) = a1i w1 + . . . + ami wi , 1 ≤ i ≤ n
Si u ∈ V , u = b1 v1 + . . . + bn vn , sus coordenadas en B son
u = (b1 , . . . , bn )B
f (u) = b1 f (v1 ) + . . . + bn f (vn ) ¿Cómo son las coordenadas de la imagen en B ′ ?
a11 a12 . . . a1n b1
a a22 . . . a2n .
· ..
21
f (u)B ′ =
...
am1 am2 . . . amn bn
V = ⟨v1 , . . . , vn ⟩ W = ⟨w1 , . . . , wm ⟩
a11 a12 . . . a1n b1
a a22 . . . a2n .
· ..
21
f (u)B ′ =
...
am1 am2 . . . amn bn B
La columna p de la matriz son las coordenadas de f (vp ) en la base B ′ .
63
7 Aplicaciones lineales
Ejemplo 7.0.17.
ϕ : R[x]<4 → R[x]<3
f 7→ f (3) + f ′ (0) + f ′′
Tomamos las bases canónicas ⟨1, x, x2 , x3 ⟩, ⟨1, x, x2 ⟩
uA f (u)C
f
VA WC
M
MBA MCD
f
VB WD
N
uB f (u)D
N · uB = MCD · M · MBA · uB
64
Teorema 7.0.19. Sea f : V → W una aplicación lineal n = dim(V ), m = dim(W ),
r = dim(Im(f )). Entonces existen bases A = [v1 , . . . , vn ] de V y B = [w1 , . . . , wm ] de W
tales que: !
Ir 0
MAB (f ) =
0 0
Es la matriz m × n que tiene r 1 en la diagonal y el resto de elementos son cero.
Demostración. Veamos que condiciones deben cumplir las bases para que la matriz
coordenada tenga esta estructura. Como las columnas de la matriz codifican las imágenes
de la base A, se tiene que:
f (vi ) = 0W si r < i
Las codiciones que deben verificar A y B son:
1. dim(ker(f )) = n − r, los últimos n − r vectores de A deben ser una base del núcleo.
De esta manera, A y B no son únicas. Siempre podemos encontrar una base de A con
los últimos n − r vectores base del núcleo con el método de amplicar la base.
Si A = [v1 , . . . , vr , vr+1 , . . . , vn ] es esa base, sus imágenes son
[f (v1 ), . . . , f (vr ), 0W , . . . , 0W ]
Como este conjunto genera Im(f ) y dim(Im(f )) = r, tenemos que f (v1 ), . . . , f (vr ) son
independientes en W y, por tanto podemos completar a una base.
Ejemplo 7.0.20. Sea f : R4 → R3 que, en bases canónicas, tiene por matriz coordenada:
1 0 1 2
MBc Bc (f ) = −1 −3 2 −2
1 2 −1 2
Esta matriz tiene rango 2, por lo que dim(Im(f )) = 2 y, por tanto, dim(ker(f )) = 4 − 2.
Buscamos bases T y S para que:
1 0 0 0
MT S = 0 1 0 0
0 0 0 0
Si T = [v1 , v2 , v3 , v4 ] y S = [w1 , w2 , w3 ] son bases que nos dan la matriz buscada, debe
cumplirse que:
65
7 Aplicaciones lineales
MT S = ∗ ∗ 0 0
∗ ∗ 0 0
Ahora, para que la primera columna sea (1, 0, 0) debe ser f (v1 ) = (1, 0, 0)S = w1 , por
lo que w1 = f (v1 ) = (1, 2, −1). DE la misma manera f (v2 ) = (0, 1, 0)S = w2 , por lo que
w2 = f (v2 ) = (2, −2, 2). Finalmente añadimos un vector w3 para obtener una base de R3 .
Por ejemplo w3 = (1, 0, 0).
S = [(1, 2, −1), (2, −2, 2), (1, 0, 0)]
De manera matricial
MT S (f ) = MBc S (Id)MBc Bc (f )MT Bc (Id)
0 0 1 0
−1
1 0 0 0 1 2 1 1 0 1 2
0 0 1 2
0 1 0 0 = 2 −2 0 −1 −3 2 −2
1 0 1 2
0 0 0 0 −1 2 0 1 2 −1 2
0 1 −1 −1
Teorema 7.0.21. Sea M una matriz n × m de rango r, entonces M es equivalente a la
matriz !
Ir 0
0 0
Teorema 7.0.22. Dos matrices son equivalentes si y solo si tienen el mismo tamaño y
el mismo rango.
Demostración. Sean M, N dos matrices de tamaño m × n y rango r. Interpretándolas
como funciones lineales. Hay matrices de cambio de base tales que:
!
Ir 0
QM P = = SN T
0 0
despejando:
(S −1 Q)M (P T −1 ) = N
66
7.1 Problemas
7.1. Problemas
Ejercicio 7.1.1. Dadas las siguientes matrices, calcule el espacio de salida, el espacio de
llegada, una base del núcleo, otra de la imagen y verifique que se cumplen la fórmula de
las dimensiones.
Sobre R:
1 1 2 3
!
0 0 0
, 1 2 3 , 2 , 4 5 6
0 0 0
3 7 8 9
3 −3 0
1 −1 −2
!
6 −3 −3 1 0 −1
0 1 −1 , ,
1 0 −1 2 2 −2
1 −1 −10
−2 1 1
Sobre Z2 :
0 1 0 0
0 1 0 0 0
0 0 0 1
, 1 1 , 0 1 0
0 0 0 1
1 0 0 0 0
0 1 0 1
Ejercicio 7.1.2. Se da la matriz de una aplicación lineal f entre dos espacios vectoriales
sobre R, V y W en las bases canónicas. También se da una base B1 de V y una base B2
de W . Se pide calcular la matriz de la aplicación f respecto de las bases B1 y B2 .
!
1 1
1. M = ,
0 1
B1 = [(2, 0), (1, −1)], B2 = [(1, 1), (1, −3)].
2 −47 −102
2. M = 29 −32 55 ,
3 −18 −29
B1 = [(−23, −12, 5), (68, 35, −15), (−4, −2, −1)],
B2 = [(4, −4, 1), (7, 9, 3), (−16, 3, −5)]
3. M = 1 0 0 1 ,
B1 = [(1, 0, 1, 0), (0, 1, 0, 1), (1, 0, −1, 0), (0, 0, 0, 1)], B2 = [1/3].
!
1 0
4. M = ,
0 −1
B1 = [(1, 0), (0, 1)], B2 = [(2, 3), (3, 5)].
Ejercicio 7.1.3. De un ejemplo de aplicaciones lineales f, g : R3 → R3 tal que ker(f ) ⊆
Im(f ) y Im(g) ⊆ ker(g). ¿Podemos tener una aplicación lineal h : R3 → R3 con
ker(h) = Im(h)? ¿y si consideramos h : R4 → R4 ?
Ejercicio 7.1.4. ¿Es posible encontrar matrices A ∈ M3×2 (R) y B ∈ M2×3 (R) tal que
AB tenga rango 3?
67
7 Aplicaciones lineales
0
−28 −7 −14
1 2 0
−18 2 88 −1
−1 −2 0
0 8 −3 0
2 4 0
−1 −4 −1 −6
Ejercicio 7.1.7. Sea V un espacio vectorial de dimensión 3, u, v, w una base de V y
f : V → V tal que:
f (v) = u + w f (u) = u ker(f ) = ⟨v + w⟩
Calcule Im(f ), ker(f 2 ), ker(f 3 ).
Ejercicio 7.1.8. Sea f : R3 → R2 una aplicación lineal. Consideramos BV = {e1 , e2 } la
base canónica de R2 y BW = {e1 , e2 , e3 } la base canónica de R3 ¿Cuáles de las siguientes
afirmaciones son ciertas?
1. La matriz coordenada de f con respecto a BW y BV , MBW ,BV (f ), tiene tres filas y
dos columnas.
2. La matriz coordenada de f con respecto a BW y BV , MBW ,BV (f ), tiene dos filas y
tres columnas.
3. Las columnas de la matriz MBW ,BV (f ) son un sistema generador de Im(f ).
4. dim(ker(f )) ̸= 0.
Ejercicio 7.1.9. Determine si las siguientes afirmaciones son verdaderas o falsas:
1. Si V = ⟨v1 , v2 , v3 ⟩ y f (v1 ) = f (v3 ), entonces dim(Im(f )) ≤ 2.
2. Si v1 ∈ ker(f ) y v2 ∈
/ ker(f ), entonces v1 + v2 ∈ ker(f ).
3. Si f : R3 → R2 es sobreyectiva, entonces dim(ker(f )) = 2.
4. Si f : R3 → R4 , cumple que ker(f ) es un plano, entonces la imagen de f es una
recta.
5. Si A = [(1, 1), (1, 0)] y B = [(2, 1), (−1, 2)] son bases. Entonces
(1, 0)A = (1, 1)B .
6. Si A = [(1, 1), (1, 0)] y B = [(2, 1), (−1, 2)] son bases. Entonces
(1, 0)B = (1, 1)A .
68
8 Teorı́a del Endomorfismo
Comenzamos con un ejemplo de la quı́mica:
2SO2 + O2 ⇌ 2SO3
Si dejamos el sistema evolucionar, ¿Qué ocurrirá con él? En cada unidad de tiempo
(expresado en mols):
Es decir
x(t + 1) 0,84 0,0 0,4
x(t)
y(t + 1) = −0,08 1 0,2 · y(t)
z(t + 1) 0,16 0,0 0,6 z(t)
En n unidades de tiempo
n
x(t + n) 0,84 0,0 0,4
x(t)
y(t + n) = −0,08 1 0,2 · y(t)
z(t + n) 0,16 0,0 0,6 z(t)
69
8 Teorı́a del Endomorfismo
(P −1 AP )n = (P −1 AP )(P −1 AP ) · · · (P −1 AP )(P −1 AP ) =
0 1 0
0 0 0
An = P (P −1 AP )n P −1 tiende a
70
Por otro lado, como 0.44 está en la diagonal, hay un vector tal que
x x
A · y = 0,44 y
z z
Estos vectores forman el espacio ⟨(2, 1, −2)⟩ que no tiene interpretación fı́sica evidente.
Sin embargo, sugiere que puede tener que ver con las constantes del ajuste de la reacción.
2SO2 + 1O2 ⇌ 2SO3
Desde el punto de vista del álgebra lineal, estamos trabajando en transformaciones de
un espacio en si mismo.
f :V →V
Ejemplo 8.0.2. Trabajemos en R2 , el giro de π/6 viene dado por la matriz
√
3
2 − 12
G=
√
1 3
2 2
La simetrı́a de eje de simetrı́a ⟨(1, 0)⟩ y dirección de simetrı́a ⟨(1, 1)⟩ viene dado por la
matriz !
1 −2
S=
0 −1
Ambas matrices son de rango 2, luego son congruentes. Existe matrices P y Q de
cambio de base tales que:
S = P GQ
Sin embargo esto no es satisfactorio en este caso, pues solo estamos trabajando con las
dimensiones del núcleo e imagen de ambas aplicaciones. Una respuesta más fina para
distinguirlos es buscar puntos de equilibrio. Por ejemplo, si buscamos vectores (x, y) que
verifiquen: √
3 1
− ! !
2 2
x x
√
=
y y
1 3
2 2
solo tenemos la solución trivial (0, 0) puesto que un vector no nulo, si lo giramos π/6
radianes siempre obtenemos otro vector.
Sin embargo para la simetrı́a:
! ! !
1 −2 x x
=
0 −1 y y
Tiene por solución precisamente el eje de simetrı́a ⟨(1, 1)⟩. Una simetrı́a tiene autovectores
asociados al autovalor 1 (el eje de simetrı́a). Pero un giro de π/6 no tiene ninguno.
La clave en este caso es que, como tanto el espacio de salida como el de llegada es el
mismo, para dar un significado más profundo a la aplicación lineal, debemos trabajar
con la misma base en ambos espacios.
71
8 Teorı́a del Endomorfismo
f (v) = αv
Teorema 8.0.4. Los valores propios de f son los valores α tales que la función lineal
f − αIdV tiene núcleo distinto de cero.
Tiene solución (x, y) ̸= (0, 0). Es decir si hay un vector propio asociado a t. Las raı́ces de
x2 − 2x − 3 son 3 y −1. Por tanto la función f tiene vectores propios asociados a 3 y −1
72
y no tiene más vectores propios. Para el valor propio 3, (x, y) es vector propio asociado a
3 si se cumple: ! ! !
1 2 x 3x
=
2 1 y 3y
Es decir, si ! ! !
1−3 2 x 0
=
2 1−3 y 0
Es decir, (x, y) ∈ ker(f − 3Id) = ⟨(1, 1)⟩. Los vectores propios asociados a 3 son todos
los vectores de la recta ⟨(1, 1)⟩ (excepto el (0, 0)). Para el valor propio −1, calculamos el
núcleo de: ! !
1 − (−1) 2 2 2
=
2 1 − (−1) 2 2
que es la recta ⟨(1, −1)⟩.
! ! ! !
1 2 1 3 1
= =3
2 1 1 3 1
! ! ! !
1 2 1 −1 1
= = (−1)
2 1 −1 1 −1
|xP −1 P − P −1 N P | = |P −1 (xId − N )P |
El polinomio caracterı́stico, y los valores propios, son los mismos en ambas bases.
73
8 Teorı́a del Endomorfismo
Ejemplo 8.0.10. En el Ejemplo 8.0.7, la función f , en bases canónicas, tiene por matriz
!
1 2
A=
2 1
El polinomio caracterı́stico de MT T es
x − 3 −2
= (x − 3)(x + 1) − 0 = x2 − 2x − 3
−0 x − (−1)
• (−1)n a0 es el determinante de M .
74
Demostración. Basta observar que en la base A = [v1 , . . . , vn ] que la matriz MAA (f )
tengamos en la columna i-ésima el vector (0, . . . , 0, αi) , 0, . . . , 0) significa que f (vi ) = αvi
es decir que vi sea vector propio asociado al valor propio αi .
!
1 2
Ejemplo 8.0.14. Siguiendo con el Ejemplo 8.0.7. A = MBc Bc (f ) = . Sus valores
2 1
propios son 3 y −1 y tenemos la base de vectores propios ⟨(1, 1), (1, −1)⟩. Por ser vectores
propios:
f (1, 1) = 3(1, 1) = (3, 3)
f (1, −1) = −1(1, −1) = (−1, 1)
En la base S = [(1, 1), (1, −1)], la matriz coodenada de f es:
1 1 ! ! !
2 2
1 2 1 1 3 0
=
2 1 1 −1 0 −1
1 −1
2 2
Gπ/4 : R2 → R2 .
Gπ/4 : C2 → C2 .
Ahora el polinomio caracterı́stico tiene por valores propios i, −i, con vectores propios:
! ! ! !
0 −1 i −1 i
= =i
1 0 1 i 1
! ! ! !
0 −1 −i −1 −i
= = −i
1 0 1 −i 1
Tenemos la base de C2 formada por vectores propios [(i, 1), (−i, 1)]. En esta base la
matriz del giro es diagonal. !
i 0
0 −i
Por lo que esta matriz no es diagonal en R2 pero si en C2 .
75
8 Teorı́a del Endomorfismo
!
0 1
Ejemplo 8.0.16. Sea K cualquier cuerpo y A = . El polinomio caracterı́stico
0 0
de A es x2 , luego su único valor propio es α = 0. Pero al buscar los vectores propios
asociados a cero solamente obtenemos ker(A) = ⟨(1, 0)⟩. No existe ninguna base de K2
formada por vectores propios. Por tanto A no es diagonalizable.
Al buscar una base de vectores propios, podrı́a ocurrir que al mezclar vectores propios
asociados a valores propios distintos, estos fueran dependientes. Veamos que no es el caso.
Siempre van a ser, automáticamente independientes.
Entonces
B = [v11 , . . . , v1s1 , v21 , . . . , v2s2 , . . . , vr,sr ]
es una familia independiente.
a11 v11 + . . . + a1s1 v1s1 + a21 v21 + . . . + aksk vksk + ak+1,1 vk+1,1 + . . . ak+1,s vk+1,s = 0
Agrupamos los vectores según el espacio propio en el que se encuentran luego tendremos:
u1 + u2 + . . . + uk + uk+1 = 0
donde:
• cada ui ∈ Vi .
• no puede ser uk+1 = 0, pues si lo fuera tendrı́amos que B1 ∪. . .∪Bk serı́a dependiente
al contrario que la hipótesis de inducción. No pueden ser u1 = u2 = . . . = uk = 0
pues entonces Bk+1 no serı́a base.
Entonces:
u1 + u2 + . . . + uk = −uk+1
Multiplicamos por la matriz M , por estar ui ∈ Vi , se cumple que M ui = αi ui . Ası́
76
restando:
(α1 − αk+1 )u1 + (α2 − αk+1 )u2 + . . . (αk − αk+1 )uk = 0
como alguno de estos vectores es distinto de cero, debe ser αi − αk+1 = 0 para algún
1 ≤ i ≤ k. Esto contradice las hipótesis. Por tanto, si los valores propios son distintos. B
debe ser independiente. Por inducción, esto es cierto para cualquier número de valores
propios distintos.
• 1 ≤ dim(Vα1 ) ≤ ti
Ejemplo 8.0.20.
!
1 −2
• es diagonalizable como endomorfismo de C2 , pero no sobre R2 .
1 1
!
1 1
• no es diagonalizable.
0 1
• 2 con multiplicidad 1
77
8 Teorı́a del Endomorfismo
• 1 con multiplicidad 2
• −3 con multiplicidad 2
Calculemos los espacios propios asociados: Para el espacio propio V2 , tenemos que x = 2
es un valor propio simple, por lo que dim(V2 ) = 1.
2 18 −144 −108
−39
−156 −197 1298 −4740 −2334
V2 = ker(A − 2I5 ) = ker −205 −205 1411 −5254 −2627 =
−108 −88 625 −2367 −1201
121 81 −594 2290 1180
1
24/7
⟨ 9/2 ⟩
17/7
−39/14
que es una recta como suponı́amos.
Para el valor propio x = 1 es una raı́z doble, por lo que 1 ≤ dim(V1 ) ≤ 2.
333 0
0 333
V1 = ker(A − I5 ) = ⟨ 333 , 333 ⟩
322 137
−491 −121
2
−2
V−3 = ker(A − (−3)I5 ) = ⟨ 0 ⟩
1
−2
24 9 17 39
[(333, 0, 333, 322, −491) , (0, 333, 333, 137, −121) , 1, , , ,− ,
7 2 7 14
1
1, −1, 0, , −1 , (1, 0, 0, 0, 0)]
2
78
8.1 El polinomio mı́nimo
Por el Teorem 8.0.18 los cuatro primeros vectores son automáticamente independientes,
pues los hemos obtenido concatenando bases de V1 , V2 y V−3 . Para el último escogemos
un vector (de la base canónica) independiente de los anteriores.
La matriz de cambio de base es:
333 0 1 1 1
0 333 24
7 −1 0
P = 333 333 9
0 0
2
322 137 17
2 0
1
7
−491 −121 − 14 −1 0
39
y
1 0 0 0 172
333
0 1 0 0 568
333
−1
P AP = 0 0 2 0 −210
0 0 0 −3 4
0 0 0 0 −3
que no es diagonal en la quinta columna porque el quinto vector de la base escogida
no es vector propio.
Veamos algunos ejemplos de aplicaciones vectoriales en Rn y cómo clasificarlas según
sus valores propios
Ejemplo 8.0.22. Giros en R2 : Un!giro de α grados tiene por matriz coordenada en
cos(α) − sin(α)
bases canónicas: . No es un endormorfismo diagonalizable sobre R
sin(α) cos(α)
(salvo los casos triviales α = π, 2π). Su polinomio caracterı́stico es:
c(x) = x2 − 2 cos(α)x + 1
Sus valores propios complejos son cos(α) ± i sin(α). Su determinante es 1 y su inversa
(giro de −α grados) viene dado por la matriz transpuesta.
Ejemplo 8.0.23. Proyecciones: Una proyección es un endomorfismo diagonalizable f
que cumple que f 2 = f . Son los endomorfismos diagonalizables con únicos autovalores 0
y 1. V0 es el espacio de proyección y V1 la dirección de proyección.
Ejemplo 8.0.24. Simetrı́as: Una simetrı́a es un endomorfismo diagonalizable f que
cumple que f 2 = Id. Son endomorfismos diagonalizables con únicos autovalores 1 y −1.
V1 es el eje de simetrı́a y V−1 la dirección de proyección.
79
8 Teorı́a del Endomorfismo
80
8.2 Problemas
• x2 (x − 1)(x − 2)(x + 4)
Teorema 8.1.7. Si dos matrices son semejantes, entonces tienen el mismo polinomio
mı́nimo (el recı́proco no es cierto en general).
Una matriz cuadrada es diagonalizable si y solo si todas las raı́ces de su polinomio
mı́nimo son simples.
8.2. Problemas
Ejercicio 8.2.1. Sea f un endormorfismo. Sean u un vector propio asociado a α y
v un vector propio asociado a β con α ̸= β. Demuestre que u y v son linealmente
independientes.
Ejercicio 8.2.3. Calcule los autovalores y autovectores de las siguiente matrices ¿Cuales
son diagonalizables?
! ! ! !
−26 49 −15 24 2 1 −1 1
, , ,
−16 30 −8 13 −4 −2 1 1
1 −4 −2 1 −1 0 0 1 −1
2 −5 4 , 2 −2 0 , 5 −4 4
2 −4 6 1 −1 0 6 −6 6
Calcule una forma diagonal y una base en la que sea diagonal.
81
8 Teorı́a del Endomorfismo
8.3. PageRank
Vamos a ver una base teórica del algoritmo que usa(?) Google para ordenar los
resultados y decidir qué páginas web son más importantes que otras respecto a una
búsqueda. Lo que hace Google en realidad es mucho más complicado y está modificado
por más factores que los simples enlaces. http://en.wikipedia.org/wiki/PageRank El
método que se presenta estudia un proceso estocástico similar al ejemplo de las hormigas
en el cubo visto en clase.
Un usuario (hormiga) está navegando por internet (cubo) ¿en qué páginas es más
probable que acabe?
El método se fundamenta en la idea de que una página web A es relevante si hay
muchas otras páginas relevantes que la enlazan. Si tenemos una serie de páginas web
x1 , . . . , xn cada una con importancia (peso) pi , queremos que:
pj = λ(pi1 + . . . + pik )
Naturalmente λ > 0.
Construyamos una matriz M , llamada matriz de adyacencia. El elemento mij en la
fila i columna j de la matriz M es un uno si la página xj tiene un enlace a la página xi .
En otro caso mij es cero. Es decir:
82
8.3 PageRank
Donde
donde xa1 , . . . , xaj son las páginas que enlazan a la página xi , pero esto es:
Ası́
p1 p1
p p
M · 2 = λ 2
. . . . . .
pn pn
Ejemplo 8.3.1. Supongamos que tenemos una red con ocho páginas web que están
enlazadas como se representa en el siguiente diagrama
5 6
1 8 2 3 4
Ası́, por ejemplo, la página 2 enlaza a las páginas 3 y 7 es enlazada desde las páginas
5, 8 y 3. La matriz de adyacencia es en este caso.
83
8 Teorı́a del Endomorfismo
0 0 0 0 0 0 1 0
0 0 1 0 1 0 0 1
0 1 0 1 0 0 0 0
0 0 1 0 0 0 0 0
M =
1 0 0 0 0 1 0 0
0 0 0 0 1 0 0 0
0 1 0 0 0 0 0 0
1 0 0 0 0 0 0 0
Camino aleatorio
Vamos a reinterpretar una modificación de la matriz como un camino aleatorio. Una
araña web (webbot, bot, etc.) es un programa que analiza páginas web en una red.
Vamos a suponer una vez que la araña ha analizado una página x, irá a una página y
tomada al azar entre las páginas enlazadas desde la página x. Por simplicidad, vamos
a suponer que todas las páginas tienen la misma probabilidad. Si una página web es
un camino sin salida, la araña no se mueve. Dejamos a la araña analizar la red durante
mucho tiempo.
Después de un tiempo prudencial, analizamos los datos que ha recogido la araña. Para
cada página x, podemos tratar de predecir cual es la probabilidad pi de que la araña esté
en la página x. En términos de matrices, podemos construir una matriz de transición
que controla el movimiento de la araña, esta es la matriz de incidencia M anterior,
dividiendo cada columna por una constante de manera que cada columna sume uno. El
hecho de que en cada columna todo elemento sea igual significa que a cada paso la araña
se mueve dando la misma probabilidad a cada enlace. Ahora, el término mij representa
la probabilidad de que la araña se mueva desde la página j hasta la i.
0 0 0 0 0 0 1 0
0 0 2 0 2 0 0 1
1 1
0 1
0 1 0 0 0 0
2
0 0 2 0 0 0 0 0
1
M = 1
0 0 0 0 1 0 0
2
0 0 0 0 2 0 0 0
1
0 1
0 0 0 0 0 0
2
1
2 0 0 0 0 0 0 0
La matriz M tiene la propiedad de que todos sus elementos son no negativos y la suma
de cada columna es uno. Estas matrices se llaman matrices estocásticas.
Se tiene los siguientes resultado.
Teorema 8.3.2 (Teorema de Frobenius). Sea M una matriz con entradas positivas,
Mij > 0. Es decir, una matriz con todos sus términos positivos. Supongamos además que
todas las columnas suman 1. Entonces:
• λ = 1 es autovalor simple de M .
84
8.3 PageRank
El problema es que las matrices de transición pueden tener términos nulos. En este
caso:
• λ = 1 es un autovalor de M .
• Existe un autovector (no único) asociado al valor propio 1 que cumple que ninguna
de sus coordenadas es negativa y tal que además sus coordenadas suman 1.
85
8 Teorı́a del Endomorfismo
0 0 0 0 0 0 1 0
0 0 2 0 2 0 0 1
1 1
0 1
0 1 0 0 0 0
2
0 0 2 0 0 0 0 0
1
M = 1
0 0 0 0 1 0 0
2
0 0 0 0 2 0 0 0
1
0 1
0 0 0 0 0 0
2
1
2 0 0 0 0 0 0 0
En este caso tenemos 8 nodos, por lo que multiplicamos M por 0,9 y le sumamos 0,1/8
a cada término de la matriz:
M1 = 0,9M + (0,1/8) =
0,0125 0,0125 0,0125 0,0125 0,0125 0,0125 0,913 0,0125
0,0125 0,0125 0,462 0,0125 0,462 0,0125 0,0125 0,913
0,0125 0,462 0,0125 0,913 0,0125 0,0125 0,0125 0,0125
0,0125 0,0125 0,462 0,0125 0,0125 0,0125 0,0125 0,0125
0,462 0,0125 0,0125 0,0125 0,0125 0,913 0,0125 0,0125
0,0125 0,0125 0,0125 0,0125 0,462 0,0125 0,0125 0,0125
0,0125 0,462 0,0125 0,0125 0,0125 0,0125 0,0125 0,0125
0,462 0,0125 0,0125 0,0125 0,0125 0,0125 0,0125 0,0125
En el caso de la matriz de transición sin salto aleatorio, si un bot estaba en el nodo 4,
solo podı́a moverse al nodo 3. En la matriz con salto aleatorio, si un bot está en el nodo
4, en el siguiente paso tendrá una probabilidad de moverse al nodo 3 de 91.3 %, y tiene
una probabilidad de 1.25 % de moverse a cualquier otro nodo (incluido el propio nodo 4).
Por el Teorema de Frobenius, el único autovector asociado a 1 de M1 , con todos los
términos positivos y cuyos coeficientes sumen uno codifica la probabilidad de que un bot
con salto aleatorio termine en una determinada página.
El resultado es distinto, en el caso de la matriz M sus autovalores son aproximadamente:
86
8.3 PageRank
8.3.1. Ejercicios
Para el siguiente ejercicio vamos a usar el siguiente resultado:
Teorema 8.3.4. Una matriz A y su traspuesta son semejantes. Existe P regular con
At = P −1 AP . En particular A y At tienen el mismo polinomio caracterı́stico y los mismos
autovalores.
87
8 Teorı́a del Endomorfismo
Ejercicio 8.3.6. Calcule la matriz de transición con salto aleatorio T1 de la red anterior.
Ejercicio 8.3.7. Calculen los autovalores de T1 . ¿Cuántos son reales? ¿Cuántos son
complejos? ¿Cuál es el autovalor de módulo más grande? 1
Ejercicio 8.3.10. En realidad, no todos los enlaces son igualmente importantes en una
página web. No es lo mismo un enlace escrito con letra grande, en negrita, resaltado en
mitad de la página que un enlace minúsculo a pie de página. ¿Hay alguna manera de
reflejar este hecho en la matriz de transición? ¿Cómo podemos introducir el hecho de que
un enlace sea más importante que otro?
a+x=b a·x=b
9+x=7 7·x=9
x+a=0
tiene solución en N sólo cuando a = 0. Los números enteros se forman al añadir a los
números naturales (que llamaremos números enteros positivos) aquellos que surgen como
las soluciones de estas ecuaciones (que llamaremos números enteros negativos): −1 es la
solución de la ecuación x + 1 = 0; −2 es la solución de la ecuación x + 2 = 0; −3 es la
1
√
el módulo de un número real es su valor absoluto, el módulo de un número complejo a + bi es a2 + b2 .
88
8.4 Números enteros
solución de la ecuación x + 3 = 0; etc. Ası́ pues, nuestro nuevo conjunto puede describirse
como
Z = {. . . . . . , −3, −2, −1, 0, 1, 2, 3, . . . . . .} = {. . . , −3, −2, −1} ∪ N
y cuyos elementos también se ordenan de menor a mayor, extendiendo el orden que se
tiene en N:
. . . . . . . . < −3 < −2 < −1 < 0 < 1 < 2 < 3 < . . . . . . . .
En Z encontramos las mismas operaciones que en N, con la diferencia de que ahora la
resta siempre está definida. Si ahora se plantea en Z la ecuación
9 + x = 7,
9 + x = 7 → (−9) + (9 + x) = (−9) + 7 →
→ ((−9) + 9) + x = (−9) + 7 →
→ 0 + x = (−9) + 7 →
→ x = (−9) + 7 = −2
La ultima igualdad de la expresión anterior queda justificada por las reglas que rigen la
operación suma de números enteros. Esa misma igualdad da idea de que la resta de dos
números enteros se reduce, entonces, a la suma de dos números enteros:
a − b = a + (−b)
Se entiende que es innecesario asimismo recordar las reglas que definen el producto de
enteros, pero encontramos relevante analizar el porqué de la igualdad
(−1)2 = 1
0 = ((−1) + 1)2 =
= ((−1) + 1)((−1) + 1) =
= (−1)2 + 2 · 1 · (−1) + 12 =
= (−1)2 + (−1).
Tanto del orden como de las operaciones volveremos a hablar un poco más adelante.
1. Asociativa: ∀a, b, c ∈ Z, (a + b) + c = a + (b + c)
89
8 Teorı́a del Endomorfismo
4. Conmutativa: ∀a, b ∈ Z, a + b = b + a
Por esto, se dice que (Z, +) es grupo conmutativo Una consecuencia de la estructura de
(Z, +) es precisamente que:
pues para encontrar dicha solución basta sumar a la derecha de cada miembro de la
ecuación −a.
Respecto del producto:
1. Asociativa: ∀a, b, c ∈ Z, (a · b) · c = a · (b · c)
3. Conmutativa: ∀a, b ∈ Z, a · b = b · a
∀a, b, c ∈ Z, ·(b + c) = a · b + a · c
8.4.3. El orden ≤ en Z
La construcción del conjunto Z permite identificar una parte de él con el conjunto de
los números naturales. Como ya se ha dicho más arriba, dicha parte recibe el nombre de
subconjunto de los números enteros positivos, denotado a veces por Z+ ; el resto el de los
negativos, Z− A partir de esa identificación, se define en Z la relación:
a ≤ b ↔ ∃c ∈ Z+ : a + c = b,
1. Reflexiva: a ≤ a
2. Antisimétrica: a ≤ b ∧ b ≤ a → a = b
3. Transitiva: a ≤ b ∧ b ≤ c → a ≤ c
90
8.4 Números enteros
Esas tres propiedades definen a ≤ como una relación de orden en Z. Pero además se
verifica una cuarta propiedad que convierte a la relación ≤ en orden total:
∀a, b ∈ Z, a ≤ b ∨ b ≤ a
Si a, b ∈ Z y a ≤ b, entonces se verifica
∀c ∈ Z, a + c ≤ b + c
∀c ∈ Z+ , a · c ≤ b · c
Conocida la respuesta anterior, indica la opción correcta de las siguientes (ver sección
relativa a N para recordar el significado de buen orden):
8.4.4. Divisibilidad de Z
Recordamos los resultados básicos de la divisibilidad en Z.
La relación a|b en Z − {0} es casi una relación de orden, la única propiedad que falla
es la simétrica. Si a|b y b|a entonces a = ±b. Si nos restringimos a los enteros positivos
Z>0 = N>0 , entonces si es una relación de orden. En general si a es un divisor de b,
también −a es un divisor de b, por lo que vamos a asumir que, cuando hablemos de un
divisor sin especificar más, nos referiremos siempre a un divisor positivo.
91
8 Teorı́a del Endomorfismo
92
8.4 Números enteros
93
8 Teorı́a del Endomorfismo
−13 = 17(−1) + 4
Observación 8.4.10. La exigencia de que el resto sea mayor o igual a cero es usual en
matemáticas, pero no tiene por que ser la única alternativa, una exposición de alternativas
se puede encontrar en https://en.wikipedia.org/wiki/Modulo_operation (página
consultada en noviembre de 2021).
Vamos a ver cómo la división con resto nos permite calcular el máximo común divisor
de dos enteros sin necesidad de calcular una factorización.
Este lema nos permite dar un procedimiento para calcular el máximo común divisor
de a y b conocido como Algoritmo de Euclides.
Algoritmo de Euclides
Input: a, b ∈ Z.
Output: gcd(a, b) ≥ 0.
si a = 0 entonces:
devolver |b|
fin de si
si b = 0 entonces:
devolver |a|
fin de si
mientras b ̸= 0 hacer:
Calcular q, r cociente y resto de dividir a entre b.
a←b
b←r
fin de mientras
devolver a
94
8.4 Números enteros
183 = 120 · 1 + 63
120 = 63 · 1 + 57
63 = 57 · 1 + 6
57 = 6 · 9 + 3
6=3·2+0
gcd(13623, −1332) = 3.
13623 = 3 · 19 · 239
1332 = 22 · 32 · 37
95
8 Teorı́a del Endomorfismo
Observación 8.4.14. Si solo queremos calcular el máximo común divisor de dos números,
tenemos que gcd(a, b) = gcd(−a, b) = gcd(a, b) = gcd(−a, −b) ¿Puedes probar esto? Por
lo que podrı́amos prescindir de los signos y calcular, en el ejemplo anterior
gcd(13623, 1332) = 3.
Ası́,
96
8.4 Números enteros
Input: a, b ∈ N>0 .
Output: d, u, v, donde d = gcd(a, b) ≥ 0 y d = a · u + b · v.
si a = 0 entonces:
devolver b, 0, 1
fin de si
si b = 0 entonces:
devolver a, 1, 0
fin de si
F1 ← r0 = a · (1) + b · (0)
F2 ← r1 = a · (0) + b · (1)
i←1
mientras ri ̸= 0 hacer:
Calcular qi+1 , ri+1 cociente y resto de dividir ri−1 entre ri .
Fi+1 ← Fi−1 − qi+1 Fi
Ejemplo 8.4.18. Vamos a calcular el máximo común divisor y los coeficientes de Bezout
de 1054 y 85. Primeramente:
1054 = 1054·(1) + 85·(0)
85 = 1054·(0) + 85·(1)
Ahora 1054 = 12 · 85 + 34. Si a la primera ecuación le restamos 12 veces la segunda
obtenemos:
1054 = 1054·(1) + 85·(0)
85 = 1054·(0) + 85·(1)
34 = 1054·(1) + 85·(-12)
La siguiente división es 85 = 34 · 2 + 17. A la fila del 85 le resto dos veces la fila del 34:
1054 = 1054·(1) + 85·(0)
85 = 1054·(0) + 85·(1)
34 = 1054·(1) + 85·(-12)
17 = 1054·(-2) + 85·(25)
97
8 Teorı́a del Endomorfismo
Aunque no sea parte del temario, adelantar que este mismo algoritmo se puede emplear
para calcular el máximo común divisor de dos polinomios en una variable con coeficientes
en un cuerpo.
Ejemplo 8.4.19. Usemos el mismo algoritmo para calcular el máximo común divisor de
dos polinomios: Sean f (x) = x4 +x3 +5x2 +2x+6, g(x) = x4 +2x3 +4x2 +3x. Escribimos:
f = f · (1) + g · (0)
g = f · (0) + g · (1)
Si dividimos f = gq2 + r2 , con q2 = 1, r2 = −x3 + x2 − x + 6. Si a la primera fila le
restamos la segunda (multiplicada por 1), tenemos:
g = f · (0) + g · (1)
r2 = f · (1) + g · (−1)
La siguiente división g entre r2 tenemos que g = r2 q3 + r3 con q3 = −x − 3,
r3 = 6x2 + 6x + 18. Si a la fila de g le restamos la fila de r2 multiplicada por (−x − 3)
tenemos:
g = f · (0) + g · (1)
r2 = f · (1) + g · (−1)
r3 = f · (x + 3) + g · (−x − 2)
En este caso el resto de dividir r2 entre r3 es cero, luego el máximo común divisor es r3
y los coeficientes de Bezout son x + 3 y −x − 2. Si queremos el máximo común divisor
mónico dividimos toda la expresión por 6.
1 1 1 1
x2 + x + 3 = x+ ·f + − x− ·g
6 2 6 3
98