Documentos de Académico
Documentos de Profesional
Documentos de Cultura
79
Capı́tulo 5
donde los números a11 , a12 , · · · , amn son dados y se llaman coeficientes. Los números b1 , · · · , bm tam-
bién son dados y se llaman términos independientes y x1 , · · · , xn son desconocidos y se llaman
incógnitas.
Definición 5.1.3 Se llama solución del (SEL) a un punto de (α1 , α2 , · · · , αn ) ∈ Rn tal que al
substituir las incógnitas x1 , · · · , xn por α1 , α2 , · · · , αn las igualdades se cumplen.
Ejemplo 5.1.4 Ası́, (1,-2,3) es una solución del SEL del ejemplo anterior. También decimos que
x = 1, y = −2, z = 3 es solución.
81
82
Definición 5.1.5 Diremos que dos SEL son equivalentes si tienen las mismas soluciones.
1. Intercambiar ecuaciones.
3. Substituir una ecuación por la que resulta de sumarle otra de las ecuaciones multiplicada por
un número.
Nota 5.1.6 En general, produce un sistema equivalente sustituir una ecuación por una combinación
lineal de ecuaciones donde el coeficiente de la que cambiamos no es nulo.
Vamos a usar metódicamente las tres operaciones elementales para ir obteniendo sistemas de
ecuaciones lineales equivalentes cada vez más sencillos de resolver.
Antes de describir el método notemos que una ecuación del tipo 0 = b donde b es un número
no nulo hace un sistema incompatible y que eliminar una ecuación del tipo 0 = 0 da un sistema
equivalente.
2. La segunda ecuación a21 x1 + a22 x2 + · · · + a2n xn = b2 se substituye por la diferencia entre ella
misma multiplicada por a11 y la primera multiplicada por a21 quedando a!22 x2 +· · ·+a!2n xn = b!2 .
C.- Final. Repetimos el proceso anterior hasta obtener un sistema del tipo
a11 x1 + a12 x2 + · · · + a1m! xm! + · · · + a1n xn = b1
! ! !
a22 x2 + · · · + a2m! xm! + · · · + a2n xn = b!2
.......................
a!!! !!! !!!
m! m! xm! + · · · + am! n xn = bm!
su única solución es
x = 1, y = −2, z = 3.
Su solución general es
λ 5
x1 = , x2 = 1 − λ, x3 = λ, x4 = µ.
3 3
85
5.2. Matrices
En las operaciones realizadas para resolver un sistema lo único que alteramos son los coeficientes.
Podı́amos organizar los coeficientes tal y como aparecen en las ecuaciones y realizar las operaciones
con ellos. Veamos el esquema genérico.
Definición 5.2.1 Llamamos matriz de orden m × n a una tabla rectangular de números (o fun-
ciones) organizada en m lı́neas horizontales (que llamamos filas) y n lı́neas verticales (que llamamos
columnas). En general, se denota como
a11 a12 · · · a1n
a21 a22 · · · a2n
A= .. .. ..
. . ··· .
am1 am2 · · · amn
Ejemplo 5.2.2 Veamos una matriz 3 × 2 y una 2 × 3
, - 3 2
1 2 3
and 1 4
4 5 6
5 6
86
Definición 5.2.6 Llamamos matriz nula a aquella en que todos sus elementos son 0. La diagonal
principal de una matriz está formada por los elementos de la forma aii .
Una matriz es triangular superior (resp. inferior ) si todos los elementos de la misma que están
por debajo (resp. por encima) de la diagonal principal son nulos. Por ejemplo, la matriz
1 2 3 0
0 4 5 −1
0 0 0 −3
es triangular superior.
Definición 5.2.7 Una matriz cuadrada es la que tiene el mismo número de filas que de columnas.
Es diagonal si sus únicos elementos no nulos son los de la diagonal principal.
La matriz identidad a una matriz cuadrada diagonal en que todos los elementos de la diagonal
principal son 1. Se suele denotar por I,
1 0 0
I= 0 1 0
0 0 1
87
• Si A es una matriz de orden m × n, la matriz kA tiene orden m × n y sus elementos son los de
A multiplicados por k. Ası́
, - , -
−2 1 3 4 −2 −6
(−2) =
−1 4 2 2 −8 −4
Definición 5.2.9 La matriz traspuesta At de una matriz A se obtiene de A cambiando filas por
columnas. Ası́
, - 1 4
1 2 3
A= At = 2 5
4 5 6
3 6
Una matriz es simétrica si es igual a su traspuesta. O sea, aij = aji , para todo i, j. Por tanto, ha
de ser cuadrada. Ası́
1 2 3
A = 2 −1 4
3 4 2
es simétrica
88
El método de Gauss para resolver un SEL se puede realizar sobre la matriz ampliada. En ella,
las operaciones elementales 1, 2 y 3 del Ejemplo 5.1.7 entre ecuaciones producen operaciones en filas
y el intercambio de incógnitas se traduce en un intercambio de columnas.
Ejemplo 5.2.11 Discute el sistema
x1 − 3x2 + 9x3 = −10
2x2 − 4x3 = 8
11x2 − 22x3 = 44
usando el método de Gauss sobre la matriz ampliada.
Lo reducimos
1 −3 9 −10 1 −3 9 −10 1 −3 9 −10
0 2 −4 8 ≡ 0 1 −2 4 ≡ 0 1 −2 4 .
0 11 −22 44 0 1 −2 4 0 0 0 0
El sistema es compatible e indeterminado.
Si la última ecuación fuera 11x2 − 22x3 = 33 en vez de 11x2 − 22x3 = 44, el sistema saldrı́a
incompatible.
89
Definición 5.2.12 Llamaremos rango de una matriz al máximo número de filas (o columnas) lineal-
mente independientes. Se denota por rg A.
Es muy importante que el rango de una matriz es invariante por operaciones elementales. Por
tanto, el rango de las matrices de un SEL son los mismos que el del SEL equivalente con matrices
asociadas triangulares.
Por otra parte dado un SEL cuya matriz ampliada es triangular, el que sea compatible o no,
determinado o no, se puede fácilmente en términos del rango y el número de incógnitas.
Por tanto:
Ejemplo 5.3.2 0 0
0 4 −8 0
0 0
0 0 = 4 · 5 − (−8) · 3 = 44
0 3 5 0
signo + signo −
Definición 5.3.5 Si A es una matriz de orden m × n, llamamos menores de orden k a los deter-
minantes de las submatrices cuadradas de orden k obtenidas de A eliminando m − k filas y n − k
columnas.
3, 0, 9.
Con este lenguaje, podemos ver que el determinante de matrices de orden 2 × 2 o 3 × 3 es igual
a la suma de los productos de los elementos de una fila o columna por su adjunto.
92
Definición 5.3.10 Definimos el determinante de una matriz cuadrada A como la suma de los pro-
ductos de los elementos de cualquier fila o columna de A por los adjuntos correspondientes.
3.- El determinante de una matriz que tiene dos filas (o bien dos columnas) iguales es 0. Ası́
0 0
0 2 4 4 0
0 0
0 0
0 −1 0 0 0= 0
0 0
0 3 −2 −2 0
4.- Si A! es una matriz donde hemos multiplicado todos los elementos de una fila (o bien de una
columna) de una matriz A por un mismo número k, entonces resulta que |A! | = k |A|. Ası́
0 0 0 0
0 5 9 −2 0 0 1 9 −2 0
0 0 0 0
0 0 0 0
0 −5 1 7 0 = 5 0 −1 1 7 0
0 0 0 0
0 10 3 4 0 0 2 3 4 0
5.- El determinante permanece invariante si a una fila (o columna) le sumamos otra multiplicada
por un mismo número k. Ası́
0 0 0 0
0 5 9 −2 0 0 0 10 5 0
0 0 0 0
0 0 0 0
0 −5 1 7 0 = 0 −5 1 7 0
0 0 0 0
0 6 3 4 0 0 6 3 4 0
6.- El determinante es 0 si y sólo si una fila es combinación lineal de las otras. Lo mismo es cierto
para columnas. Ası́
0 0
0 7 2 −5 0
0 0
0 0
0 3 8 −3 0 = 0
0 0
0 −2 3 1 0
7.- El determinante del producto de dos matrices cuadradas es el producto de los dos determi-
nantes correspondientes. Ası́
0, -, -0 0 0
0 0 −2 1 −4 00 0 −4 −6 0
0 0 0
0 0 = 66 = 0 0
0 3 1 2 3 0 0 5 −9 0
Esta forma de calcular el rango podemos usarla para discutir un SEL con Rouché-Frobenius.
Ejemplo 5.3.13 Discute el siguiente sistema de ecuaciones lineales según los valores de λ.
x1 + x2 − 2x3 = 5
2x1 − x2 + λx3 = −1
3x1 − x3 = 4
A · A−1 = A−1 · A = I
Ejemplo 5.4.2 Sólo las matrices cuadradas con determinante no nulo tienen inversa. Por ejemplo
no tiene inversa la matriz , -
1 2
2 4
Propiedad 5.4.3 Una matriz cuadrada A tiene inversa si y sólo si su |A| #= 0, y en este caso
1
A−1 = (At )d
|A|
AX = B
donde A es cuadrada de rango máximo. Para resolver el SEL llamemos Ax1 la matriz obtenida a
partir de A sustituyendo la primera columna por B, Ax2 la obtenida al sustituir la segunda columna,
y ası́ hasta Axn . Entonces la solución del SEL es
Ax1 Ax2 Axn
x1 = x2 = ··· xn =
|A| |A| |A|
Ejemplo 5.4.6 Resuelve usando la regla de Cramer el sistema siguiente
x1 + 3x2 − 2x3 = 2
4x1 + x2 + x3 = 7 .
3x1 + 5x2 − 3x3 = 5
Su solución es
0 0 0 0 0 0
0 2 3 −2 0 0 1 2 −2 0 0 1 3 2 0
1 00 0
0 2 1 00 0
0 1 00 0
0 7
x1 = 0 7 1 1 0= x2 = 0 4 7 1 0= 2 x3 = 0 4 1 7 0=
30 0 3 30 0 30 0 3
0 5 5 −3 0 0 3 5 −3 0 0 3 5 5 0
CF M = I.
Luego M −1 = CF .
Una forma sencilla de obtener M −1 es ir realizando en la matriz identidad las mismas operaciones
que reducen la matriz M . Veamos un ejemplo:
#v = (v1 , v2 )
97
98
w
#
#v + w
#
O
#v
Luego v + w es el vector que se construye a partir de v y w siguiendo la regla del paralelogramo.
Y, ahora, el producto por un escalar (un número real)
Gráficamente:
λ#v
O #v
Luego λv es un vector que tiene la misma dirección que v, el mismo sentido si λ > 0, sentido
opuesto si λ < 0, y la “longitud” de λv es |λ| veces la de v.
Dado un vector v, se llama vector opuesto a −v = (−1)v.
Propiedad 6.1.3 Las operaciones suma y producto cumplen las propiedades habituales.
Ejemplo 6.1.5 Por ejemplo, el vector (2, 2, 1) es combinación lineal de los vectores (1, 1, 0) y (0, 0, 1),
porque se puede escribir (2, 2, 1) = 2(1, 1, 0) + (0, 0, 1).
En este caso, los coeficientes de la combinación lineal son 2 y 1.
Por tanto, ver si un vector es combinación lineal de otros (o no) es, simplemente, ver si un sistema
es compatible (o no). Por Rouché-Frobenius, esto equivale a ver que los rangos de la matriz del SEL
y la matriz ampliada coinciden.
99
Estas matrices se pueden construir directamente de los vectores. Ası́, dado un conjunto de vec-
tores {v1 , . . . , vr }. Si v1 = (v11 , . . . , vn1 ), . . . , vr = (v1r , . . . , vnr ), su matriz asociada (o matriz de
coordenadas) se obtiene poniendo las coordenadas de los vectores en columnas. Se representa
. /
v1 v2 · · · vr
Por tanto,
v11 v12 ··· v1r
. / v v22 ··· v2r
21
v1 v2 · · · vr =
· · · ··· ··· · · ·
vn1 vn2 ··· vnr
Entonces,
Definición 6.1.7 Se dice que los vectores v1 , . . . , vr son linealmente independientes (l.i.) si la única
combinación lineal que da 0 es aquella en la que todos los coeficientes son cero.
λ1 v1 + · · · + λr vr = 0 implica λ1 = · · · = λr = 0. (6.1)
Ejemplo 6.1.8 Ası́, por ejemplo, para ver si los vectores (1, 1, 1, 0), (0, 1, 0, 1) y (1, 0, 1, 0) son l.i.,
tomamos una combinación lineal de ellos igualada a 0:
λ + ν = 0; λ + µ = 0; λ + ν = 0; µ = 0,
Se dice que los vectores v1 , . . . , vr son linealmente dependientes si no se verifica la propiedad (6.1),
es decir, si existen λ1 , . . . , λr , no todos nulos, tales que λ1 v1 + · · · + λr vr = 0.
Propiedad 6.1.9 Esta claro que v1 , . . . , vr son linealmente dependientes si y sólo si uno de los
vectores vi es combinación lineal de los demás.
Ejemplo 6.1.10 Si consideramos los vectores (1, 1, 1, 0), (0, 1, 0, 1) y (1, 0, 1, −1), y tomamos una
combinación lineal de ellos igualada a 0:
λ + ν = 0; λ + µ = 0; λ + ν = 0; µ − ν = 0,
cuyas soluciones son todos los λ, µ, ν que verifiquen λ = −ν = −µ. Basta tomar µ = 1 para tener
la igualdad (6.2) con coeficientes no nulos.
Este concepto también se puede estudiar usando la matriz de las coordenadas del conjunto de
vectores {v1 , . . . , vr }. Si v1 = (v11 , . . . , vn1 ), . . . , vr = (v1r , . . . , vnr ). Ası́
. /
Propiedad 6.1.11 Los vectores v1 , v2 , . . . , vr son l. i. si y solo si la matriz v1 v2 · · · vr tiene
rango r (el máximo rango posible). Por tanto, para que sean l.i. ha de ser r ≤ n.
Ejemplo 6.2.2 Por ejemplo, el subespacio vectorial V , generado por los vectores (1, −1, 0) y (0, 1, 1)
está formado por todas las combinaciones lineales λ(1, −1, 0) + µ(0, 1, 1), donde λ y µ varı́an en el
conjunto de todos los números reales, es decir:
V = {(λ, −λ + µ, µ) | λ, µ ∈ R}.
Esta expresión de V se llama paramétrica ya que las coordenadas de los elementos de V también
pueden escribirse:
101
x= λ
y = −λ + µ
z= µ
Como hemos visto en c.l.,
Propiedad 6.2.3 Un vector v está en V si y sólo si
! " ! "
rg v1 v2 · · · vr = rg v v1 v2 · · · vr
Ejemplo 6.2.4 Por ejemplo, comprueba que (5, −2, 3) ∈ V y que (2, 3, 4) ∈
/ V donde V está gener-
ado por (1, −1, 0) y (0, 1, 1).
La propiedad más importante de las bases es que cada vector se expresa como una UNICA c.l.
Esto pasa ya que el SEL correspondiente es compatible y determinado.
Definición 6.2.8 Si u1 , . . . , uk es una base cualquiera de un k-plano vectorial V y v ∈ V , se llaman
componentes de v respecto de la base {u1 , . . . , uk } a los números reales λ1 , . . . , λk tales que
v = λ 1 u 1 + · · · + λ k uk .
Propiedad 6.2.9 Las componentes son únicas para cada vector una vez fijada la base.
102
x= 2λ
y = −4λ
z= λ
que es claramente un subespacio vectorial generado por (2, −4, 1).
De hecho, las dos formas son equivalentes, dado un subespacio vectorial V en forma paramétrica,
se puede hallar una presentación de V en forma implı́cita (como solución de un SEL homogéneo).
Veamoslo en un ejemplo.
Ejemplo 6.2.11 Consideremos V el subespacio vectorial de R3 del Ejemplo 6.2.2. En forma paramétri-
ca se expresaba
x= λ
y = −λ + µ
z= µ
Para expresarlo en forma implı́cita, despejamos primero los parámetros λ y µ en función de las
coordenadas (x, y, z). Nos da
λ = x y µ = z.
Para hacerlo hemos usado la 1a ecuación y la 3a . Ahora, sustituimos los parámetros en las que
quedan (en este caso sólo la 2a ),
y = −x − z ≡ x + y + z = 0.
Ejemplo 6.2.14 1.- El ejemplo inmediato de base es el conjunto de vectores e1 = (1, 0, . . . , 0, 0),
e2 = (0, 1, . . . , 0, 0), . . . , en = (0, 0, . . . , 0, 1), que forman una base de Rn que se llama base canónica.
2.- Como ejemplo menos obvio, comprueba que {(1, 1, 0), (1, −1, 0), (1, 0, 1)} es base de R3 .
Ejemplo 6.2.16 1. En el caso de la base canónica, las coordenadas están claras. Todo v = (v1 , . . . , vn )
se puede escribir como v = v1 e1 + · · · + vn en .
2. Halla las coordenadas de (2, 3, 4) respecto la base (1, 1, 0), (1, −1, 0), (1, 0, 1).
MX! = X
Si, como es habitual, conocemos las coordenadas X y queremos conocer las componentes X ! ,
obtenemos
X ! = M −1 X.
Ejemplo Halla las coordenadas de (2, 3, 3) respecto la base (1, 1, 0), (1, −1, 0), (1, 0, 1) de esta
manera.
104
f : Rn −→ Rm , f (x1 , . . . , xn ) = (y1 , . . . , ym ).
es lineal (una a.l.) si las coordenadas de la imagen vienen dadas por funciones lineales homogéneas.
O sea,
Nota 6.3.2 Una a.l. se puede conocer sabiendo las imágenes de los vectores de la base canónica
e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1), ya que
Definición 6.3.3 La matriz asociada a la a.l. f de (6.3) es la matriz F de tipo m × n formada por
los coeficientes
a11 a12 . . . a1n
a21 a22 . . . a2n
F = .. .. .. ..
(6.4)
. . . .
am1 am2 . . . amn
f : R3 −→ R3 ,
La matriz asociada a una a.l. facilita los cálculos. Ası́, podemos obtener la imagen de un vector.
Propiedad 6.3.5 Sea f una a.l. y F su matriz asociada. Dado (x1 , . . . , xn ) ∈ Rn , su imagen
f (x1 , . . . , xn ) = (y1 , . . . , ym ) cumple
y1 a11 a12 ... a1n x1
y2 a a22 ... a2n x2
. = .21 ..
. . .. .. . , (6.5)
. . . . . ..
ym am1 am2 . . . amn xn
Ejemplo 6.3.6 Calcula usando la matriz asociada f (1, 0, −1) siendo f la a.l. de los ejemplos ante-
riores.
El uso de matrices no sólo facilita el cálculo de las imágenes sino que las operaciones entre a.l.
se corresponden perfectamente con las mismas operaciones entre matrices, ası́ la suma y el producto
por un escalar:
Ejemplo 6.3.10 La matriz asociada a la a.l. f : R3 −→ R3 que lleva los vectores e1 , e2 , e2 en los
vectores (1, 0, 0), (1, 2, 1), (2, 0, 1) es:
1 1 2
F = 0 2 0 .
0 1 1
106
Definición 6.3.11 En primer lugar, el espacio imagen de f , que se representa f (Rn ), es el subespacio
vectorial de Rm generado por las imágenes de la base canónica de Rn :
Definición 6.3.14 El segundo subespacio asociado a una a.l. f está formado por los vectores v de
Rn que cumplen f (v) = 0. Este subespacio vectorial de Rn se llama núcleo de f y se representa por
Ker f o f −1 (0).
Sus soluciones son los vectores de la forma (−λ, λ, λ), de donde se deduce que su dimensión es 1 y
(−1, 1, 1) es una base.
Ası́, el núcleo es el conjunto de soluciones del SEL homogéneo f (v) = 0. El sistema es compatible
ya que siempre existe la solución trivial.
107
Nota 6.3.18 Todo subespacio vectorial V de Rn puede representarse en forma implı́cita como solu-
ción de un SEL homogéneo. Igualmente, puede verse como el núcleo de una a.l. f .
Y = FX
Todo esto sucede usando las coordenadas habituales que son las componentes respecto a las bases
canónicas de Rn y Rm
¿Que pasa con otras bases?
Consideremos B = {v1 , v2 , · · · , vn } base de Rn y B ! base de Rm . Poniendo las coordenadas de
f (vi ) respecto a B ! , obtenemos la matriz de f en las bases B y B ! . Cumple
Y ! = F !X !.
donde X ! es la matriz de coordenadas de un vector en Rn respecto a la base B e Y ! es la matriz
de coordenadas de su imagen en Rm respecto a la base B ! .
¿Que relación hay entre F y F ! ?
Si M es la matriz de cambio de la base B y N la matriz de cambio de la base B ! , tenemos
X = MX! y Y ! = N −1 Y
F ! X ! = Y ! = N −1 Y = N −1 F X = N −1 F M X !
Por lo que
F ! = N −1 F M.
108
Definición 6.4.1 Dada una a.l. f : Rn −→ Rn , decimos que un vector v ∈ Rn es un vector propio
(autovector) si hay un número real λ tal que
f (v) = λv.
Decimos que λ es el valor propio (autovalor) asociado a v. Asimismo, v es un vector propio asociado
a λ.
Una vez hallados los valores propios, para cada uno tenemos vectores propios asociados.
La expresión de la a.l. se puede simplificar si hay una base de vectores propios ya que en esta
base tiene expresión diagonal con los valores propios en la diagonal principal.
Definición 6.4.5 Decimos que una a.l. f : Rn −→ Rn , es diagonalizable si admite una base de
vectores propios.
Sobre la Geometrı́a de Rn
P + V = {P + v; v ∈ V },
109
110
Ejemplo 7.1.3 Usando los ejemplos de subespacio vectorial de la Sección 6.2, podemos dar los
siguientes ejemplos de subespacio afı́n (y dibujarlos). Ası́, si P = (1, 1, 1), son subespacios afines (de
dimensiones respectivas 2, 2 y 1) los siguientes: (1, 1, 1) + {(y, y, z); y, z ∈ R}, (1, 1, 1) + {0} × R2 ,
(1, 1, 1) + R × {(0, 0)}
Vamos a ver como en e caso vectorialla expresió paramétrica y la implı́cita de un subespacio afı́n.
Primero la paramétrica:
Sea ahora {v1 , . . . , vk } una familia de vectores que generan V , entonces v es una c.l. de esta familia
y existen λ1 , . . . , λk ∈ R cumpliendo
X = P + λ1 v 1 + · · · + λk v k ; .
o, usando coordenadas,
Ejemplo 7.1.4 Por ejemplo, si r es la recta de R3 que pasa por (1, 2, 1) en la dirección del subespacio
vectorial generado por (1, 1, 0), su ecuación es
o, equivalentemente,
x = 1 + t; y = 2 + t; z = 1
Veamos la forma implı́cita. Primero observemos que para que un punto X = (x1 , x2 , · · · , xn )
esté en P + V , basta ver que X − P ∈ V . Ası́, si el subespacio vectorial V viene dado en implı́itas
(como solución de un SEL homogéneo), el subespacio afı́n P + V está formado por los puntos X tales
que X − P verifica el SEL. Desarrollando, obtenemos que X ha de cumplir un SEL (normalmente
no homogéneo) que se llaman ecuaciones implı́citas de P + V .
Ejemplo 7.1.5 1.- Por ejemplo, sea Π = P +V el plano afı́n de R3 donde P = (1, 2, 1) y V está dado
por la ecuación x + y = 0, los puntos X de P + V están dados por
(x − 1) + (y − 2) = 0.
Desarrollando,
x + y = 3.
2.- Realiza el mismo trabajo con P = (1, 2, 1, −1) y W del Ejemplo 2.2.15.
111
x = 1 + t; y = 2 + t; z = 1
f : Rn −→ Rm
es aquella en la que la imagen de un punto f (x1 , . . . , xn ) = (y1 , . . . , ym ) viene dada por funciones
lineales (no homogéneas):
Ası́ una aplicación afı́n puede verse como la suma de dos partes:
1.- los términos lineales que dan una a.l. Lf asociada a f .
2.- una traslación mediante los términos independientes asociada a f . El vector traslación es una
matriz columna.
Ası́, las aplicaciones afines se puede describir en forma matricial usando dos matrices: la matriz
F de tipo m × n formada por los coeficientes de los términos de grado 1, y la matriz B de tipo m × 1
formada por los términos independientes.
Entonces, si escribimos el vector x = (x1 , . . . , xn ) en forma de matriz columna X y el f (x)
también como matriz columna Y , se cumple
Y = F X + B.
Ejemplo 7.1.11 En nuestro ejemplo, la imagen del vector (1, 0, −1) se puede calcular:
1 0 0 1 1 2
2 1 0 0 + 2 = 4
−1 3 0 −1 −1 −2
Para acabar, veamos que hacer cuando la a.l. asociada la damos mediante las imagen de una base:
113
Como antes, para calcular la imagen del punto (1, 3, −1), hacemos
1 1 2 1 −1 1
0 2 0 3 + −2 = 4 .
0 1 1 −1 1 3
f −1 (E) = {v ∈ Rn | f (v) ∈ E
es un subespacio afı́n de Rn .
1.- Comprueba que f (R3 ) es un 2-plano afı́n que pasa por (1, 2, −1). Expresalo en paramétricas
y en implı́citas.
2.- Halla la expresión en paramétricas e implı́citas de los subespacios afines f −1 (0, 0, 0) y f −1 (0, 1, 0).
114
Obsérvese que el producto escalar de dos vectores es un escalar (es decir, un número real). Además:
i) u · (v + w) = u · v + u · w
iii) u · v = v · u.
iv) u · u ≥ 0, y u · u = 0 si y solo si u = 0.
Definición 7.2.4 El ángulo entre vectores !(u, v) se puede definir como aquel cuyo coseno es
u·v
cos θ = , θ = !(u, v).
|u| |v|
Dos vectores se dice que son ortogonales si su producto escalar es 0, lo que equivale a que forman
un ángulo de 90o ó π/2 radianes.
Se puede ver que dos vectores tienen la misma dirección si el coseno del ángulo que forman es ±1
(1 si es el mismo sentido, −1 si el sentido es contrario).
115
Definición 7.2.5 Una base {u1 , . . . , uk } de un subespacio vectorial V se dice que es ortogonal (b.o.g.)
si los vectores que la componen son ortogonales dos a dos, es decir, si
ui · uj = 0 si i #= j.
La base es ortonormal (b.o.n.) si, además, los vectores que la componen son unitarios, es decir, si
ui · uj = δij ,
Como ejemplo
La gran importancia de una b.o.g. es que dado un vector v sus coordenadas respecto a una b.o.g.
se pueden hallar sencillamente:
Ejemplo 7.2.9 Sea V el subespacio de R3 generado por los vectores (1, 1, 1) y (1, −1, −1). Proce-
diendo como acabamos de indicar:
1.- e1 = (1, 1, 1), 1 2
(1, −1, −1) · (1, 1, 1) 4 2 2
2.- e2 = (1, −1, −1) − (1, 1, 1) = ,− ,− .
(1, 1, 1) · (1, 1, 1) 3 3 3
Ejemplo 7.2.13 Calcular πV (1, 2, 3) cuando V es el subespacio generado por el vector (1, 1, 1) es
fácil. Como (1, 1, 1) es una b.o.g. de V ,
(1, 2, 3) · (1, 1, 1)
πV (1, 2, 3) = (1, 1, 1) = (2, 2, 2).
(1, 1, 1) · (1, 1, 1)
Además, πV⊥ (1, 2, 3) = (1, 2, 3) − (2, 2, 2) = (−1, 0, 1) que es ortogonal a (1, 1, 1).
En dimensión 2 el proceso es más laborioso ya que empieza por obtener una b.o.g.:
Ejemplo 7.2.14 Calcular πV (1, 2, 3) cuando V es el subespacio generado por los vectores (1, 1, 1) y
(1, −1, −1) es más largo. Primero necesitamos una b.o.g y hemos visto que
1 2
4 2 2
e1 = (1, 1, 1) y e2 = ,− ,−
3 3 3
lo es. Para facilitar podemos coger un múltiplo de e2 , en particular (2, −1, −1).
Además, 1 2 1 2
5 5 1 1
πV⊥ (1, 2, 3) = (1, 2, 3) − 1, , = 0, − ,
2 2 2 2
que es ortogonal a (1, 1, 1) y a (1, −1, −1).
Es fácil obtener una serie de propiedades del producto vectorial asociadas a propiedades del
determinante:
ii) u × v = −v × u,
iii) u × (v + w) = u × v + u × w,
iv) u × (λ v) = λ u × v
Ejemplo 7.2.18 Si en vez de tener los vectores, tenemos los vértices, tomamos un vértice fijo como
origen y hallamos la diferencia. Ası́, por ejemplo, para hallar el área del triángulo de vértices (1, 0, 0),
(0, 1, 0) y (1, 1, 1), tomamos (1, 0, 0) como origen y consideramos u = (0, 1, 0) − (1, 0, 0) = (−1, 1, 0)
y v = (1, 1, 1) − (1, 0, 0) = (0, 1, 1). Aplicando la fórmula anterior, obtenemos primero
3 3
3 e1 e2 e3 3
3 3
3 3
u × v = 3 −1 1 0 3 = (1, 1, −1)
3 3
3 0 1 13
con lo que el área del triángulo es √
1 3
|u × v| =
2 2
Hay otro par de fórmulas geométricas usando una mezcla del producto vectorial y el escalar.
3 3
3 u1 u2 u 3 3
3 3
3 3
(u × v) · w = u · (v × w) = 3 v1 v2 v3 3 .
3 3
3 w1 w 2 w 3 3
Volumen de un paralelepı́pedo generado por tres vectores u, v y w. Parece razonable hallarlo
multiplicando el área del paralelogramo generado por u y v que, según acabamos de ver es |u × v|,
por la altura a del paralelepı́pedo, que, es el módulo de la proyección de w sobre u × v, es decir, la
podemos definir por
Volumen(paralelepı́pedo) = |(u × v) · w|
Volumen del tetraedro. Como el paralelepı́pedo generado por tres vectores se puede dividir
en seis tetraedros iguales al generado por los mismos vectores parece lógico definir el volumen del
tetraedro generado por los vectores u, v y w como
1
Volumen(tetraedro) = |(u × v) · w|.
6
Ejemplo 7.2.19 Como antes, si nos dan los vértices tomamos uno fijo como origen. Ası́, por ejemplo,
el volumen del tetraedro de vértices (1, 0, 0), (0, 1, 0), (1, 1, 1) y (1, 2, 1) se calcula usando los vectores
u = (0, 1, 0) − (1, 0, 0) = (−1, 1, 0), v = (1, 1, 1) − (1, 0, 0) = (0, 1, 1) y w = (1, 2, 1) − (1, 0, 0) =
(0, 2, 1) y aplicando entones la fórmula anterior. Primero obtenemos
3 3
3−1 1 03
3 3
3 3
(u × v) · w = 3 0 1 13 = −1
3 3
3 0 2 13
por lo que el volumen de ese tetraedro es
1 1
|(u × v) · w| = ,
6 6
y el volumen del paralelepı́pedo generado por los mismos puntos es 1.
119
x2 + 1 = 0,
Está claro que, para que las reglas habituales de las raı́ces sigan cumpliéndose, j 2 = −1. Asimismo:
√ 0 √ √ √
−a = a (−1) = a −1 = a j, cuando a > 0.
Queremos que los nuevos números a introducir, los complejos, contengan estos números imagi-
narios (que son las raı́ces de números negativos) y, además, los números reales, por lo tanto deberán
contener la suma de un número real y un número imaginario. Esto sugiere la siguiente definición:
C = {a + b j | a, b ∈ R}.
No es difı́cil probar que estas definiciones conservan las propiedades habituales: asociativa y
conmutativa para + y ·, distributiva de · respecto de +, y existencia del 1 y del 0 y del opuesto. El
inverso merece consideración aparte. Definamos primero el complejo conjugado
z = a − b j.
z · z = |z|2 = a2 + b2 .
Por lo tanto, el inverso de z, es decir, el número por el que hay que multiplicar z para que de 1 es
1 z
z −1 = = 2
z |z|
Lo sorprendente es que los números complejos también proporcionan todas las raı́ces de polinomios
de cualquier grado.
Teorema fundamental del álgebra: Todo polinomio de grado n con coeficientes reales tiene ex-
actamente n raı́ces (quizás repetidas o múltiples) en el conjunto de los números complejos.
Equivalentemente, todo polinomio real descompone en producto de factores lineales y cuadráticos.
Las dos son reales o son un par de complejos conjugados.
Esta representación geométrica sugiere una nueva forma de entender un número complejo medi-
ante el módulo y el argumento. En efecto, puesto que el número complejo z viene representado por un
vector z, ahora podemos fijarnos en que ese vector está completamente determinado por su longitud
y por el ángulo que forma con el semieje positivo X o eje real.
El módulo de ese vector es
√
r = a2 + b2 ,
que coincide con el módulo |z| del número complejo z que definimos antes.
Además, el ángulo θ, que llamamos argumento, es el único θ ∈ [0, 2π[ que verifica
a b
cos θ = √ ; sen θ = √ .
a2 + b2 a2 + b2
Nota 7.3.5 Si no restringimos θ al intervalo [0, 2π[, se tiene que θ y θ + 2π son argumentos del
mismo número complejo. A partir de ahora no tendremos inconveniente en aceptar que el argumento
de un número complejo varı́a en R y que, por tanto, un mismo número complejo tiene distintos
argumentos, pero todos ellos difieren en un múltiplo de 2π, y solo uno de ellos está en el intervalo
[0, 2π[.
Ya hemos visto como pasar de la forma binomial a la polar. Al revés, si z = rθ es la forma polar,
la binomial es z = r(cos θ + sen θ j).
122
La representación de un número complejo en forma polar es útil para muchos cálculos, ya que:
- El módulo del producto de dos números complejos es el producto de los módulos.
- el argumento del producto de dos números complejos es la suma de los argumentos (podemos
tener que reducir la suma para que este en [0, 2π[).
Raı́ces de números complejos.
Para hallar todas las raı́ces de ı́ndice n de u número complejo z, consideramos que han de cumplir
n
x = z.
Escribiéndolos en forma polar, z = rθ y x = ρϕ , la ecuación se divide en
ρn = r y nϕ = θ.
Hay que tener en cuenta que la última ecuación hay que entenderla módulo un múltiplo entero de
2π.
Ejemplo 7.3.6 Busquemos las raı́ces cúbicas de la unidad. Son los x = ρϕ cumpliendo ρ3 = 1 (o
sea, ρ = 1) y 3ϕ = 2π k.
Salen ϕ =; ϕ = 2π/3; ϕ = 4π/3.
Ası́, todo número complejo tiene n raı́ces n-ésimas. Incluso más es cierto.
Teorema fundamental del álgebra: Todo polinomio de grado n con coeficientes complejos tiene
exactamente n raı́ces (quizás repetidas o múltiples) en el conjunto de los números complejos.