Está en la página 1de 21

Tema 2

Aplicaciones lineales y matrices

2.1 Definición y propiedades .......................................................................................2


2.1.a. Aplicaciones lineales ......................................................................................2
2.1.b. Primeras propiedades ....................................................................................2
2.1.c. Imagen, núcleo y rango ..................................................................................3
2.1.d. Aplicaciones lineales inyectivas......................................................................5
2.1.e. Isomorfismo de coordenadas .........................................................................6
2.1.f. Ejercicios del apartado 2.1 .............................................................................6
2.2 Ecuaciones de una aplicación lineal. Matrices ......................................................7
2.2.a. Ecuaciones y matriz de una aplicación lineal .................................................7
2.2.b. Matrices: definiciones .....................................................................................8
2.2.c. Ejercicios del apartado 2.2 .............................................................................8
2.3 Operaciones con matrices. Matriz inversa.............................................................9
2.3.a. Biyección entre aplicaciones lineales y matrices ............................................9
2.3.b. Espacio vectorial de las matrices ...................................................................9
2.3.c. Trasposición de matrices................................................................................9
2.3.d. Composición de aplicaciones y producto de matrices ....................................9
2.3.e. Matrices invertibles.......................................................................................11
2.3.f. Ejercicios del apartado 2.3 ...........................................................................12
2.4 Cambio de bases. Equivalencia de matrices .......................................................13
2.4.a. Matriz del cambio de coordenadas...............................................................13
2.4.b. Cambio de bases en aplicaciones lineales...................................................13
2.4.c. Matrices equivalentes...................................................................................14
2.4.d. Diagonalización por equivalencia .................................................................14
2.4.e. Ejercicios del apartado 2.4 ...........................................................................15
2.5 Endomorfismos y matrices regulares. Semejanza de matrices ...........................16
2.5.a. Composición de endomorfismos ..................................................................16
2.5.b. Producto de matrices cuadradas ..................................................................16
2.5.c. Automorfismos y matrices invertibles ...........................................................16
2.5.d. Cambio de base en endomorfismos y matrices semejantes ........................17
2.5.e. Ejercicios del apartado 2.5 ...........................................................................18
2.6 Rango de una matriz y cálculo de la inversa .......................................................19
2.6.a. Rango de filas y rango de columnas ............................................................19
2.6.b. Rango de una matriz ....................................................................................19
2.6.c. Rangos de matrices equivalentes y de matrices regulares ..........................19
2.6.d. Operaciones elementales en matrices .........................................................19
2.6.e. Cálculo del rango de una matriz (TEMA DE REPASO) ......................................20
2.6.f. Cálculo de la inversa de una matriz..............................................................21
2.6.g. Ejercicios del apartado 2.6 ...........................................................................21

2-1
2-2 ÁLGEBRA LINEAL

2.1 DEFINICIÓN Y PROPIEDADES


2.1.a. Aplicaciones lineales
Sean V y W dos espacios vectoriales sobre R. Dada una aplicación f:V→W, se dice que
es una aplicación lineal u homomorfismo de V en W si:
∀ u , v ∈V y ∀λ,µ∈R se verifica que f(λ u +µ v ) = λf( u )+µf( v )
V W

u+v
v f f(u)
f(u+v ) =
f ( u )+ f ( v )
u
f(v )
V W

f ( λ u ) = λf ( u )
f
f(u)
u λu

El conjunto de las aplicaciones lineales de V en W se denota por ℒ(V,W).


Si W=V, la aplicación lineal f:V→V se llama endomorfismo.
El conjunto de los endomorfismos en V se denota por ℒ(V).

Ejemplos
• La aplicación f:R3→R2 dada por f(x,y,z) = (2x−y+4z,−3x+5y+6z) es lineal porque:
f(λ(x,y,z)) = λ (2x−y+4z,−3x+5y+6z)
f((x,y,z)+(x’,y’,z’)) = (2x−y+4z,−3x+5y+6z) + (2x’−y’+4z’,−3x’+5y’+6z’)
• La aplicación f:R2→R3 definida como f(x,y) = (x−y, x2+y2, 1) no es lineal
• La aplicación f:R2→R3 definida como f(x,y) = (x−1, y+1, 2xy) no es lineal
• En el espacio vectorial V de las funciones reales continuas en el intervalo [0,1], es
1
lineal la aplicación f:V→R definida como ϕ → f (ϕ) = ∫ ϕ( x ) dx
0

• En todo espacio vectorial son lineales la aplicación nula o:V→W (tal que o( x ) = o, ∀x )
y la aplicación identidad i:V→V (tal que i( x ) = x, ∀x ).

2.1.b. Primeras propiedades


Si f:V→W es una aplicación lineal, se verifica que:
1) f( o ) = o ya que: f( o ) = f(0 u ) = 0f( u ) = o
f(− u ) = −f( u ) ya que: f(− u ) = f(−1 u ) = −1f( u ) = −f( u )
2) Si S={ u i} es un sistema dependiente de V ⇒ f(S)= {f ( ui )} es un sistema dependiente.
Demostración:
Por ser S dependiente: ∃ λi no todos nulos tales que ∑λi u i= o
Por ser f lineal: ∑λif( u i)=f(∑λi u i)=f( o )= o ; entonces ∃ λi no todos nulos tales que
∑λif( u i)= o , y por tanto el sistema f(S)={f( u i)} es linealmente dependiente.
II. APLICACIONES LINEALES Y MATRICES 2-3

Por otro lado, si S es independiente, f(S) puede ser dependiente o independiente.

Ejemplos
Sea f:R3→R2 definida como f(x,y,z)=(x,y)
• S1={(1,1,0),(0,1,1),(1,2,1)} dependiente; f(S1)= {(1,1),(0,1),(1,2)} dependiente
• S2={(1,0,0),(0,1,0)} independiente; f(S2)= {(1,0),(0,1)} independiente
• S3={(1,0,1),(2,0,0)} independiente; f(S3)= {(1,0),(2,0)} dependiente

2.1.c. Imagen, núcleo y rango


1º) Se llama imagen de f al conjunto Im(f)=f(V), que es un subespacio de W.
Demostración:
a) Im(f) ≠ ∅ pues o =f( o )∈f(V)
b) ∀w 1, w 2 ∈ Im( f ) ∃ v 1, v 2 ∈ V / f ( v 1 ) = w 1 y f ( v 2 ) = w 2
∀λ, µ ∈ R : λw 1 + µw 2 = λf ( v 1 ) + µf ( v 2 ) = f (λv 1 + µv 2 ) ∈ Im( f )

2º) Se llama núcleo de f a Nuc(f) = f−1(0) = { x ∈V / f( x )= o }, que es un subespacio de V.


Demostración:
a) Nuc(f) ≠ ∅ pues o ∈Nuc(f), al ser f( o )= o
b) ∀ v 1, v 2 ∈ Nuc ( f ) y ∀λ,µ∈R:
f (λv 1 + µv 2 ) = λf ( v 1 ) + µf ( v 2 ) = λ o + µ o = o , luego (λ v 1 + µv 2 ) ∈ Nuc(f)

3º) Si la imagen es de dimensión finita, se llama rango de f a rang f = dim Im(f)


V W
dim Im(f) = rang f
f
Im(f)
Nuc(f) 0
f

4º) Si S= {u1,K, up } es un sistema generador de V, entonces f(S)= {f ( u1 ),K, f ( up )} es un


sistema generador de Im(f). En consecuencia el rango de f es el rango de {f ( u1 ),K, f ( up )}.

Demostración:
∀w ∈ Im( f ) ∃ v ∈ V / f ( v ) = w ; como S es generador de V, existen ciertos escalares λi tales

que v = ∑ λ i ui . Entonces w = f (∑ λ i ui ) = ∑ λ i f (ui ) , luego f(S) es generador de Im(f).


p

i=1

5º) Si V es de dimensión finita, se verifica que dim Nuc(f) + dim Im(f) = dim V
Demostración:
Como Nuc(f) es un subespacio de V: dim Nuc(f) = p ≤ dim V = n
Sea B= {e1,K, ep } una base de Nuc(f); como es independiente, se puede completar hasta
formar una base de V, que denotaremos por B∪S = {e1,K, ep , u1,K, uq } (siendo p+q=n).
Entonces B∪S es generador de V y por tanto f(B∪S) es generador de Im(f), siendo:
2-4 ÁLGEBRA LINEAL

f(B∪S) = {f ( e1 ),K, f ( ep ), f ( u1 ),K, f ( uq )} = {o,K, o, f ( u1 ),K, f ( uq )}; si prescindimos de los


vectores nulos el sistema sigue engendrando Im(f) y por tanto f(S) es generador de Im(f).
V W
Im(f)=
V(S) f =V(f(S))
0
Nuc(f)=V(B)

Si f(S) es independiente, será base de Im(f); para ello planteamos:


λ 1f ( u1 ) + K + λ q f ( uq ) = o , que por linealidad de f equivale a f (λ 1u1 + K + λ q uq ) = o ;
q q p
esto significa que ∑ λ i ui ∈ Nuc(f ) ⇒ ∑ λ i ui = ∑ µ j e j
i=1 i=1 j=1

Como B∪S es independiente, ha de ser λi=0 ∀i y µj=0 ∀j, luego f(S) es independiente.
En consecuencia f(S) es base de Im(f) y por ello dim Im(f) = q. Por tanto:
dim Nuc(f) + dim Im(f) = p+q = n = dim V.

f
W
V
f Im(f)
Nuc(f) 0

Ejemplos
• V={p(x)=a+bx+cx2+dx3}; W=ℱ(R,R); sea f:V→W definida como f(p(x))=p’(x)
f(a+bx+cx2+dx3) = b+2cx+3dx2
Im(f) = {polinomios de grado ≤ 2}; dim Im(f)=3
Nuc(f) = {polinomios constantes}; dim Nuc(f)=1
dim Nuc(f) + dim Im(f) = dim V = 4

• f:R3→R4 definida como f(x,y,z)=(x+z,y−z,x+y,x−y+2z)


Nuc(f) = {(x,−x,−x)}; dim Nuc(f)=1
Im(f) = V(f(1,0,0),f(0,1,0),f(0,0,1)) = V((1,0,1,1),(0,1,1,−1),(1,−1,0,2)); el último vector es
combinación de los 2 primeros, y por tanto Im(f) = V((1,0,1,1),(0,1,1,−1)) y dim Im(f)=2
dim Nuc(f) + dim Im(f) = dim R3 = 3
Otra forma de hallar Im(f) es mediante las ecuaciones implícitas:
u=α+γ → γ=u−α
v=β−γ → v=β−u+α → β=v+u−α
w=α+β → w=α+v+u−α=v+u
t=α−β+2γ → t=α−v−u+α+2(u−α)=u−v
Entonces Im(f)={(u,v,w,t) ⁄ w=u+v, t=u−v}; dim Im(f)=2
II. APLICACIONES LINEALES Y MATRICES 2-5

En las ecuaciones paramétricas de Im(f) conviene observar que aunque en apariencia


hay 3 parámetros libres (α,β,γ), en realidad las expresiones de (u,v,w,t) sólo dependen
de 2 parámetros efectivos (α+γ y β−γ), por lo que se pueden escribir como:
Im(f)={(λ,µ,λ+µ,λ−µ)}, siendo dim Im(f)=2.

2.1.d. Aplicaciones lineales inyectivas


Por definición, se dice que f:V→W es inyectiva si se cumple que:
∀x 1, x 2 ∈ V tales que x 1 ≠ x 2 ⇒ f ( x 1 ) ≠ f ( x 2 ) , o bien: f ( x 1 ) = f ( x 2 ) ⇒ x 1 = x 2

Si f:V→W es una aplicación lineal se verifica que: f es inyectiva ⇔ Nuc(f)=0


Demostración:
a) Si f es inyectiva: Si f ( x ) = o , como f ( o ) = o , ha de ser x = o , luego Nuc(f)=0.
b) Si Nuc(f)=0: Si f ( x 1 ) = f ( x 2 ) ⇒ f ( x 1 ) − f ( x 2 ) = f ( x 1 − x 2 ) = o ⇒ x 1 − x 2 = o ⇒ x 1 = x 2 ,
luego f es inyectiva.

Ejemplo
f:R3→R4 definida como f(x,y,z)=(x,x+y,y+z,x+y+z)
⎧x = 0 ⎫
⎪x + y = 0 ⎪
⎪ ⎪
Se comprueba que Nuc(f)=0: ⎨ ⎬⇔ x=y=z=0
⎪y + z = 0 ⎪
⎪⎩x + y + z = 0⎪⎭
Se comprueba que la aplicación es inyectiva, ya que si dos vectores tienen la misma
imagen, entonces son idénticos:
x = x’
x+y = x’+y’ → y = y’
y+z = y’+z’ → z = z’
x+y+z = x’+y’+z’ → consecuencia de las anteriores

Aplicaciones lineales inyectivas en dimensión finita


Si f:V→W es lineal y V es de dimensión finita, se cumple además lo siguiente:
f es inyectiva ⇔ dim f(V) = dim V
f es inyectiva ⇔ para una base B de V, f(B) es base de f(V)
(*) Demostraciones omitidas

Isomorfismos en dimensión finita


Los isomorfismos son las aplicaciones lineales biyectivas, es decir, las que son inyectivas
y sobreyectivas a la vez. Dada f∈ℒ(V,W), con V de dimensión finita, se verifica que:
f es un isomorfismo ⇔ dim V = dim f(V) = dim W
(*) Demostración omitida (inmediata aplicando Nuc(f)=0 y f(V)=W)
Nótese que, si V y W tienen la misma dimensión: f es inyectiva ⇔ f es sobreyectiva

Ejemplo
Rn+1 es isomorfo al espacio vectorial V de los polinomios de grado ≤ n. Un isomorfismo
entre ellos es la aplicación:
f(a0+a1x+K+anxn) = (a0,a1,K,an)
2-6 ÁLGEBRA LINEAL

2.1.e. Isomorfismo de coordenadas


Sea B = {e1,K, en } una base de un espacio vectorial V de dimensión finita:
∀x ∈ V ∃(x1,K,xn)∈Rn (coordenadas de x en B) tales que x = ∑ x i ei
La aplicación Coor:V → Rn, Coor( x ) = (x1,K,xn), que hace corresponder a cada vector su
n-upla de coordenadas en la base B, es un isomorfismo. Por tanto, todo espacio vectorial
de dimensión n es isomorfo a Rn.
(*) Demostración omitida

Cálculo del rango de un sistema de vectores


Si dimV=n y B es una base de V, para cada sistema de vectores S = {u1,K, up } ⊂ V sea
{ }
S ∗ = u1∗ ,K, up∗ ⊂ R n el sistema de sus correspondientes coordenadas. Se verifica que
rang S = rang S∗.
(*) Demostración omitida
En la práctica, el rango de un sistema de vectores se puede determinar usando el sistema
de Rn formado por sus coordenadas en una base cualquiera de V.

2.1.f. Ejercicios del apartado 2.1

®2E1 De la aplicación lineal f:R3→R3, f(x,y,z)=(ax,bx+by,z), se pide, en función de a y b:


a) Núcleo y rango de f
b) Una base de la imagen de f
®2E2 Sabiendo que f:R3→R3, f(x,y,z)=(x+y,x+z,y+kz) no es inyectiva, se pide:
a) Hallar k
b) Hallar Nuc(f)
c) Que f no sea inyectiva, ¿no entra en contradicción con el hecho de que el
sistema independiente {(1,0,0),(0,1,0)} se transforme en otro sistema también
independiente?
®2E3 Sea f:R3→R4 una aplicación lineal y sean ciertos vectores x, y, z ∈ R 3 tales que
f ( x ), f ( y ), f ( z ) forman una base de Im(f). Analizar si {x, y, z} es base de R3
2E4 Sea f:V→W una aplicación lineal. Demostrar que f es inyectiva si y sólo si
transforma todo sistema independiente de vectores de V en un sistema
independiente de vectores de W.
2E5 Sea f:V→W una aplicación lineal. Demostrar que la imagen de un subespacio
vectorial de V es un subespacio vectorial de W.
2E6 Sea f:V→W una aplicación lineal. Demostrar que la imagen recíproca de un
subespacio vectorial de W es un subespacio vectorial de V.
Nota: la imagen recíproca es el conjunto f-1(W) = {x ∈ V / f ( x ) ∈ W }
II. APLICACIONES LINEALES Y MATRICES 2-7

2.2 ECUACIONES DE UNA APLICACIÓN LINEAL. MATRICES


2.2.a. Ecuaciones y matriz de una aplicación lineal
Sea B1= {e1,K, en } una base de V; sean (x1,K,xn) las coordenadas de x ∈V en B1
Sea B2= {u1,K, um } una base de W; sean (y1,K,ym) las coordenadas de y ∈W en B2
Sea f:V→W la aplicación lineal tal que:
m
f ( e j ) = a1j u1 + a 2 j u2 + Ka mj um = ∑ a ij ui para j=1,2,…,n.
i=1
Entonces, la imagen de cualquier vector x ∈V está dada por:
⎛ n ⎞ n m ⎛ n ⎞
( )
n m
y = f ( x ) = f ∑ x j e j = ∑ x j f e j =∑ x j ∑ a ij ui =∑ ⎜ ∑ a ij x j ⎟ui
⎜ ⎟
⎜ j=1 ⎟ j=1 ⎜ ⎟
⎝ ⎠ j=1 i=1 i=1 ⎝ j=1 ⎠
Es decir: yi = ai1x1 + ai2x2 + K + ainxn = ∑aijxj para i=1,2,K,m
Estas expresiones constituyen las ecuaciones de f en las bases dadas:
⎧y 1 = a11x 1 + a12 x 2 + K + a1n x n

⎨L L
⎪y = a x + a x + K + a x
⎩ m m1 1 m2 2 mn n
Matricialmente se pueden escribir de la forma:
⎡ y 1 ⎤ ⎡ a11 a12 K a1n ⎤ ⎡ x 1 ⎤
⎢ y ⎥ ⎢a ⎥ ⎢ ⎥
⎢ 2 ⎥ = ⎢ 21 a 22 K a 2n ⎥ ⋅ ⎢ x 2 ⎥ Y=AX
⎢ M ⎥ ⎢ M M O M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ y m ⎦ ⎣a m1 a m2 K a mn ⎦ ⎣ x n ⎦
↑ ↑ ↑ A=Matriz de la aplicación lineal
f ( e1 ) f ( e2 ) f ( en ) en las bases B1 y B2

Ejemplo
f:R4→R3 tal que:
f(1,0,0,0) = (1,–1,2); f(0,1,0,0) = (2,1,1); f(0,0,1,0) = (4,–1,5); f(0,0,0,1) = (–1,–5,4)
⎡ 1 2 4 −1⎤
En las bases canónicas: A = ⎢⎢−1 1 −1 −5⎥⎥
⎢⎣ 2 1 5 4⎥⎦
La imagen es el subespacio de R3 engendrado por las 4 columnas de A. Realizando
operaciones elementales por columnas se obtienen sistemas generadores equivalentes:
⎡ 1 0 0 0⎤ ⎡ 1 0 0 0⎤ ⎡ 1 0 0 0⎤
⎢−1 3 3 −6⎥ → ⎢−1 1 0 0⎥ → ⎢0 1 0 0⎥ dim Im(f)=2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣ 2 −3 −3 6⎥⎦ ⎢⎣ 2 −1 0 0⎥⎦ ⎢⎣ 1 −1 0 0⎥⎦
El núcleo se obtiene resolviendo el sistema de ecuaciones AX=0:
x+2y+4z–t=0 → x=–2y–4z+t → Sustituyendo: x=–2z–3t
–x+y–z–5t=0 → Sustituyendo: 3y+3z–6t=0 → y=–z+2t
2x+y+5z+4t=0 → Sustituyendo: –3y–3z+6t=0 (igual a la anterior)
Por consiguiente: Nuc(f)={(–2α–3β,–α+2β,α,β)}; dim Nuc(f)=2
2-8 ÁLGEBRA LINEAL

2.2.b. Matrices: definiciones


La tabla rectangular A=[aij] formada por m×n números reales, dispuestos en m filas y n
columnas, se llama matriz (de tamaño m×n); aij es el elemento situado en la fila i-ésima y
en la columna j-ésima de la matriz (elemento de lugar ij).
El conjunto de las matrices de tamaño m×n se denota por Mm×n. Si m=n, las matrices se
llaman cuadradas, y se denotan por Mn en lugar de Mn×n.
Otras definiciones de interés son:
• Matriz triangular superior: aij=0 ∀i>j
• Matriz triangular inferior: aij=0 ∀i<j
• Matriz diagonal: aij=0 ∀i≠j
• Matriz fila: m=1
• Matriz columna: n=1
• Diagonal de A: (a11 a22 K ann)
• Traza de A: tr(A) = ∑aii
Una matriz cuadrada se dice simétrica si aij=aji ∀i,j, y antisimétrica si aij=−aji ∀i,j.
Dada A∈Mm×n se llama submatriz definida por los índices de filas i1,i2,K,ip y los índices de
columnas j1,j2,K,jq a la matriz de tamaño p×q cuyo elemento de lugar (h,k) es el elemento
de lugar (ih,jk) de la matriz A. Si los índices son consecutivos, se llama bloque o caja.

2.2.c. Ejercicios del apartado 2.2

®2E7 Si {e1, e2 , e3 } es base de V, {u1, u2 , u3 , u4 } es base de W y la aplicación lineal


f:V→W es tal que f ( e1 ) = u1 − u3 , f ( e2 ) = u2 + 2u3 + u4 y f ( e3 ) = 2u1 + u2 + u4 , se
pide:
a) Ecuaciones de f y matriz asociada en las bases dadas
b) Dimensión y una base de la imagen de f
c) Núcleo de f
®2E8 Si la matriz de una aplicación lineal f:R3→R2 (respecto de las bases canónicas) es
⎡− 1 a b⎤
A=⎢ ⎥ , se pide:
⎣ 1 1 c⎦
a) ¿Qué condiciones deben cumplir a, b y c para que f no sea sobreyectiva?
b) ¿Qué condiciones deben cumplir a, b y c para que (1,1,1) pertenezca al Nuc(f)?
®2E9 Sea f:R3→R3 una aplicación lineal cuya matriz asociada en las bases canónicas es
⎡1 − 1 2⎤
⎢a − 2 4⎥⎥ . Discutir el rango y la dimensión del núcleo en función de a y b.

⎢⎣− 1 (a − 1) b ⎥⎦
ÎDISPONIBLE EN VERSIÓN INTERACTIVAÍ
2E10 Sea M la matriz de una aplicación lineal f:V→W (respecto de ciertas bases).
Averiguar qué puede asegurarse del núcleo o de la imagen de f si M tiene:
1º) Su primera columna nula 2º) Su primera fila nula
3º) Su 2ª columna doble de la 1ª 4º) Su 2ª fila doble de la 1ª
®2E11 Si MS y MA son los subconjuntos de las matrices simétricas y antisimétricas de
tamaño n×n, compruébese que son subespacios vectoriales suplementarios de Mn
y hállense sus dimensiones
II. APLICACIONES LINEALES Y MATRICES 2-9

2.3 OPERACIONES CON MATRICES. MATRIZ INVERSA


2.3.a. Biyección entre aplicaciones lineales y matrices
Si V y W son dos espacios vectoriales de dimensión n y m respectivamente, dadas ciertas
bases B1={ e j } y B2={ ui } en cada uno de ellos, la aplicación:
ℒ(V,W) ⎯⎯⎯→ Mm×n
f:V→ W ⎯⎯⎯→ A asociada a f en las bases B1 y B2
es una biyección.
(*) Demostración omitida

2.3.b. Espacio vectorial de las matrices


Dadas las matrices A,B∈Mm×n se consideran las aplicaciones lineales:
fA:Rn→Rm que está asociada a la matriz A en las bases canónicas
fB:Rn→Rm que está asociada a la matriz B en las bases canónicas
Se define la suma de matrices y el producto de escalar por matriz del siguiente modo:
• A+B = Matriz asociada a la aplicación lineal fA+fB en las bases canónicas
• λA = Matriz asociada a la aplicación lineal λfA en las bases canónicas
Es trivial comprobar que, si A=[aij] y B=[bij]: A+B = [aij + bij] y λA = [λaij]
Con estas operaciones, se comprueba fácilmente que el conjunto Mm×n tiene estructura de
espacio vectorial.
Una base del espacio vectorial de las matrices es la siguiente:
B={Ehk} para h=1,K,m y k=1,K,n, siendo Ehk la matriz cuyos elementos son nulos excepto
el de posición (h,k), que vale 1. En consecuencia, dim Mm×n = m⋅n

2.3.c. Trasposición de matrices


Dada A=[aij]∈Mm×n se llama matriz traspuesta de A a la matriz:
At=[ a′ij ]∈Mn×m tal que: a′ij = a ji para i=1,K,n y j=1,K,m

Propiedades (demostración trivial):


t t
‰ (A ) = A
‰ (λA) = λA
t t
t t t
‰ (A+B) = A +B
‰ Si A es una matriz cuadrada (m=n):
A es simétrica ⇔ A=At
A es antisimétrica ⇔ A=–At

2.3.d. Composición de aplicaciones y producto de matrices


Dados tres espacios vectoriales V, W y U y dos aplicaciones lineales f:V→W y g:W→U, se
define la aplicación compuesta de ambas como (gof)( x ) = g(f( x )) ∀ x ∈V.
(gof): V ⎯⎯→ W ⎯⎯→ U
f g
La composición de aplicaciones lineales es una aplicación lineal entre V y U.
(*) Demostración omitida
2-10 ÁLGEBRA LINEAL

Propiedades de la composición (demostración trivial)


1) Asociativa: (fog)oh = fo(goh)
2) Distributiva respecto de la suma:
(f+g)oh = foh + goh
ho(f+g) = hof + hog
3) No conmutativa:
Si U≠V, la composición fog no existe, aunque exista gof
Si U=V≠W, gof:V→V y fog:W→W son endomorfismos en distintos espacios vectoriales
Si U=V=W, gof:V→V y fog:V→V son endomorfismos en el mismo espacio vectorial,
pero en general es gof ≠ fog

Producto de matrices
Dadas A∈Mm×p y B∈Mp×n, se consideran las aplicaciones lineales:
fA:Rp→Rm asociada a A en las bases canónicas
fB:Rn→Rp asociada a B en las bases canónicas
Se llama matriz producto A⋅B a la matriz asociada a la aplicación compuesta fAofB en las
bases canónicas, fAofB : Rn ⎯⎯→ Rp ⎯⎯→ Rm
fB fA
Es evidente que A⋅B∈Mm×n. Para que el producto A⋅B tenga sentido es necesario que el
número de columnas de A sea igual al número de filas de B. Y en ese caso es:
nº de filas de A⋅B = nº de filas de A
nº de columnas de A⋅B = nº de columnas de B

Propiedades del producto de matrices


Son las mismas propiedades de la composición de aplicaciones lineales
1) Asociativa: (AB)C = A(BC)
2) Distributiva: (A+B)C = AC + BC ; A(B+C) = AB + AC
3) No conmutativa:
Si m≠n, el producto BA no existe, aunque exista AB
Si m=n≠p, BA∈Mp es de distinto tamaño que AB∈Mn
Si m=n=p, ambas matrices son del mismo tamaño, pero en general es BA ≠ AB

Expresión del producto de matrices


Se comprueba a continuación que la definición dada del producto de matrices coincide
con la expresión habitual de dicho producto
(*)Nota: esta demostración no se pide
Bases: B1={ e j } B2={ w k } B3={ ui }
Espacios vectoriales: R ⎯⎯⎯⎯⎯⎯⎯⎯→ R ⎯⎯⎯⎯⎯⎯⎯⎯→ Rm
n p

fB: matriz B=[bkj] fA: matriz A=[aik]


Aplicación compuesta: R ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯→ Rm
n

fAofB: matriz C=AB=[cij]


fB( e j ) = ∑ bkj w k
fA( w k ) = ∑ aik ui
( f A o fB )( e j ) = f A ( fB ( e j )) = f A ( ∑ b kj w k ) = ∑ b kj f A ( w k ) = ∑ b kj ∑ a ij ui = ∑ ( ∑ a ik b kj )ui = ∑ c ij ui
k k k i i k i
p
Por tanto c ij = ∑ a ik b kj = a i1b1j + a i2b 2 j + ... + a ip b pj
k =1
Ejemplo
II. APLICACIONES LINEALES Y MATRICES 2-11

Sean f:R3→R2 y g:R2→R3 las aplicaciones lineales:


f(x,y,z) = (x+2y+3z,–x+y+5z) g(u,v) = (u+v,2u–v,3u–4v)
Sean A y B las matrices asociadas a f y g, respectivamente, en las bases canónicas. Las
matrices de las aplicaciones compuestas son, en dichas bases canónicas:
⎡1 1⎤ ⎡0 3 8⎤
⎢ ⎥ ⎡ 1 2 3⎤ ⎢
gof:R →R : BA = ⎢2 −1⎥ ⎢
3 3
⎥ = ⎢3 3 1⎥⎥
−1 1 5⎦
⎢⎣3 − 4⎥⎦ ⎣ ⎢⎣7 2 −11⎥⎦
⎡1 1⎤
fog:R →R : AB = ⎢
2 2 ⎡ 1 2 3⎤ ⎢
2 −1⎥ = ⎡14 −13 ⎤
⎥ ⎢ ⎥ ⎢ ⎥
⎣−1 1 5⎦ ⎢3 − 4⎥ ⎣16 −22⎦
⎣ ⎦
Traspuesta del producto
Dadas A∈Mm×p y B∈Mp×n, se verifica que: (AB)t = BtAt
siendo: At∈Mp×m, Bt∈Mn×p, AB∈Mm×n, (AB)t∈Mn×m, BtAt∈Mn×m
(*) Demostración omitida
Ejemplo
⎡3 1⎤ ⎡ 1 0⎤
⎡ 1 2 0⎤ ⎢ ⎡3 3⎤ ⎡3 0 1⎤ ⎢ ⎡3 4⎤
AB = ⎢ ⎥ ⎢0 1⎥⎥ = ⎢ ⎥
t t
BA = ⎢ ⎥ ⎢ 2 1⎥⎥ = ⎢ ⎥ = (AB)t
⎣0 1 4⎦ ⎢ 1 2⎥ ⎣4 9⎦ ⎣ 1 1 2⎦ ⎢0 4⎥ ⎣3 9 ⎦
⎣ ⎦ ⎣ ⎦

2.3.e. Matrices invertibles


Una matriz A de tamaño n se dice invertible si existe A–1∈Mn (llamada matriz inversa de A)
tal que AA–1 = I. Según se verá más adelante, si existe la matriz inversa, lo es por la
derecha y por la izquierda: AA–1=I ⇔ A–1A=I.
Ejemplos
⎡ 3 2⎤ ⎡ 3 − 2 ⎤ ⎡ 3 − 2⎤ ⎡ 3 2⎤ ⎡5 7⎤ ⎡ 3 −7⎤ ⎡ 3 −7⎤ ⎡5 7⎤
⎢ 4 3⎥ ⎢− 4 3⎥ = ⎢− 4 3⎥ ⎢4 3⎥ = I ; ⎢2 3 ⎥ ⎢ − 2 5 ⎥ = ⎢ − 2 5 ⎥ ⎢2 3 ⎥ = I
⎣ ⎦⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦⎣ ⎦

Inversas del producto y de la traspuesta


Si A y B son invertibles, entonces AB es invertible y se verifica que (AB)–1 = B–1A–1
Comprobación: (AB)(B–1A–1) = A(BB–1)A–1 = AIA–1 = AA–1 = I
Si A es invertible, entonces también lo es At y se verifica que (At)–1 = (A–1)t
Comprobación: At(A–1)t = (A–1A)t = It = I
Ejemplos
⎡2 1⎤ ⎡ 2 −1⎤ ⎡1 2⎤ ⎡ 3 − 2⎤
A=⎢ ⎥ A −1 = ⎢ ⎥ B=⎢ ⎥ B −1 = ⎢ ⎥
⎣3 2⎦ ⎣ −3 3 ⎦ ⎣1 3⎦ ⎣−1 1⎦
⎡3 7 ⎤ ⎡ 12 −7⎤ ⎡ 1 0⎤
Inversa del producto: AB = ⎢ ⎥ B −1A −1 = ⎢ ⎥ ( AB)(B −1A −1 ) = ⎢ ⎥
⎣5 12⎦ ⎣ −5 3 ⎦ ⎣0 1⎦
⎡2 3 ⎤ ⎡ 2 −3 ⎤ ⎡ 1 0⎤
Inversa de la traspuesta: A t = ⎢ ⎥ ( A −1 ) t = ⎢ ⎥ A t ( A −1 ) t = ⎢ ⎥
⎣ 1 2⎦ ⎣−1 3⎦ ⎣0 1⎦
2-12 ÁLGEBRA LINEAL

2.3.f. Ejercicios del apartado 2.3

®2E12 Dadas las matrices Am×n y Sn, con S simétrica, pruébese que ASAt es simétrica.
2E13 Encontrar una condición necesaria y suficiente para que (X+Y)(X−Y) = X2−Y2 y
para que (X+Y)2 = X2+2XY+Y2, donde X e Y son matrices de tamaño n×n.
2E14 Si A y B son matrices simétricas de tamaño n×n, ¿bajo qué condición será
simétrica la matriz AB?
®2E15 Sabiendo que A∈Mn es tal que A+A2=I, pruébese que A es regular y hállese A−1.
⎡ a 1 + a⎤
®2E16 Comprobar que las matrices de la forma ⎢ ⎥ son inversas de sí mismas y
⎣1 − a − a ⎦
⎡ 3 2⎤ ⎡ 3 4 ⎤ ⎡ 1 2⎤
utilizarlo para calcular la inversa de ⎢ ⎥ =⎢ ⎥⎢ ⎥.
⎣− 2 − 1⎦ ⎣− 2 − 3⎦ ⎣0 − 1⎦
−1
⎡1 0 0⎤ ⎡ 1 0 0⎤

2E17 Comprobar que a 1 0 ⎥ = ⎢ −a 1 0⎥ y utilizarlo para calcular la inversa
⎢ ⎥
⎢⎣1 a 1⎥⎦
⎢ 2
( ) ⎥
⎢⎣ a − 1 − a 1⎥⎦
⎡ 1 0 1⎤ ⎡ 1 0 0⎤ ⎡ 1 0 1⎤
de ⎢2 1 2⎥ = ⎢2 1 0⎥ ⎢0 1 0⎥ .
⎢ ⎥ ⎢ ⎥⎢ ⎥
⎢⎣ 1 2 2⎥⎦ ⎢⎣ 1 2 1⎥⎦ ⎢⎣0 0 1⎥⎦
II. APLICACIONES LINEALES Y MATRICES 2-13

2.4 CAMBIO DE BASES. EQUIVALENCIA DE MATRICES


2.4.a. Matriz del cambio de coordenadas
{ }
Considérense dos bases en un espacio vectorial V de dimensión n, B= {ei } y B’= e ′j para
i=1,…,n y para j=1,…,n. Sean ( x 1,K, x n ) y ( x1′ ,K, x′n ) las coordenadas de un mismo vector
x ∈V en B y B’.
n
Si e ′j = ∑ qij ei , la relación entre las coordenadas de x en ambas bases está dada por:
i =1
n
xi = ∑ qijx′j para i=1,…,n
j=1

Demostración:
⎛ ⎞
x = ∑ x′j e ′j = ∑ x′j ∑ qij ei = ∑ ⎜ ∑ x′jqij ⎟ei

i ⎝ j

j j i ⎠
Esta expresión matricialmente toma la forma:
⎡ x1 ⎤ ⎡ q11 q12 K q1n ⎤ ⎡ x'1 ⎤
⎢ x ⎥ ⎢q ⎥ ⎢ ⎥
⎢ 2 ⎥ = ⎢ 21 q22 K q2n ⎥ ⋅ ⎢ x' 2 ⎥ X = Q X’
⎢M ⎥ ⎢ M M O M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ x n ⎦ ⎣ qn1 qn2 K qnn ⎦ ⎣ x'n ⎦
↑ ↑ ↑ Q=Matriz del cambio de coordenadas
e1′ e2′ en′

Q es una matriz regular, ya que existe la matriz Q–1 asociada al cambio inverso, de B’ a B,
tal que QQ–1=I. Nótese que si X=QX’ y X’=Q–1X ⇒ X=QQ–1X ⇒ QQ–1=I

Ejemplo
En R3: B={(1,0,0),(0,1,0),(0,0,1)}; B’={(1,2,0),(–3,–7,1),(0,–2,1)}
El cambio de base inverso se puede obtener despejando en el sistema:
e1′ = e1 + 2e2 ⎫ ⎧ e1 = −5 e1′ − 2e2′ + 2 e3′
⎪ ⎪
e2′ = −3 e1 − 7 e2 + e3 ⎬ ⎯⎯→ ⎨ e2 = 3 e1′ + e2′ − e3′
e3′ = −2 e2 + e3 ⎪ ⎪e = 6 e ′ + 2e ′ − e ′
⎭ ⎩ 3 1 2 3

⎡ 1 −3 0 ⎤ ⎡ −5 3 6 ⎤
Q = ⎢⎢2 −7 −2⎥⎥ Q −1
= ⎢⎢−2 1 2⎥⎥
⎢⎣0 1 1⎥⎦ ⎢⎣ 2 −1 −1⎥⎦

2.4.b. Cambio de bases en aplicaciones lineales


Sean dimV=n, dimW=m, f∈ℒ(V,W). Sean:
A = Matriz asociada a f en ciertas bases B1 y B2
A’= Matriz asociada a f en otras bases B1′ y B ′2
P = Matriz del cambio de coordenadas entre B1 y B1′
Q = Matriz del cambio de coordenadas entre B2 y B ′2
Existe una relación entre las matrices A y A’ a través de las matrices de cambio P y Q,
que se puede representar como sigue:
2-14 ÁLGEBRA LINEAL

Y =AX
B1 ⎯⎯ ⎯ ⎯⎯→ B 2
X = PX ′ b b Y = QY ′
Y ′= A ′X ′
B1′ ⎯⎯ ⎯ ⎯⎯→ B′2
Introduciendo las ecuaciones de los cambios de base en la ecuación matricial de la
aplicación lineal se obtiene:
Y=AX → QY’=APX’ → Y’=(Q–1AP)X’ ∀X’∈Mnx1 ⇒ A’= Q–1AP

2.4.c. Matrices equivalentes


Dos matrices del mismo tamaño Amxn y Bmxn son equivalentes si existen dos matrices
regulares Pn y Qm tales que B=Q–1AP. Se cumple que:
A,B∈Mmxn son equivalentes ⇔ B=Q-1AP ⇔
⇔ A y B están asociadas a la misma aplicación lineal f:Rn→Rm en distintas bases
(*) Demostración omitida en sentido ⇒ (en el otro sentido ya se hizo en el apartado anterior)

Equivalencia de las matrices traspuestas


Si A y B son equivalentes ⇒ At y Bt son equivalentes
(*) Demostración omitida

2.4.d. Diagonalización por equivalencia


Toda matriz A∈Mmxn es diagonalizable por equivalencia, es decir, existen dos matrices Pn
y Qm regulares tales que: D=Q–1AP es diagonal
En particular, se puede conseguir que todos los elementos no nulos de la diagonal de D
valgan 1 y estén colocados en las r primeras posiciones, lo que constituye la matriz
canónica de equivalencia de A.

Demostración:
Sea f:Rn→Rm la aplicación lineal que tiene asociada la matriz A en ciertas bases. Sean
dim Nuc(f)=p y dim Im(f)=r, de forma que p+r=n.
Se considera una base del Nuc(f): {e1,K, ep }. Se completa por delante hasta formar una
base de Rn: B1= {u1,K, ur , e1,K, ep }. Entonces f(B1)= {f ( u1 ),K, f ( ur ), o,K, o} es generador
de Im(f) ⇒ el sistema {f ( ui )} es generador de Im(f) y está formado por r vectores ⇒ {f ( ui )}
es base de Im(f) ⇒ {f ( ui )} es independiente. Finalmente se completa {f ( ui )} hasta formar
una base de Rm: B2= {f ( u1 ),K, f ( ur ), w r +1,K, w m }
En las bases B1 y B2 la matriz asociada a f es:
⎡ 1 0 K 0 0 K 0⎤ ← 1
⎢0 1 K 0 0 K 0⎥ ← 2
⎢ ⎥
⎢M M O M M M⎥
⎢ ⎥
D = ⎢0 0 K 1 0 K 0⎥ ← r (También se suele denominar D=Cr)
⎢0 0 K 0 0 K 0⎥ ← r +1
⎢ ⎥
⎢M M M M O M⎥
⎢0 0 K 0 0 K 0⎥ ← m
⎣ ⎦
↑ ↑ ↑ ↑ ↑
1 2 r r+1 n
II. APLICACIONES LINEALES Y MATRICES 2-15

Rn R
V {f ( ui )}
V {ui } f Im( f )
{ }
V ej
Nuc( f ) V {w k }

Ejemplo
Sea f:R4→R3 la aplicación lineal asociada en las bases canónicas a la matriz:
⎡ 1 2 0 −1⎤
A = ⎢−5 −9 − 4 0⎥⎥ .

⎢⎣−8 −14 −8 −2⎥⎦
⎧ x + 2 y − t =0 → x = −2y + t → x = −8 z − 9 t

Núcleo: ⎨−5 x −9 y − 4z =0 → y − 4 z −5 t =0 → y = 4z +5t
⎪−8 x −14 y −8z −2t =0 → 2y −8z −10t =0

Nuc(f)=V((–8,4,1,0),(–9,5,0,1)); dim Nuc(f) = dim Im(f) = 2
La base de R4 se puede completar con los 2 últimos vectores de la base canónica, cuyas
imágenes son no nulas e independientes entre sí:
B1 = {(0,0,1,0),(0,0,0,1),(–8,4,1,0),(–9,5,0,1)}
La base de R3 se completa con un 3er vector independiente de las imágenes de los dos
primeros vectores de B1:
B2 = {(0,–4,–8),(–1,0,–2),(0,0,1)}
⎡ 1 0 0 0⎤
La matriz de f en esas bases es: D = ⎢⎢0 1 0 0⎥⎥
⎢⎣0 0 0 0⎥⎦

2.4.e. Ejercicios del apartado 2.4

⎡ 1 0 2⎤
®2E18 Dada la matriz A = ⎢ ⎥ , hállense dos matrices M2×2 y P3×3 tales que la
⎣− 1 1 1⎦
matriz B=MAP tenga todos sus elementos nulos excepto los de lugares (1,1) y
(2,2) que valdrán 1.
®2E19 En R3 se consideran el subespacio U={(x,y,z) / x+y−z=0} y el vector w =(2,−2,−2).
Calcular la ecuación implícita de U y las coordenadas de w en la base B’ formada
por los vectores {(a,2−a,0),(0,1,1),(1,0,1)}.
ÎDISPONIBLE EN VERSIÓN INTERACTIVAÍ
®2E20 Sea f:R2→R3 una aplicación lineal de rango 2 que tiene asociada la matriz
canónica de equivalencia en las bases B1’={(2,−1),(3,−2)} y B2’={(1,2,0),(0,1,2),
(0,0,1)}. Calcular la matriz A de f en las bases canónicas (B1 y B2), usando las
expresiones de matrices inversas de los ejercicios 2E16 ó 2E17, según proceda.
2-16 ÁLGEBRA LINEAL

2.5 ENDOMORFISMOS Y MATRICES REGULARES. SEMEJANZA DE MATRICES


2.5.a. Composición de endomorfismos
En el conjunto ℒ(Rn) de los endomorfismos en Rn, la composición de aplicaciones lineales
es una operación interna: f,g∈ℒ(Rn) ⇒ (fog),(gof)∈ℒ(Rn)

En general la composición no es conmutativa: (fog)≠(gof).


Ejemplo
f(x,y)=(x,0); g(x,y)=(y,x) → (fog)(x,y)=(y,0); (gof)(x,y)=(0,x)

Existen endomorfismos no nulos cuya composición es nula.


Ejemplos
ƒ f(x,y)=(x,0); g(x,y)=(0,y) → (fog)(x,y)=(gof)(x,y)=(0,0)
ƒ f(x,y)=(2x−y,y−2x); g(x,y)=(x,2x)
La composición en un sentido es nula: (fog)(x,y)=(0,0)
La composición en el otro sentido no es nula: (gof)(x,y)=(2x−y,4x−2y)≠(0,0) en general

Existen endomorfismos no nulos que no son simplificables (o regulares) respecto a la


composición; es decir, (fog)=(foh) no implica necesariamente que g=h. Esta propiedad está
relacionada con la anterior, pues ocurre cuando es (fo(g−h))=o con (g−h)≠o.
Ejemplo
ƒ f(x,y)=(x,x); g(x,y)=(2y,x); h(x,y)=(2y,3x)
(fog)(x,y)=(foh)(x,y)=(2y,2y), siendo g≠h.

2.5.b. Producto de matrices cuadradas


El producto de matrices cuadradas es una operación interna en Mn:
A,B∈Mn ⇒ AB,BA∈Mn
En general, el producto no es conmutativo: AB≠BA. Por ejemplo:
⎡1 0⎤ ⎡ 1 1⎤ ⎡1 1⎤ ⎡2 0 ⎤
A= ⎢ ⎥ , B= ⎢ ⎥ → AB= ⎢ ⎥ ; BA= ⎢ ⎥
⎣1 0⎦ ⎣0 0⎦ ⎣1 1⎦ ⎣0 0⎦
Existen matrices no nulas cuyo producto es nulo, llamadas divisores de cero: A≠0 y B≠0
⎡ 1 2⎤ ⎡−2 0⎤ ⎡0 0⎤
tales que AB=0. Por ejemplo: ⎢ ⎥⎢ ⎥=⎢ ⎥
⎣2 4⎦ ⎣ 1 0⎦ ⎣0 0⎦
Se dice que A es regular o simplificable si: AB=AC ⇒ B=C y BA=CA ⇒ B=C. Existen
matrices no nulas que no son simplificables, llamadas matrices singulares. Por ejemplo:
⎡ 1 2⎤ ⎡0 1⎤ ⎡2 1⎤ ⎡2 1⎤
A= ⎢ ⎥ es singular, ya que para B= ⎢ 1 0⎥ y C= ⎢0 0⎥ es AB=AC= ⎢4 2⎥ , con B≠C.
⎣2 4 ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

2.5.c. Automorfismos y matrices invertibles


Dado f∈ℒ(Rn), se dice que es un automorfismo si admite aplicación inversa, es decir, si
existe f–1:Rn→Rn tal que (fof–1) = (f–1of) = i, lo cual ocurre si y sólo si f es biyectivo:

⎧sobreyectivo ⎫
f es automorfismo ⇔ ∀ y ∈Rn ∃! x ∈Rn tal que f( x )= y ⇔ f es ⎨ ⎬ = biyectivo
⎩inyectivo ⎭
II. APLICACIONES LINEALES Y MATRICES 2-17

Rn Rn
f y
x
f-1

f f-1 f-1 f
Rn Rn Rn Rn Rn Rn

i i
–1
En caso de existir, el endomorfismo inverso f es también lineal.
(*) Demostración omitida
Ejemplos
En el espacio vectorial V de los polinomios de coeficientes reales (nótese que es un
espacio vectorial de tipo no finito), sean los endomorfismos:
ƒ f(p(x))=p(x)+xp’(x)
f(a0 + a1x +a2x2 + … + anxn) = a0 + 2a1x + 3a2x2 + …+ (n+1)anxn
f es biyectivo, y su endomorfismo inverso es:
b b b
f–1(b0 + b1x + b2x2 + … +bnxn) = b0 + 1 x + 2 x 2 + K + n x n
2 3 n +1
ƒ g(p(x))=p’(x)
g(a0 + a1x + a2x2 + … + anxn) = a1 + 2a2x + … + nanxn–1
g no es inyectivo ⇒ no existe g–1
ƒ h(a0 + a1x + a2x2 + … + anxn) = a0 + a1x2 + a2x4 + … + anx2n
h no es sobreyectivo ⇒ no existe h–1

Matrices invertibles
Se dice que A∈Mn es invertible ⇔ A está asociada a un automorfismo f∈ℒ(Rn) ⇔
⇔ ∃ A–1∈Mn tal que A⋅A–1 = A–1⋅A = I
(A−1 sería la matriz asociada a f−1, en cuyo caso A⋅A–1=A–1⋅A=I porque (fof–1)=(f–1of)=i)
A∈Mn es invertible ⇔ A es regular o simplificable para el producto
A∈Mn no es invertible ⇔ A es singular o no simplificable
(*) Demostración omitida

2.5.d. Cambio de base en endomorfismos y matrices semejantes


Sea f:V→V un endomorfismo en un espacio vectorial de tipo finito, con dimV=n. En este
caso, la base es la misma en V como espacio de salida y como espacio de llegada. Sean:
A = Matriz asociada a f en cierta base B
A’= Matriz asociada a f en otra base B’
Si P es la matriz del cambio de coordenadas, particularizando la relación obtenida en el
caso de aplicaciones lineales, se obtiene: A’= P–1AP
Se dice que dos matrices cuadradas A y B de tamaño n×n son semejantes si existe una
matriz regular P de tamaño n×n tal que B=P–1AP. Se cumple que:
A,B∈Mn son semejantes ⇔ B=P-1AP ⇔
⇔ A y B están asociadas al mismo endomorfismo f:Rn→Rn en distintas bases
(*) Demostración omitida en sentido ⇒ (en el otro sentido ya se ha hecho antes)
2-18 ÁLGEBRA LINEAL

2.5.e. Ejercicios del apartado 2.5

⎡1 x y ⎤
®2E21 Sea G⊂M3 el conjunto de las matrices de la forma A = ⎢⎢0 1 z ⎥⎥ , con x,y,z∈R.
⎢⎣0 0 1⎥⎦
Pruébese que G es grupo multiplicativo (o sea, que G tiene estructura de grupo
respecto de la operación producto). ¿Es abeliano? (véase 1.1.a)
2E22 Demostrar que si una matriz A∈Mn no es invertible, entonces no es simplificable
para el producto, es decir, que existen dos matrices B,C∈Mn tales que AB=AC,
siendo B≠C.
Indicación: utilice que si A no es invertible, existe X∈Mn×1 tal que AX=0, con X≠0.
II. APLICACIONES LINEALES Y MATRICES 2-19

2.6 RANGO DE UNA MATRIZ Y CÁLCULO DE LA INVERSA


2.6.a. Rango de filas y rango de columnas
Rango de columnas (RC) de una matriz A de tamaño m x n:
• Es el rango del sistema de sus vectores columna (n vectores de Rm)
• Si A está asociada a una aplicación lineal f, las columnas de A son las coordenadas de
un sistema generador de Im(f). Por lo tanto, RC(A)=rang f
• Dos matrices equivalentes tienen igual rango de columnas
Demostración: Si B=Q–1AP, las matrices A y B están asociadas a una misma aplicación
lineal f en distintas bases; por tanto, RC(A)=RC(B)=rang f

Rango de filas (RF) de una matriz A de tamaño m x n:


• Es el rango del sistema de sus vectores fila (m vectores de Rn).
• Es evidente que es igual al rango de filas de su matriz traspuesta: RF(A)=RC(At)

2.6.b. Rango de una matriz


El teorema del rango demuestra que los rangos de filas y de columnas de una matriz A
son iguales. A dicho valor común se le llama rango de la matriz A y se denota por rang A.
Demostración:
Dada una matriz A de tamaño m×n, sea r el número de elementos no nulos de su matriz
canónica de equivalencia C. El rango de columnas de A es igual al de C y vale RC(A)=r.
Sabiendo que se cumple C=Q–1AP, al trasponer esta expresión se obtiene Ct=(Qt)–1AtPt,
luego At es equivalente a Ct. Entonces el rango de columnas de At es RC(At)=RC(Ct)=r
(nótese tanto C como Ct son matrices diagonales y ambas tienen r columnas no nulas).
En definitiva se verifica que RF(A)=RC(At)=RC(A)=r.

2.6.c. Rangos de matrices equivalentes y de matrices regulares


Sean A y B dos matrices de tamaño m x n. Se cumple que:
A y B son equivalentes ⇔ rang A = rang B
(*) Demostración omitida

Sea A una matriz cuadrada de tamaño n x n. Se cumple que:


A es regular ⇔ rang A = n
(*) Demostración omitida

2.6.d. Operaciones elementales en matrices


Se llama operación elemental en una matriz A∈Mmxn a cualquier operación elemental (de
las definidas en 1.3.f) realizada sobre su sistema de vectores fila o sobre su sistema de
vectores columna.
– Las operaciones por filas (m vectores de Rn) se denotan por Ef(A)
– Las operaciones por columnas (n vectores de Rm) se denotan por Ec(A)
Son operaciones elementales:
1) Intercambiar líneas: (i)↔(j)
2) Multiplicar una línea por un escalar: (i)→λ(i), con λ≠0
3) Sumar a una línea otra línea paralela: (i)→(i)+(j)
4) Cualquier combinación de las anteriores; en particular: (i)→(i)+∑λj(j), con j≠i
2-20 ÁLGEBRA LINEAL

Relación entre operaciones elementales y producto de matrices


Dada A∈Mmxn, se verifica:
Ef(A) = Ef(Im)⋅A donde Im denota la matriz unidad de tamaño m×m
c c
E (A) = A⋅E (In) donde In denota la matriz unidad de tamaño m×m
(*) Demostraciones omitidas
Si se aplican operaciones elementales combinadas por filas y por columnas, se obtiene:
E(A) = Ef[Ec(A)] = Ef(Im)⋅Ec(A) = Ef(Im)⋅A⋅Ec(In)
E(A) = Ec[Ef(A)] = Ef(A)⋅Ec(In) = Ef(Im)⋅A⋅Ec(In)
Si se siguen realizando operaciones elementales en cualquier orden, el resultado final
continúa siendo el mismo: las Ef revierten sobre Im y las Ec sobre In.
(*) Demostraciones omitidas
Como Ef(Im) y Ec(In) son matrices regulares (pues su rango no varía respecto a Im e In), el
resultado anterior indica que la matriz E(A) es equivalente con A.

2.6.e. Cálculo del rango de una matriz (TEMA DE REPASO)


Realizando operaciones elementales en una matriz no se altera el rango, lo que proporciona un método de
cálculo del rango. Dada A de tamaño m×n, mediante el método de Gauss de operaciones por filas siempre
es posible encontrar una matriz equivalente con ella que sea triangular superior escalonada por filas,
Ef(A)=U, en la cual:
ƒ Cada fila no nula empieza con un número de ceros mayor que el de la fila anterior
ƒ Si hay filas nulas, están todas situadas al final
ƒ El rango de esta matriz, que es el mismo de A, es igual al número de filas no nulas
Si el método se aplica por columnas en vez de por filas, se obtiene una matriz triangular inferior, Ec(A)=L,
cuyo rango es igual al número de columnas no nulas.
Método de Gauss
• Si a11≠0, se utiliza como pivote para anular, mediante operaciones elementales por filas, los elementos
situados debajo de él en la 1ª columna. Las operaciones elementales necesarias son:
a
fila i → (fila i)– i1 ×(fila 1), resultando a’i1=0 ∀i=2,…,n
a 11
• Si a11=0, se intercambia primero la fila 1 con otra que tenga ai1≠0
• Si todos los ai1 son nulos, se deja la 1ª columna intacta
• Se repite el proceso con la 2ª columna, a partir de la posición (2,2) si en el 1er paso ha resultado a’11≠0 ó
bien a partir de la posición (1,2) si en el 1er paso ha resultado a’11=0.
• Se repite el proceso con la 3ª columna, a partir de la posición:
(3,3) si en el 2º paso ha resultado a’22≠0
(2,3) si en el 2º paso ha resultado a’22=0, pero a’12≠0
(1,3) si en el 2º paso ha resultado a’12=a’22=0
• Así sucesivamente, en la columna k se repite el proceso a partir de la posición (j,k) siendo (j–1,k–1) el
último elemento no nulo de la columna anterior.
• Al acabar con la última columna la matriz resultante es triangular superior y escalonada por filas; en caso
de tener filas nulas, estarían todas situadas al final.

Ejemplos
⎡ 1 2 0 −1⎤ ⎡1 2 0 −1⎤ ⎡ 1 2 0 −1⎤
⎢ −5 −9 −4 0 ~ ⎢0
⎥ 1 − 4 −5 ~ ⎢0 1 − 4 −5 ⎥ ; rango=2

⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣−8 −14 −8 − 2⎦ ⎣0 2 −8 −10 ⎦ ⎣0 0 0 0⎦

⎡0 2 2 4⎤ ⎡ 1 2 1 1⎤ ⎡ 1 2 1 1⎤ ⎡ 1 2 1 1 ⎤ ⎡ 1 2 1 1⎤ ⎡ 1 2 1 1⎤
⎢1 2 1 1 ⎥ ⎢0 2 2 4 ⎥ ⎢0 2 2 4 ⎥ ⎢0 2 2 4 ⎥ ⎢0 2 2 4 ⎥ ⎢0 1 1 2⎥
⎢ ⎥~⎢ ⎥~⎢ ⎥~⎢ ⎥~⎢ ⎥~⎢ ⎥ ; rango=3
⎢3 7 4 5
⎥ ⎢3 7 4 5
⎥ ⎢0 1 1 2 ⎥ ⎢0 0 0 0 ⎥ ⎢0 0 0 5
⎥ ⎢0 0 0 1

⎣⎢2 2 0 3 ⎦⎥ ⎣⎢2 2 0 3 ⎦⎥ ⎣⎢0 − 2 − 2 1⎦⎥ ⎣⎢0 0 0 5 ⎦⎥ ⎣⎢0 0 0 0 ⎦⎥ ⎣⎢0 0 0 0 ⎦⎥
II. APLICACIONES LINEALES Y MATRICES 2-21

⎡0 0 2 4⎤ ⎡1 2 1 1⎤ ⎡ 1 2 1 1⎤ ⎡ 1 2 1 1⎤ ⎡ 1 2 1 1⎤ ⎡ 1 2 1 1⎤
⎢1 2 1 1⎥ ⎢0 0 2 4 ⎥ ⎢0 0 2 4 ⎥ ⎢0 0 2 4 ⎥ ⎢0 0 2 4 ⎥ ⎢0 0 1 2⎥
⎢ ⎥~⎢ ⎥~⎢ ⎥~⎢ ⎥~⎢ ⎥~⎢ ⎥ ; rango=3
⎢3 6 4 5
⎥ ⎢3 6 4 5
⎥ ⎢0 0 1 2
⎥ ⎢0 0 0 0
⎥ ⎢0 0 0 5
⎥ ⎢0 0 0 1

⎣⎢2 4 0 3 ⎦⎥ ⎣⎢2 4 0 3 ⎦⎥ ⎣⎢0 0 − 2 1⎦⎥ ⎣⎢0 0 0 5 ⎦⎥ ⎣⎢0 0 0 0 ⎦⎥ ⎣⎢0 0 0 0 ⎦⎥

2.6.f. Cálculo de la inversa de una matriz


Si A∈Mn es regular, su matriz canónica de equivalencia es I, a la cual se puede llegar
realizando operaciones elementales sólo por filas o sólo por columnas sobre A.
Método de Gauss–Jordan:
Realizando Ef “hacia abajo” se llega a una triangular superior de rango n, con todos los
elementos de la diagonal no nulos; utilizando éstos como pivotes “hacia arriba”, mediante
Ef se pueden anular también todos los elementos por encima de la diagonal.
Realizando Ec “hacia la derecha” se llega a una triangular inferior de rango n, con todos
los elementos de la diagonal no nulos; utilizando éstos como pivotes “hacia la izquierda”,
mediante Ec se pueden anular también todos los elementos por debajo de la diagonal.
Si Ef(A)=I ⇒ Ef(I)A=I ⇒ A–1=Ef(I)
Si Ec(A)=I ⇒ AEc(I)=I ⇒ A–1=Ec(I)
Estos resultados proporcionan un método práctico de cálculo de la inversa: A–1 se obtiene
realizando en paralelo las mismas operaciones elementales sobre la matriz I.

Ejemplo
⎡ 1 3 − 2 1 0 0⎤ ⎡ 1 3 −2 1 0 0⎤ ⎡ 1 3 −2 1 0 0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢2 4 0 0 1 0⎥ ~ ⎢0 −2 4 −2 1 0⎥ ~ ⎢0 −2 4 −2 1 0⎥ ~
⎢3 5 1 0 0 1⎥⎦ ⎢⎣0 − 4 7 −3 0 1⎥⎦ ⎢⎣0 0 −1 1 −2 1⎥⎦

⎡ 1 3 0 −1 4 −2⎤ ⎡ 1 3 0 −1 −2⎤ ⎡ 1 0 0 2 −13 2 4 ⎤
4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
~ ⎢0 −2 0 −2 −7 4⎥ ~ ⎢0 1 0 −1 7 2 −2⎥ ~ ⎢0 1 0 −1 7 2 − 2⎥
⎢0 0 −1 1 −2 1⎥⎦ ⎢⎣0 0 1 −1 2 −1⎥⎦ ⎢⎣0 0 1 −1 2 −1⎥⎦

2.6.g. Ejercicios del apartado 2.6

2E23 Si la matriz A de tamaño n×(n−1) tiene una columna combinación lineal de las
restantes y si B de tamaño n×n se obtiene de añadir una columna a A, ¿se puede
tomar esta columna de forma que las filas de B sean independientes?
⎡1 1 1⎤
®2E24 Hallar la matriz inversa de A = ⎢⎢1 2 3⎥⎥ .
⎢⎣1 0 0⎥⎦

⎡1 2 1⎤
®2E25 Averiguar para qué valor de k la matriz A = ⎢⎢3 8 k ⎥⎥ es singular e invertirla para
⎢⎣1 6 5⎥⎦
aquél valor de k que requiera menor número de operaciones elementales.
ÎDISPONIBLE EN VERSIÓN INTERACTIVAÍ

También podría gustarte