Está en la página 1de 31

1

UNIVERSIDAD NACIONAL MAYOR DE SAN


MARCOS
Universidad del Perú​. DECANA DE AMÉRICA
Escuela profesional de Investigación Operativa

ÁLGEBRA LINEAL
MATRICES

Profesor: Andrés Guardia

Integrantes:
Carrillo Arenas Juan Sebastian 18140038
Choqque Guizado, Luis Angel 18140118
Cordero Vílchez Luis 18140126
Córdova Maldonado Eduardo Miguel 18140039
Cueva Alvites Carlos Owen 18140119
Mirano Caro Mitchell Jery 18140044

Lima 27 de mayo del 2019


3

“la matemática es el trabajo del espíritu humano que está destinado


tanto a estudiar cómo a conocer, tanto a buscar la verdad como a
encontrarla”

Évariste Galois
4

Índice
MATRICES 1

Operaciones con matrices 2

Suma 2

Producto por un escalar 3

Producto de matrices 5

Operaciones Elementales sobre las filas de una matriz 6

Matrices elementales 6

Equivalencia de matrices 7

Matriz equivalente por filas 7

Sistemas lineales 7

Clasificación de los sistemas de ecuaciones: 7

Matriz escalonada en sistemas lineales 9

Análisis de la matriz escalonada para el tipo de soluciones del sistema 10

Matriz Inversa 10

Cálculo de la inversa mediante operaciones elementales 10

La inversa de una matriz elemental 12

Matriz inversa y sistemas lineales 13

Matrices elementales y matrices cuadradas 13

Factorización LU de una matriz 14

Matriz Asociada a una Transformación Lineal 16

Matriz de Cambio de Base. Matrices Semejantes 19

Teorema del Rango 21

Bibliografía 23
5
6

MATRICES
Una matriz es un arreglo bidimensional de números (llamados entradas de la matriz)
ordenados en filas (o renglones) y columnas, donde una fila es cada una de las líneas
horizontales de la matriz y una columna es cada una de las líneas verticales. A una matriz
con ​m​ filas y ​n​ columnas se le denomina matriz ​m​ por ​n (escrito m x n) donde m, n
∈N − {0} . El conjunto de las matrices de tamaño m x n se representa como M mxn (K),
donde K es el campo al cual pertenecen las entradas. El tamaño de una matriz siempre se da
con el número de filas primero y el número de columnas después.

Se denota a las matrices con letra mayúscula, mientras que se utiliza la correspondiente
letra en minúsculas para denotar a las entradas de las mismas, con subíndices que refieren al
número de fila y columna del elemento. ​Por ejemplo, al elemento de una matriz A de
tamaño nxm que se encuentra en la fila i- ésima y la columna j –ésima se le denota como aij ,

1≤i ≤ n y 1≤j ≤ m
Ejemplos

Dada la matriz A∈M 3*4 (R)


A= [1 2 3 4 2 2 5 6 6 3 4 8 ] Es una matriz de tamaño 3x4, tiene 12 entradas y
a23 = 2 es una de ellas

La matriz R∈M 1*3 (R)


R= [3 4 8 ] Es una matriz de tamaño 1x3, un vector fila con 3 entradas.
7

Operaciones con matrices


Todas a las operaciones que se pueden hacer con las matrices viene de las aplicaciones
en álgebra lineal

Suma
Se define la operación de suma o adición de matrices como una operación binaria +:
M n*m (K) x M n*m (K) → M n*m (K) tal que (A, B ) →C = A + B y donde cij = aij + bij en el

que la operación de suma en la última expresión es la operación binaria correspondiente al


campo K , entonces tenemos que
cij es igual a la suma de los elementos aij y bij lo cual es aij + bij .

Ejemplo. Sean A, B ∈M 3 (R)


[2 4 6 1 8 3 7 6 4 ] + [ 2 3 4 2 6 0 1 2 5 ] =
[2 + 2 4 + 3 6 + 4 1 + 2 8 + 6 3 + 0 7 + 1 6 + 2 4 + 5 ] = [4 7 10 3 14 3 8 8 9 ]
No es necesario que las matrices sean cuadradas, pero sí que las matrices implicadas en
la operación tengan el mismo tamaño.

Propiedades
Sea A, B , C ∈M nxm (K) , donde k es un campo entonces se cumplen las siguientes
propiedades para la operación binaria +

Asociativa
(A+B) +C = A+(B+C)
Demostración
Dada la definición de la operación binaria +,se sigue el resultado ya que

(a ij )
+ bij + cij = aij + (bij + cij ) debido a que aij , bij , cij ∈K para todo i, j

Conmutatividad
(A+B)=(B+A)
Demostración
Dada la definición de la operación binaria +,se sigue el resultado ya que

(a ij )
+ bij = (bij + aij ) debido a que aij , bij ∈K para todo i, j
8

Existencia del elemento neutro aditivo


Existe 0 ∈ M n*m (K) tal que
A+0 = 0 + A = A
Demostración

Tómese 0 ∈ M n*m (K) tal que (0 ij = 0K ) ∈K para cualquier i, j donde ese último
es el elemento neutro aditivo en el campo, el cual existe necesariamente. Entonces para
cualquier A ∈ M n*m (K) se sigue que A + 0 = A ya que
aij + 0ij = 0ij + aij = aij ∈K para todo i, j .

Existencia del inverso aditivo


Existe D ∈ M n*m (K) tal que
A+D = 0 a esta matriz D es igual a –A
Demostración

Dada A ∈ M n*m (K) tómese D ∈ M n*m (K) tal que A+D = 0. Entonces
aij + dij = 0ij = 0k , luego , por las propiedades de campo dij = − aij donde − aij es el

inverso aditivo que en el campo aij para cualquier i,j.

Producto por un escalar

Sean A ∈ M n*m (K) y λ ϵ K . Se define la operación de producto por un escalar como


una función K x M nxm (K) → M nxm (K) tal que ( λ, A)→B = λA y donde bij = λaij en
donde el producto es la operación binaria correspondiente pero en el campo K

Ejemplo
Sea A ϵ M 2x3 (R) y 2 ε R
2 [1 8 − 3 4 − 2 6 ] = [2(1) 2 (8) 2(− 3) 2(4) 2(− 2) 2(6) ] = [2 16 − 6 8 − 4 12 ]
Se puede observar que el producto por un escalar da como resultado una matriz del tamaño que
la original
Propiedades
Sean A, B ∈ M nxm (K) y λ, μ ϵ K, donde K es un campo, entonces se cumplen las siguientes
9

propiedades para la operación producto por un escalar


Asociativa
(λμ)A = λ(μA)
Demostración

Dada la definición de la operación se sigue el resultado ya que (λμ) aij = λ(μaij ) debido
a que aij ϵ K para todo i,j.

Distributividad respecto de la suma de matrices


λ (A + B ) = λA + λB
Demostración

Dada la definición de la operación se sigue el resultado ya que

( )
λ aij + bij = λaij + λbij debido a que aij , bij ϵ K para todo i, j

Distributividad respecto de la suma de campo


( λ + μ) A = λA + μA
Dada la definición de la operación se sigue el resultado ya que ( λ + μ)aij = λaij + μaij

debido a que aij ε K para todo i, j

Producto por el neutro multiplicativo del campo


1k A = A
Demostración

Dada la definición de la operación se sigue el resultado ya que


1k aij = aij debido a que aij ε K para todo i, j

Por cómo se definió la operación de producto por escalares se dice M nxm (K) es un
espacio vectorial con las operaciones de suma y producto pro escalares definidas antes.
Además, con lo definido anteriormente se puede demostrar:
( − λ)A = λ(− A)
Demostración
Dada la definición de la operación se sigue el resultado ya que

( )
(− λ) aij = (− 1k (λ)) aij = (λ (− 1k )) aij = λ(− aij ) debido a que aij ϵ K para todo i, j

Esto último nos permite usar –λA sin riesgo de ambigüedad.


10

Producto de matrices
El producto de matrices proviene de la composición aplicaciones lineales. Para esta
aplicación el tamaño de la matriz corresponde con las dimensiones de los espacios vectoriales
entre los cuales se establece la aplicación lineal, es así como es el producto de matrices se
representa la composición de aplicaciones lineales.
En ciertas bases tenemos que f: V W se puede representar como f(x)=Ax donde x es la
representación de un vector de V en la base que se haya elegido para V en forma de vector
columna. Si tenemos dos aplicaciones lineales f:V W y g: W U entonces f(x) = Bx y g(x)
=Ax, luego la aplicación g o f : V U se representará como g o f (x) = g(f(x))= g(Bx)=ABx
donde AB es el producto de las representaciones matriciales de f,g . Nótese que la
composición no se puede dar entre cualquier aplicación sino entre aplicaciones que vayan de
V W U.
Sean AϵM nxm (K) y BϵM mxp (K) . Se define el producto de matrices como una función
m
M nxm (K) x M mxp (K) M nxp (K) tal que (A,B) C =AB y donde ∑ aik bkj para toda i,j es
k=1

decir cij = ai1 b1j + ai2 b2j + ai3 b3j + …+ aim bmj . Por ejemplo, la entrada

c12 = a11 b12 + a12 b22 + a13 b32 + …+ a1m bm2


Ejemplo
Sea AϵM 2x3 (R) y BM 3x2 (R)
[1 0 2 − 1 3 1 ] [3 1 2 1 1 0 ] = [1 (3) + 0 (2) + 2(1) 1 (1) + 0 (1) + 2(0) − 1 (3) + 3 (2) + 1(1) − 1 (1) + 3
Donde la matriz producto establecido, una matriz C ∈ M 2x2 (R)
Es necesario que A tenga el mismo número de columnas que B de filas para que AB
exista.

Propiedades
Sean A, B y C matrices con entradas en K, donde K es un campo, entonces se cumplen
las siguientes propiedades para el producto de matrices (considerando que los productos
existan)

Asociativa
A(BC)=(AB)C
Demostración
11

Dada la definición de la operación se sigue el resultado ya que, si A(BC) = AH= R,


m p m p m p p
rij = ∑ aik hkj y ∑ bil clj por lo que rij = ∑ aik ∑ bil clj= ∑ ∑ aik bkl clj= ∑ sil clj = tij donde
k=1 l=1 k=1 l=1 k=1 l=1 l=1

(AB)C = SC =T debido a ​que aik , bkl , clj ∈K para todo i,j. Aquí estamos considerando que A

es nxm , B es mxp y C es pxq.

Distributividad respecto de la suma de matrices por la derecha


(A+B) C = AC + BC
Demostración

Dada la definición de la operación se sigue el resultado ya que


m m m
∑ (aik + bik )ckj = ∑ aik ckj + ∑ bik ckj debido a que aik , bkl , clj ∈ K para todo i,j. Aquí
k=1 k=1 k=1

estamos considerando A es nxm , B nxm y C es mxp.

Distributividad respecto de la suma de matrices por la izquierda


A(B+C) = AB+AC
Dada la definición de la operación se sigue el resultado ya que
m m m
∑ aik (bkj + ckj ) = ∑ aik bkj + ∑ aik ckj debido a que aik , bkl , clj ∈K para todo i,j. Aquí
k=1 k=1 k=1

estamos considerando A es nxm , B es mxp y C es mxp


TIPOS DE MATRICES

Matrices cuadradas

Una ​matriz cuadrada​ es una matriz que tiene el mismo número de filas que de columnas. El conjunto de
todas las matrices cuadradas ​n​-por-​n​ junto a la suma y la multiplicación de matrices.

[ . .
A= a11 a12 . . . a21 a22 . . . .. an1 .. an2 ⋱ . . . a1n a2n a3n ann ]
Matriz nula

Es una matriz con todos sus elementos iguales a cero.

[ . .
A= 0 0 . . . 0 0 . . . .. 0 .. 0 ⋱ . . . 0000 ] A= [0 0 0 0 ] A= [0 0 0 ] A= [0 0 0 ]

Matriz triangular superior


12

Una matriz cuadrada cuyos elementos aij= 0 para i>j se llama matriz triangular superior.

[ . .
A= a11 a12 . . . . . . 0 a22 . . . · · · .. 0 0 .. 0 0 ⋱ · · · 0 ⋱ 0 0
.
a1n a2n a3n .. ann ]
Matriz triangular inferior

Una matriz cuadrada cuyos elementos aij= 0 para i<j se llama matriz triangular inferior.

[ . . .
A= a11 0 0 . . . a21 a22 0 . . . a31 .. an1 a32 .. an2 ⋱ .. .. ⋱ an3 . . .
.
0 0 0 .. ann ]

Matriz diagonal

Una matriz cuadrada​ ​cuyos elemento son ​aij =0​ , ​i≠j

I= [a12 0 0 a22 ] I= [1] I= [a11 0 0 0 a22 0 0 0 a33 ] I=


[a11 0 0 0 0 a22 0 0 0 0 0 0 a33 0 0 a44 ]
Todos los elementos diferentes a la diagonal son cero

Matriz unitaria o identidad

Es una matriz diagonal en la que se verifica: a​11​=a​22​=a​33​=…= a​nn​=1

A= [1 0 0 0 1 0 0 0 1 ]

I= [1 0 0 1 ] I= [1] I= [1 0 0 0 1 0 0 0 1 ] I=
[1 0 0 0 0 1 0 0 0 0 0 0 1 0 0 1 ]

Matriz escalar

Es una matriz diagonal en la que se verifican: a​11​=a​22​=a​33​=…, a​nn​=k

A​= [k 0 0 0 0 k 0 0 0 0 0 0 . . . 0 0 k ] Diagonal (a​11​=a​22​=a​33​=…, a​nn​=k)

Matriz ortogonal
Una matriz A∈ M n (R) , real y cuadrada, es ortogonal si su inversa coincide con su transpuesta, es decir

A−1 = At
t
[a b c d ] [a c b d ] = [1 0 0 1 ]

Propiedades
13

La inversa de una ortogonal es una matriz ortogonal

El producto de dos ortogonales es una matriz ortogonal

Matriz transpuesta

Una matriz con m filas y n columnas.

At ij = Aij
En donde el elemento aji de la matriz A se convertirá en elemento aij de la matriz transpuesta A​t

Ejemplo

A = [1 2 3 4 5 6 ] At = [1 3 5 2 4 6 ]

Propiedades

Involutiva

Para toda matriz A


t
(At ) = A
Demostración

Se recurre a la definición de transposición elemento a elemento, sean aij dichos elementos, denotando
t t t
por A= (aij )ij a la matriz, se tiene (At ) = ((aij ) ij ) = A

Distributiva

Sean A y B matrices

(A+B)​t​ =A​t​+B​t

Demostración

Denotado por A= (aij )ij , B= (bij )ij y A+B = (cij )ij donde (cij )ij = (aij )ij + (bij )ij , se tiene
t
(A+B)​t​ = (cij ) ij = (cij )ij =( (aij + bij )ij = (aij )ij + (b)ij = At + B t

Lineal

(cA)​t​ = cA​t

Demostración

cA = c(aij )ij = (caij )ij

Sea dij = caij , con esta notación se tiene cA = (dij )ij , por transposición queda
t t
(cA) = (dij ) ij = (dij )ij = (caij )ij = cAt

Producto A y B

(AB)​t​ = B​t​A​t
14

Demostración

Se recurre a la definición de producto matricial, sean A= (aij )ij , B== (bij )ij y AB== (cij )ij por
definición
r r
cij = ∑ aik bkj por transposición queda cji = ∑ aki bjk coincide con la definición
k=1 k=1

Matriz simétrica

Una matriz es simétrica si es una matriz cuadrada, la cual tiene que ser igual a su transpuesta.

A=A​t

Ejemplo:

A= [− 8 − 1 3 − 1 7 4 3 4 9 ] = A​t​= [− 8 − 1 3 − 1 7 4 3 4 9 ]

Propiedades

La suma de dos matrices simétricas es una matriz simétrica.

El producto de dos matrices simétricas no siempre es simétrico.

Matriz asimétrica

Una matriz es anti simétrica si es una matriz cuadrada, la cual tiene que ser igual a su transpuesta
negativa.

-A=A​t

Ejemplo:

A= [0 − 2 4 2 0 2 − 4 − 2 0 ] = A​t​= [0 2 − 4 − 2 0 − 2 4 2 0 ] =− A

Propiedades

La diagonal se conserva.

Matriz idempotente

Una matriz idempotente es una matriz que es igual a su cuadrado

AxA =A

Ejemplo

A= [1 0 3 0 ] AxA =
[1 0 3 0 ][1 0 3 0 =
] [1 (1) + 3(0) 1 (0) + 0(0) 3 (1) + 0(3) 3 (0) + 0(0) ] = [1 0 3 0 ]

Matriz involutiva

Es una matriz cuadrada que es su propia inversa


15

A​2​=I

A= [1 − 1 0 − 1 ] AxA =
[1 − 1 0 − 1 ] [1 − 1 0 − 1 ] = [1 (1) − 1(0) 1 (− 1) − 1(− 1) 0 (1) + 0(0) − 1 (− 1) − 1(− 1) ] =
[1 − 1 0 − 1 ]

Operaciones Elementales sobre las filas de una matriz


Una forma práctica de hallar: el rango de una matriz, la inversa de una matriz, el
determinante de una matriz y la solución de un sistema de ecuaciones lineales; es reduciendo
una matriz dada en otra matriz equivalente, pero más simple, haciendo operaciones
elementales sobre las filas de la matriz dada.
Las operaciones elementales que se hacen sobre las filas de una matriz:
I. Permutar dos filas
II. Multiplicar a una fila por un escalar
III. Sumar a otra fila el múltiplo de otra fila. Combinando estas operaciones
elementales se reduce la matriz hasta convertirla en otra matriz equivalente
simple.

Matrices elementales
La matriz elemental se define de la siguiente manera:
Una matriz cuadrada E de n×n se denomina ​matriz elemental ​si se puede obtener a
partir de la matriz identidad ( I n ) de n×n mediante una sola operación elemental con
renglones.
Una matriz elemental se denota por E , o por P ij de acuerdo con la forma en que se

obtuvo de I . En este caso P ij , que vendría a ser la matriz de permutación, es la matriz

obtenida a partir del intercambio de los renglones de i y j de I .


Ejemplo:
Obtenga tres matrices elementales de 3×3 .
1.- (1 0 0 0 1 0 0 0 1 ) R2 →5R2 (1 0 0 0 5 0 0 0 1 ) = 5R2
2.- (1 0 0 0 1 0 0 0 1 ) R3 → R3 − 3R1 (1 0 0 0 1 0 − 3 0 1 ) = R3 − 3R1
3.- (1 0 0 0 1 0 0 0 1 ) R2 ⇌R3 (1 0 0 0 0 1 0 1 0 ) = P 23
16

Equivalencia de matrices
Diremos que la matriz B​m×n es
​ equivalente a la matriz A​m×n si
​ y solo si, B puede
obtenerse efectuando un número finito de operaciones elementales sobre A.
Notación​:
B ~A se lee “B es equivalente a A”

Matriz equivalente por filas


Suponga que la matriz A se puede transformar en la matriz B mediante operaciones con
renglones. Entonces se dice que A y B son equivalentes por renglones​.

Sistemas lineales
Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales que tienen mas de
una incógnita. Las incógnitas aparecen en varias de las ecuaciones, pero no necesariamente
en todas. Lo que hacen estas ecuaciones es relacionar las incógnitas entre sí.

Clasificación de los sistemas de ecuaciones:


Dado el sistema
ax + by = c
mx + ny = p

Sistema compatible determinado


✔ La solución es única
✔ (a ÷ m) es diferente de (b ÷ n)
✔ Graficamente las rectas se cortan en un punto

● Las rectas tienen distintas pendientes

Sistema compatible indeterminado


✔ Tienen infinitas soluciones
✔ (a ÷ m) es igual a (b÷ n) y es igual a (c ÷ p)
✔ Gráficamente las rectas estan superpuestas
17

Sistema incompatible
✔ No tiene solución
✔ (a ÷ m) es igual (b ÷ n) diferente a (c ÷ p)

✔ Gráficamente las rectas son paralelas

La teoría de las matrices y de los determinantes se originó por la necesidad de resolver


ecuaciones lineales simultáneas y de tratar mediante una notación coherente las
transformaciones lineales de un conjunto de variables en un segundo conjunto de variables.
En los primeros pasos del álgebra elemental nos encontramos con sencillas ecuaciones de
primer grado, de la forma:
ax=h
Luego se desarrollaron m ecuaciones con n incógnitas y las notaciones cambiaron como
sigue:

a​11​x​1​ + a​12​x​2 ​+ ……. + a​1n​x​n ​= b​1


a​21​x​1 +
​ a​22​x​2 +
​ ……. + a​2n​x​n =
​ b​2

. .
. .
. .
a​m1​x​1 +
​ a​m2​x​2 +
​ …… + a​mn​x​n =
​ b​m
18

que luego se lograron escribir de forma matricial por la facilidad para poder trabajar
con esta herramienta y llegar a una solución.

Matriz escalonada en sistemas lineales


Definición: La matriz A ϵ M​mxn está en forma escalonada si se cumplen las siguientes
dos definiciones:
● Las filas nulas (si existen) están por debajo de las filas no nulas.
● El primer elemento distinto de cero de cada fila no nula está a la derecha del
primer elemento diferente de cero de las filas precedentes.
Definición: Al primer elemento distinto de cero de cada fila no nula, de una matriz, en
forma escalonada, se le llama pivote.
Definición: Un sistema ​Hx=C está escalonado si la matriz ampliada [H I c] es una
matriz escalonada. A los variables que corresponden a pivotes en un sistema escalonado se
les llamarán ​variables ligadas y​ a las restantes ​variables libres.
Ejemplo:
[1 3 5 0 5 2 0 0 4 −2 5 6]
Se observa que hay pivotes en las columnas x​1​, x​2​ y x​3. Así
​ que son variables ligadas.
Observación: Para resolver un sistema escalonado al hacer sustitución regresiva, se
despejan las variables ligadas en función de las variables libres procediendo de abajo hacia
arriba, en el caso que el sistema tenga variables libres; en caso que no los tenga simplemente
se despeja las variables ligadas de igual forma (de abajo hacia arriba).

Análisis de la matriz escalonada para el tipo de soluciones del sistema


1. Ax=b es inconsistente si y solo si [H/c] tiene una fila de ceros en el lado izquierdo y
un elemento no nulo en el lado derecho de la partición. (Ejemplo 3)
2.Ax=b tiene solución única si y solo si es consistente y [H/c] tiene pivote en todas las
columnas en el lado izquierdo de la partición. (Ejemplo 1)
3 Ax=b tiene infinidad de soluciones si y solo si es consistente y [H/c] no tiene pivote
en alguna columna en el lado izquierdo de la partición. (Ejemplo 2)
[− 5 − 1 3 3 035 8002 −4]

[1 − 3 0 5 0 4 0 0 1 2 0 − 7 0 0 0 0 1 1 0 0 0 0 0 0 ]
19

[1 − 3 5 3 0 1 2 2 0 0 0 − 1 ]
Matriz Inversa
Definición: Una matriz se llama inversible, si existe una matriz cuadrada tal que
AB=I=BA, entonces se puede afirmar que B es la inversa de A, sino solamente cualquiera de
ellas.
Definición: Sea A ϵ K​nxn ​una matriz tal que L​A: K​nx1 ​
K​nx1 es inyectiva, entonces
existen matrices elementales E​j; tales
​ que:
E​k​E​k-1​...E​1​A=I

Cálculo de la inversa mediante operaciones elementales


Sea A ϵ K​nxn una matriz cuya inversa deseamos hallar. Para tal efecto consideramos la
matriz de orden nx2n
[A|I]
Luego procedemos a multiplicar, por la izquierda, por matrices elementales E​1,​E​2​,…,E​K,
de tal modo que en la matriz
[E​k​E​k-1​...E​1​A| E​k​E​k-1​...E​1​]
Ocurra E​k​E​k-1​...E​1​A=I, y por lo tanto
A​-1​= E​k​...E​1
Ejemplo: Hallar la inversa de:
A= [3 4 5 7 ]
Construimos
[A|I] = [3 4 1 0 5 7 0 1 ] = [1 1 7 − 4 0 1 − 5 3 ] = [I|B]
Siendo B=A​-1
20

La inversa de una matriz elemental


Veamos los siguientes ejemplos
[1 0 0 0 k 0 0 0 1 ] [1 0 0 0 1/k 0 0 0 1 ] = [1 0 0 0 1 0 0 0 1 ] ……... (1)
[1 0 0 0 1 0 k 0 1 ] [1 0 0 0 1 0 − k 0 1 ] = [1 0 0 0 1 0 0 0 1 ] ………. (2)
[1 0 0 0 0 1 0 1 0 ] [1 0 0 0 0 1 0 1 0 ] = [1 0 0 0 1 0 0 0 1 ] …………... (3)
De 1, 2 y 3 podemos concluir que la inversa de una matriz elemental es otra matriz
elemental. Lo cual resumiremos en el siguiente cuadro.

Al 
Multipli
multipli Representac
Matriz  car A 
Representac
car A  ión de la 
elemental  por la ión 
por la  operación 
E  izquierd
simbólica 
izquierd inversa 
a por E  −1
a E  
Multipli Multipli
 
ca la fila  ca la fila 
Multiplicaci cRi  (1/c)Ri 
i de A  i de A 
ón 
por c ≠0  por 1/c 
Multipli Multipli
ca la fila  ca la fila 
 
i de A  i de A 
  Rj + cRj  Ri-cRj 
por c y  por -c y 
Suma 
lo suma  lo suma 
a la fila j  a la fila j 
  Permuta  Permuta 
Permutació las filas i  Pij  las filas i  Pij 
n  y j de A  y j de A 
 
Teorema: 
Si a una matriz A de tamaño m×n se le aplica una operación de renglón, la matriz
resultante es el producto E A , donde E es la matriz elemental m×m que se obtiene de la
identidad I m al aplicarle la misma operación de renglón.
Matriz elemental y matriz inversa 
Teorema: una matriz cuadrada es invertible si y solo si es el producto de matrices
elementales.
21

Demostración.
Se A = E​1.​E​2​……….E​m donde E​i es una matriz elemental. Por el teorema (AB)​-1​= A​

-1​ -1
B​
podemos afirmar que A tiene inversa debido a que cada E​i ​es invertible y la inversa de A sería
el producto de las inversas de cada E​i​.
A = E 1−1 E 2−1 ……E −1
m

Por otra parte, si A es una matriz invertible entonces A es equivalente por reglones a I
en tal caso a A se puede reducir a I mediante un número finito de operaciones elementales lo
cual equivale a multiplicar a A por una serie de matrices elementales.
E​m​E​m-1​……..E​2​E​1​A=I
Basándonos en el siguiente teorema AB=I entonces B=A​-1 de donde podemos concluir
que A−1 = E m··· . . . E 2 E 1 y como la inversa de una matriz elemental es otra matriz elemental
podemos escribir A de la siguiente manera.
−1
A = (A−1 ) = E −1
m ………E 2 E 1

Matriz inversa y sistemas lineales


Las siguientes proposiciones son equivalentes:
I. A es una matriz invertible
II. La única solución al sistema homogéneo es AX=0 es (X=0).
III. Es sistema AX=B tiene solución única para cada vector de dimensión nB y la
solución al sistema es la siguiente X=BA​-1

Matrices elementales y matrices cuadradas


Teorema: 
Si A es una matriz cuadrada entonces A se puede escribir como el producto de matrices
elementales y una matriz triangular superior U. por conveniencia se escribe las E​i a​ la
izquierda y U a la derecha. A=E​m​……E​2​E​1​U
Demostración: para resolver un sistema de ecuaciones lineales reducimos a una matriz
A hasta su forma escalonada, pero en el caso de las matrices cuadradas su forma escalonada
es una matriz triangular superior (U).

Por tanto, tendríamos la siguiente expresión:  


U=E​m​……E​2​E​1​A pero como la inversa de una matriz elemental es otra matriz elemental
entonces A = E 1−1 E 2−1 ……E −1
m U
22

Factorización LU de una matriz


Mediante la factorización LU se escribir una matriz cuadrada como un producto de una
matriz triangular inferior (con diagonal principal de unos) por una matriz triangular superior.
Esta factorización resulta útil para resolver sistemas lineales con una computadora y se puede
utilizar para probar resultados importantes sobre matrices. Para ellos haremos uso de la
eliminación gaussiana.

En ese proceso se puede reducir una matriz a la forma escalonada por renglones.
Recuerde que la forma escalonada por renglones de una matriz cuadrada es una matriz
triangular superior con unos y ceros en la diagonal principal. A manera de ejemplo, la forma
escalonada por renglones de una matriz de 3×3 se ve como sigue:
(1 x x 0 1 x 0 0 1 ) o (1 x x 0 1 x 0 0 0 ) o (1 x x 0 0 1 0 0 0 ) o
(1 x x 0 0 0 0 0 0 ) o (0 1 x 0 0 1 0 0 0 )

(0 0 1 0 0 0 0 0 0 ) o (0 0 0 0 0 0 0 0 0 )

Para los propósitos de esta sección se pretende reducir por renglones una matriz a la
forma triangular superior donde los números diferentes de cero en la diagonal principal no
son necesariamente unos. Esto se logra no insistiendo en que cada pivote sea igual a 1.
Ejemplo:
Encuentre la factorización LU de la matriz A .
A = (2 3 2 4 4 10 − 4 0 − 3 − 2 − 5 − 2 − 2 4 4 − 7 )
Reducir A por renglones a una matriz triangular superior y después escriba como un
producto de una matriz triangular inferior y una matriz triangular superior.
Solución:
(2 3 2 4 4 10 − 4 0 − 3 − 2 − 5 − 2 − 2 4 4 − 7 ) R2 − 2R1 R3 − 12 R1 R4 − R1
(2 3 2 4 0 4 − 8 − 8 0 5/2 − 2 4 0 7 6 − 3 ) R3 − 52 R2 R4 − 74 R2
23

20
(2 3 2 4 0 4 − 8 − 8 0 0 3 9 0 0 20 11 ) R4 − R
3 3

(2 3 2 4 0 4 − 8 − 8 0 0 3 9 0 0 0 − 49 ) = U

Mediante el uso de matrices elementales nos quedaría de la siguiente manera:


U = (1 0 0 0 0 1 0 0 0 0 1 0 0 0 − 20/3 1 ) (1 0 0 0 0 1 0 0 0 0 1 0 0 − 7/4 0 1 ) (1 0 0 0 0 1 0 0 0 − 5/8
o
A = (1 0 0 0 2 1 0 0 0 0 1 0 0 0 0 1 ) (1 0 0 0 0 1 0 0 − 3/2 0 1 0 0 0 0 1 ) (1 0 0 0 0 1 0 0 0 0 1 0 − 1 0 0

Como se puede observar, se ha escrito un producto de seis matrices elementales y una


matriz triangular superior. Sea L el producto de las matrices elementales. Debe verificar que
L = (1 0 0 0 2 1 0 0 − 3/2 5/8 1 0 − 1 7/4 20/3 1 ) , que se trata de una matriz triangular
inferior con unos en la diagonal principal.
Después de escribir A = LU , donde L es triangular inferior y U es triangular superior.
Los elementos de la diagonal de L son todos iguales a 1 y los elementos de la diagonal de U
son los pivotes. Esta factorización se llama factorización LU de A .

Teorema de la factorización LU
Sea A una matriz cuadrada ( n×n ) y suponga que A se puede reducir por renglones a
una matriz triangular U sin hacer alguna permutación entre sus renglones. Entonces existe
una matriz triangular inferior L invertible con unos en la diagonal tal que A = LU . Si,
además, U tiene n pivotes (es decir, A es invertible), entonces esta factorización es única.

Matriz Asociada a una Transformación Lineal

Dados ​V y​ ​W d​ os Ҝ-espacios vectoriales de dimensiones ​n y​ ​m, r​ espectivamente, y Γ = {ʋ​1​,


,ʋ​n}​ ​una base de V, ​Ω​ = {​w1​ ​, ​,w​m​} ​una base de ​W. ​Si ​T:V​→​W ​es una transformación lineal,
las fórmulas
m
T (v i ) = ∑ aij wi , j = 1, 2, …., n
i=1

determinan la matriz:
[ ]
A = aij ∈ Ҝmxn

la que se llama matriz asociada a ​T ​en las bases Γ y Ω.


24

​ 2​​ ​→​R3​​ la transformación lineal definida por


Ejemplo. Sea ​T: R
T(x,y) = (x + y,x-y,2x-3y​).
Calculemos las matrices asociada a ​T ​en dos bases distintas.

1. En las bases canónicas {e​1​, ​e​2​} de R​2​ y { e1′ , e2′ , e3′ } de R​3​, tenemos
T(e​1)​ ​= (1,1,2) = e1′ + e2′ + 2e3′
T(e​2)​ ​= (1, -1, -3) = e1′ − e2′ − 3e3′ .

Luego
A = [1 1 1 − 1 2 − 3 ]

es la matriz asociada a ​T ​en las base canónicas de R​2​ y R​3

2. Ahora consideremos otras bases de R​2​ y R​3​, por ejemplo:


{ʋ​1​ = (3,5), ʋ​2​ = (2,3)} base de R​2​,
y
{​w1​ ​ = (3,1,2), ​w​2= ​ —1,1, —1), ​w3​ =
​ ( ​ ​(2,1,1)} base de R​ .
3​

Entonces
T(​ʋ​1​) = (8,-2,-9)​ ​= -45​ w​1-19​
​ w2​ +
​ 62​ w3​
T(​ʋ​2​) = ​(5,-1,-5) ​= ​- ​26​ w​1​ -11​ w​2 ​+​36​ w​3
Luego, la matriz asociada a ​T e​ n las bases {ʋ​1​, ʋ​2​} y {​w1​ ​ , ​w2​ ​, ​w​3}​ ​ e​ s
B = [− 45 − 26 − 19 − 11 62 36 ]

Como puede notarse en este ejemplo, las matrices asociadas a una transformación lineal
son muchas.
Proposición 3.5.1. ​Con las notaciones dadas al inicio de esta sección, la aplicación
ϕ​:​L (​ V,W)​→​ Ҝmxn
​Τ→ A
establece un isomorfismo (canónico) entre K-espacios vectoriales.

Demostración.
La aplicación ​ϕ​ e​ s una transformación lineal, como se comprueba fácilmente. Los conjuntos
L (​ V,W) y Ҝmxn son espacios de igual
dimensión (​mn)​ . Luego, para probar que ϕ ​ ​ e​ s un isomorfismo, será suficiente establecer que
ϕ​ e​ s inyectiva.

Si ​ϕ​ (T) =
​ A = 0 (matriz cero), entonces los coeficientes en la representación de ​T(ʋ​ ​i​) ​son
todos ceros, es decir ​T(​ʋ​i​) = 0​ , para cada ​j =
1,2, ,n. Como ​T ​se anula en una base, entonces ​T = 0​ . Por lo tanto,
N(​ϕ)​ ={0} Esto prueba que ​ϕ​ ​es inyectiva, y por lo que se dijo líneas atrás, es un
isomorfismo.
El isomorfismo ​ϕ​ t​ iene también la siguiente importante propiedad:

Proposición 3.5.2. ​La composición de transformaciones lineales


25

U L→ V T → W

es llevada por ​ϕ​ al producto de sus matrices asociadas, esto es,


ϕ​ (T o L) = ​ϕ​ (T).​ϕ​ (L).

Demostración.
Dadas {u​1​,…..,u​p​}, { ʋ​1​,. , ʋ​n​} y {​ w1​ ;​ . ,​ wm​ ​} bases
de ​U, V y​ ​W, ​respectivamente, se tiene que
n
L (uk ) = ∑ bjk ʋj , k = 1, 2, …., p
j=1

m
( )
T v j = ∑ aij wi , j = 1, 2, …., n
i=1

Luego

T o L (uk ) = T ( n
∑ bjk ʋj
j=1
) n
= ∑ bjk T (ʋj ) = ∑ bjk
j=1
n

j=1
(
m
∑ aij wi
i=1
)
m n
= ∑ ( ∑ bjk a )wi
i=1 j=1 ij

Por otro lado,


m
T o L (uk ) = ∑ cik wi , para k=1,2,….,p
i=1
Así,
n
cik = ( ∑ bjk a = (A .B )ik
j=1 ij

Esto prueba que


A o L = [cik ] = A .B

​ ​V s​ e calcula con
Cuando V = W, la matriz asociada a una transformación lineal ​T: V →
respecto a una sola base {ʋ​1​, ​,ʋ​n}​ ​y así
m
( )
T v j = ∑ aij ʋi , j = 1, 2, …., n
i=1

En este caso, el isomorfismo


​ nd(V) ​→ Ҝnxn (End(V)=​ L (​ V,V))
ϕ​ E

no sólo posee las propiedades de una transformación lineal, sino que respeta el producto, pues
​ ​ ​ϕ​ (T) ​ϕ​ (L), p​ ara todo ​T,L∈
ϕ​ (T o L) = ​ ​End(V).

Proposición 3.5.3.
Sea V un espacio vectorial con d​ im ​V ​=​ n, T ​∈​ End(V) ​y A la matriz asociada a T en
alguna base. Entonces T es un isomorfismo si y sólo si A es inversible.
26

Demostración.
Supongamos que ​T e​ s un isomorfismo, entonces es inversible (proposición 2.3.4), luego
​ ​ End(V) tal que ​LoT = I = ToL. A
existe ​L ∈ ​ plicando ϕ
​ ​ t​ enemos que
AL . A =​ I =​ ​ A .AL ( AI =​ I)​ .
Así, A es inversible.

Proposición

Sean V y W dos K ​ ​-espacios de dimensión finita, con sendas bases ​{ʋ​1​, ​,ʋ​n}​ y {​ ​ w​1​; . ,​ wm​ ​}, ​y
nx1 mx1
Ҝ , Ҝ con las bases canónicas {​ e​1​,……, ​e​n​}, ​{ e1′ , ……., em′ , }, respectivamente.
Si T: V ​→​ W es una transformación lineal con matriz asociada A ​en las bases dadas,
entonces:
1 El diagrama de espacios vectoriales y transformaciones lineales

U L→ V

Ҝnx1 LA → Ҝmx1

donde
ϕ ( ʋIj ) =
​ ej ,​ para j=1,2,……,n

ϕ’(wi​ ​)= ei′ , para i= 1,………,m


es conmutativo.

2. rc​ (​ A ) =
​ dim[T(V)]

Demostración.
​ ​ y​ ​ϕ​ ' ​son isomorfismos definidos por
1. En primer lugar observamos que ϕ
n n m m
​ ∑ xj ej ,
ϕ​ ( ∑ xj ʋj ) = ​ϕ​’ ( ∑ y i wi ) ​= ∑ y i e′i ,
j=1 j=1 i=1 i=1

Por otro lado, las igualdades


m
( )
T v j = ∑ aij wi , j = 1, 2, …., n
i=1

definen la matriz A =[​ aij ]. Con estas notaciones, tenemos


m m
ϕ​’o T v j( ) ​ϕ​’ ( ∑ aij wi ) ​= ∑ aij e′i
i=1 i=1
m
LA o (v ) A (e ) ∑ a e′
j j
i=1
ij i
27

Así ​ϕ'​ o​ T( v j ) = LA o (v ) , p​ ara ​j = 1​ , , ​n. P​ or lo tanto, ​ϕ​’o T


j =
LA o . E​ sto prueba que el diagrama conmuta.
2. Las igualdades
( )
ϕ​’[ T v j ] A (ej ), p​ ara ​j =
​ 1, ,n,
​ A (Ҝnx1 ) es epiyectiva, y por lo tanto un isomorfismo, de donde
nos dicen que ​ϕ’​ :T(V) →
dim[T(V)] = dim( A (Ҝnx1 )) = ​r​c(​ A )

Matriz de Cambio de Base. Matrices Semejantes


Definición.

1. Dos matrices ​A,B ​∈​ Ҝmxn son equivalentes si existen matrices inversibles ​Q ​∈​ Ҝmxm y
P​∈ Ҝnxn tales que

B = QAP

2. Dos matrices ​A, B ​∈ Ҝnxn son semejantes si existe una matriz inversible ​P ​∈ Ҝnxn tal que
B = P-1​ ​AP.

3. Dos matrices ​A, B ​∈ Ҝnxn son congruentes si existe una matriz inversible ​P ​∈ Ҝnxn tal
que
B = ​tPAP.

Los conceptos de equivalencia y semejanza de matrices se presentan al estudiar las matrices


asociadas a una transformación lineal, mientras que la congruencia aparece cuando se
estudian las matrices asociadas a aplicaciones bilineales y formas cuadráticas.
Dadas las bases Γ = {ʋ​1​, ​,ʋ​n​} y​ ​Ω​= {​ w​1,…
​ . ..,​ wm​ ​}de un espacio V, las relaciones
n
v j = ∑ ij wi , j = 1, 2, …., n
i=1

n
wk = ∑ lk v k = 1, 2, …., n
i=1 l

determinan las matrices

P ​= [ ij ] y ​Q= [ lk ]

La matriz ​P ​se llama matriz de cambio de base de Γ en ​Ω​, y la matriz ​Q s​ e llama matriz de
cambio de base de ​Ω​en Γ.

Proposición​ ​Con las notaciones anteriores, se tiene:


1. PQ = I.
2. Pxv​ =
​ yv​ ​y Qy​v​ ​= ​x​v.​

Demostración.
28

1. En efecto,
n n n n n
vj = ∑ ij w i , ∑ ij ( ∑ lk v ) ∑ ( ∑ lk ij )v l
j=1 i=1 l=1 l l=1 i=1

Como los vectores v j ​son l.i., esta igualdad implica que


n
∑ lk ij = lj
j=1

donde lj e​ s el delta de Kronecker. Por otro lado,


n
(QP )lj ∑ lk ij
j=1

En consecuencia ​QP = I.

2. Se tiene que
n
v = ∑ y j wj
j=1

y
n n n n n
v = ∑ xi v i ∑ xi ( ∑ ij w j ) ∑ ( ∑ ij xi )w j
i=1 i=1 j=1 j=1 i=1

Igualando los dos valores de ​v, o​ btenemos


n
y j ∑ ij xi (P xv )j para j = 1, 2, …., n
i=1

Luego ​Px​v=
​ yv​ ​. ​Aplicando (1) se obtiene que ​Qy​v​ ​= ​x​v

Proposición
​ on las notaciones dadas, se tiene que
C
A = Q​-1 B P

Demostración.

Calculamos
m m n n m
( )
T v j = ∑ aij wi = ∑ aij ( ∑
i=1 i=1 k=1
ki e′ ) ∑ ( ∑
k k=1 i=1
ki aij )e′k

n n m m n
( )
T vj = ∑
l=1
lj T (el ) ∑
l=1
lj ( ∑ bkl e′k ) ∑ ( ∑
k=1 k=1 l=1
lj bkl )e′k

Comparando estas dos expresiones para T v j , ( )


29

m n
∑ ki aij ∑ lj bkl
i=1 l=1

lo que significa que


(​Q A )​kj​ =
​ ( B P​)kj,
​ ​ ​Para ​k = ​1,... ,m, ​j =
​ 1,..., n.

Por lo tanto,
QA = ​ B P

Teorema del Rango


 
El Teorema del Rango (de una matriz) establece que el rango por filas es igual al
rango por columnas. De hecho, para una matriz ​A ∈ ​ Ҝmxn , sabemos que el espacio
de filas

F ​(​A)=
​ ​ L​{​ a​1,…
​ . ..,​ am​ }​
 
es un subespacio de Ҝ1xn , mientras que el espacio de columnas

C (​A)​=​ L​{​ A1​ ,…


​ . ..,​ An​ }​

es un subespacio de Ҝmx1 . Como los enteros m​≥​1, n​≥​1 son arbitrarios, los
espacios F
​ (
​ ​A) ​y ​C (​A) s​ on distintos en general, pero

dim​ F ( ​ dim ​C (​A)


​ ​A)=

Con la notación conocida ​rf​ ​(A) ​= dim  F  ​(​A) ​para el rango por filas de ​A, ​y
r​c​(A)​=​ dim ​C (​A)​ para el rango por columnas de ​A.

Proposición 3.7.2. ​Dada una matriz A ​∈ Ҝmxn , ​sea N(A) = {x ​∈ Ҝnx1 /​Ax ​= 0}.

Entonces

n = d​ imN(A) + ​rc(A).

Demostración.
​Consideremos la transformación lineal
LA : ​ Ҝnx1 →​ Ҝmx1 , definida por

​ ​Ax, ​donde ​x​∈ Ҝnx1 , que en función de las columnas de ​A, s​ e puede escribir
LA (x) =
como
30

n
( )∑xA
La v j
j=1
j j

Esto nos permite afirmar que

Im( LA )=​ L​ {​ ​ A​1,…


​ . ..,​ A​n}​

y p​ or lo tanto ​rc​ ​(A) ​= dim lm( LA ).


Luego, por la proposición 2.1.8, se tiene que
n ​= dim N( LA )+ dim lm( LA )= dim N(A) + r​c​(A).
Proposición 3.7.3. Dadas A ,B ∈ Ҝmxn , son equivalentes los siguientes enunciados:
1. A y B son equivalentes.
2. A y B son asociadas a una misma transformación lineal.
3. r(A) =r(R).

Demostración.

​ Ҝnxn " y ​Q ​∈ Ҝmxm tales que


1 =>2) Por hipótesis, existen matrices inversibles ​P ∈
A=​Q-1​​ BP​.
Los vectores columna de P, ʋ​1​,…, ʋn, constituyen una base de Ҝnx1 y, a su vez, los
vectores columna de Q w1​ ​,…, w​m,​ constituyen una base de Ҝmx1 . Por otro lado,
consideremos las bases canónicas (e​1​,……, ​e​n)​ de Ҝnx1 y { e1′ , ……., em′ } de Ҝmx1 , entonces
P es la matriz de cambio de base de { v j } en {e​j​} y Q es la matriz de cambio de base de {​w​i}​
en { ei′ }

La transformación lineal
LB : Ҝnx1 → Ҝmx1

definida por LB (x) = Bx

tiene por matriz asociada, respecto a las bases canónicas, justamente B.


Mostrar que la matriz asociada a LB en las bases { v j }, {​wj​ ​} es precisamente A.
Esto resulta de lo siguiente:

Sea C la matriz asociada a LB en las citadas bases, entonces por la proposición 3.6.2

QC = BP.

Pero por hipótesis QA = BP, de donde QC = QA y luego C=Q​-1​(QA) = Q​-1​QA = A.


Esto prueba que ​A e​ s una matriz asociada a la transformación lineal LB

2 ⇒3) Si ​A y B ​son asociadas a la transformación lineal ​T : V → W, e​ ntonces existen


matrices inversibles ​P ∈ Ҝnxn ​y Q ∈ Ҝmxm tales que
QA =BP​.

Luego
31

​ ​r(QA) = r(BP) = r(B),


r(A) =
pues el rango no varía al multiplica una matriz dada a derecha o izquierda, por una
matriz inversible.

​ xisten matrices inversibles ​P ∈ Ҝnxn , ​Q ​∈


​ ​p ​= ​r(B). E
3 ⇒1) Por hipótesis ​r(A) =
Ҝmxm tales que

P AQ = [I 0 0 0 ]

donde ​I e​ s la matriz identidad de orden ​p. A


​ nálogamente, existen matrices inversibles
P' y Q' ​tales que

Q′BP ′ = [I 0 0 0 ]
En consecuencia,

Q'BP'= QAP

de donde
​ sto prueba que ​Ay B s​ on equivalentes.
A = (Q​-1​Q')B(P,P​-1​)​. E

Bibliografía

También podría gustarte