Está en la página 1de 30

UNIVERSIDAD DE ORIENTE

ESCUELA DE ING. Y CS. APLICADAS


CARRERA DE LICENCIATURA EN INFORMÁTICA
ÁLGEBRA LINEAL

ESPACIO VECTORIAL Y ÁLGEBRA DE


MATRICES

JOSÉ G. HERNÁNDEZ S.
aprendizajestadistico@gmail.com

Guatamare, Venezuela
Octubre 2019
Índice general

Prólogo i

1. Espacios vectoriales 1
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Definiciones y estructuras algebraicas básicas . . . . . . . . . . . . . . . . . . 1
1.2.1. Ley de composición interna . . . . . . . . . . . . . . . . . . . . . . . 1
1.2.2. Grupo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.3. Anillo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4. Cuerpo y acción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Definición y propiedades del espacio vectorial . . . . . . . . . . . . . . . . . 7

2. Álgebra de Matrices 9
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Definiciones y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3. Suma de matrices y producto por escalares . . . . . . . . . . . . . . . . . . . 10
2.4. Produto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.5. Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7. Descripción del método Gauss-Jordan para hallar la inversa de una matriz
inversible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3. Sistema de ecuaciones lineales 17


3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2. Teoremas claves para la solución de un sistema de ecuaciones lineales . . . . 17

I
Prefacio

El álgebra lineal es una rama de las matemáticas que estudia conceptos tales como vectores,
matrices, espacio dual, sistemas de ecuaciones lineales y en su enfoque de manera más formal,
espacios vectoriales y sus transformaciones lineales.

Es un área activa que tiene conexiones con muchas áreas dentro y fuera de las matemáticas,
como la Estadı́stica Multivariada o Análisis Mutivariante, Modelo lineales Gene-
ralizados, Procesamiento Digital de Imágenes, Computación, Visión Robótica,
Ecuaciones Diferenciales, Investigación de Operaciones, Ingenierı́a, Fı́sica, Análsis Funcional,
entre otras.

Estas notas, basadas en los contenidos del programa de Álgebra Lineal (220-2733), están
destinadas a los alumnos de la Licenciatura en Estadı́stica de la Escuela de Ingenierı́a y
Ciencias Aplicada de la Universidad de Oriente y, es un extracto de la literatura habitual en
el tema. Este escrito pretende ser una introducción básica al Álgebra Lineal que se ajusta a
los contenidos curriculares del curso 220-2733 y, al mismo tiempo, una guı́a de estudio para
los alumnos de la carrera antes citada y afines.

Se comienza con las definiciones básicas de estructuras algebraicas necesarias para definir
la noción de espacio vectorial para luego, operar sobre el particular espacio vectorial de las
matrices: suma y producto y, resolver sistema de ecuaciones lineales.

JOSÉ G. HERNÁNDEZ S.
aprendizajestadistico@gmail.com
Octubre 2019

i
Capı́tulo 1

Espacios vectoriales

1.1. Introducción
En diversos conjuntos conocidos, por ejemplo los de vectores en el plano o en el espacio (R2
y R3 ), o también los polinomios (R[X]), sabemos sumar sus elementos y multiplicarlos por
números. Todos estos conjuntos comparten cierta estructura, que está dada por esa suma y
ese producto por números, a la que llamaremos espacio vectorial. En este escrito presenta-
remos la noción de espacio vectorial y estudiaremos algunas propiedades básicas que poseen
los conjuntos con dicha estructura.

1.2. Definiciones y estructuras algebraicas básicas


1.2.1. Ley de composición interna
La noción de espacio vectorial requiere de dos conjuntos: un conjunto K (los escalares) y
otro conjunto V (los vectores). Estos dos conjuntos deben satisfacer ciertas propiedades que
esencialmente se refiere a que los elementos de V se pueden sumar entre sı́ y multiplicar por
elementos de K.

Comenzaremos dando algunas definiciones y estructuras previa para poder después presentar
la definición precisa de espacio vectorial.

Definición 1.2.1.1 (Operación o ley de composición interna) Sea A un conjunto no


vacı́o. Una operación o ley de composición interna (operación binaria) de A es una función
∗ : A × A → A.

Notación: ∗(a, b) = c se escribe a ∗ b = c.

Ejemplos.

+ : N × N → N, tal que +(a, b) = a + b, es una operación de N.

1
2

Como la resta, −(a, b) = a − b, no es una función de N × N → N, entonces no es una


una operación de N.

La suma +, el producto . y la resta - son operaciones de Z, Q, R, C.

No nos interesaremos por operaciones cualesquiera, sino que trabajermos con operaciones
que poesan algunas propiedades. Entre las propiedades que analizaremos se encuentran las
siguientes:

Definición 1.2.1.2 (Propiedades básicas) Sea ∗ : A × A → A una operación.

i) * se dice asociativa si (a ∗ b) ∗ c = a ∗ (b ∗ c) ∀a, b, c ∈ A.

ii) Se dice que * tiene elemento neutro si ∃e ∈ A tal que e ∗ a = a ∗ e = a para cada a ∈ A.
(Note que si * tiene elemento neutro, éste es único, ya que si e y e0 son elementos
neutros, e0 = e ∗ e0 = e. El Prof. explicará en clase con más detalle está declaración).

iii) Si * tiene elemento neutro e, se dice que todo elemento tiene inverso para * si ∀a ∈ A,
∃a0 ∈ A tal que a ∗ a0 = a0 ∗ a = e.

iv) * se dice conmutativa si a ∗ b = b ∗ a ∀a, b ∈ A.

Se pueden estudiar las caracterı́sticas que comparten los conjuntos con una operación que
satisface algunas de estas propiedades. Una noción útil es la de grupo, que definimos a
continuación.

1.2.2. Grupo
Definición 1.2.2.1 (Grupo/Grupo abeliano) Sea A un conjunto, y sea * una operación
en A que satisfaace las propiedades i), ii) y iii) de la definición anterior. Entonces (A, ∗) se
llama un grupo. Si además * cumple iv), se dice que (A, ∗) es un grupo abeliano o grupo
conmuntativo.

Ejemplos.

(N, +) no es un grupo: se puede probar que no tiene elemento neutro.

(Z, +), (Q, +), (R, +) y (C, +) son grupos abelianos.

(Z, .) no es un grupo: se puede probar que sólo 1 y -1 tienen inverso multiplicativo.

(Q − {0}, .), (R − {0}, .) y (C − {0}, .) son grupos abelianos.

A = {f : R → R}, ∗ = ◦ (composición de funciones). Entonces (A, ∗) no es un grupo:


las únicas funciones con inversa para ◦ son las biyectivas.

SR = {f : R → R : f es biyectiva}, ∗ = ◦. Entonces, (SR , ◦) es un grupo.


3

C un conjunto, P(C) = {S ⊆ C}. Se define la operación M: P(C) × P(C) → P(C),


llamada diferencia simétrica, de la siguiente forma:

A M B = (A ∪ B) − (A ∩ B)
.
Entonces, (P(C), M) es un grupo abeliano.

A partir de la definción de grupo pueden probarse propiedades que poseen todos los conjuntos
con esa estructura. Por ejmplo:

Sea (G, ∗) un grupo. Entonces para cada a ∈ G existe un único inverso para a.

Sea e el elemento neutro de (G, ∗). Supongamos que b y c son inversos de a. Entonces

b = e ∗ b = (c ∗ a) ∗ b = c ∗ (a ∗ b) = c ∗ e = c
Notación. Si G es un grupo abeliano y la operación se nota +, el elemento neutro se notará 0
y, para cada a ∈ G, el inverso de a se notará −a. En otros casos, el elemento neutro se nota
1 y el inverso de a se nota a−1 .

1.2.2.1. La estructura de grupo en el procesamiento de imágenes digitales


Veamos un ejemplo de la utilidad de la estructura algebraica de grupo en el ámbito del
procesamiento de imágenes digitales. Para ello usaremos la noción de matriz cuya definición
precisaremos más adelante.

Podemos definir una imagen como una función bidimensional f (x, y) donde x e y son las
coordenadas espaciales, y el valor de f en cualquier par de coordenadas (x, y) es la in-
tensidad de la imagen en dicho punto.

Una imagen puede ser continua con respecto a x e y, y también en intensidad (imágen
analógica). Convertir esta imagen a formato digital requiere que tanto las coordenadas como
la intensidad sean digitalizadas. Digitalizar (discretizar) las coordenadas se llama muestrear,
mientras que digitalizar la intensidad se llama cuantificación. Entonces, cuando todas las
cantidades son discretas, llamamos a la imagen una imagen digital.

El resultado de muestrear y cuantificar es una matriz de números reales. El tamaño de la


imagen es el número de filas por el número de columnas, N × M . La indexación de la imagen
sigue las convenciones siguientes. La indexación habitual es
 
g(0, 0) g(0, 1) g(0, 2) ... g(0, M )
 g(1, 0) g(1, 1) g(1, 2) ... g(1, M ) 
g(i, j) = 
 ...

... ... ... ... 
g(N, 0) g(N, 1) g(N, 2) ... g(N, M )
4

A cada valor de esta matriz se le denomina elemento de la imagen o pı́xel (del inglés piture
element). Por ejemplo, para una matriz de 8 bits, los elementos de la matriz son enteros
que están en un rango de [0, ..., 255] y se pueden representar de forma compacta como (gij ),
0 ≤ i ≤ N − 1, 0 ≤ j ≤ M − 1, donde N y M deben ser números enteros positivos. Este
esquema corresponde a las coordenadas espaciales que se ilustran en la Figura 1.1.

Figura 1.1: Coordenadas espaciales empleadas en la representación de la imagen digital

Por las condiciones electrónicas del hardware la cuantificación de los niveles de grises, L, se
dan en potencia de 2, por lo que se tiene:

L = 2B
donde B es el número de bits de la imagen. Se asume que los niveles de grises están igualmente
espaciados y que son números enteros en el intervalo [0, L − 1] donde el 0 es el nivel de gris
más oscuro mientras que L − 1 es el nivel de gris más claro. Ası́ para el ejemplo anterior
B = 8 bits significa L = 256 niveles de grises. El número de bytes para almacenar una
imagen digital será:

bytes = N × M × B
Por ejemplo, una imagen de 1024 × 1024 × 8 bits/pı́xel se requiere de 1 Mb de memoria para
poder ser alamacenada.

Corrección de imágenes digitales

El desplazamiento del histograma se usa para aclarar u oscurecer una imagen pero mante-
niendo la relación entre los valores de gris. Esta operación puede llevarse a cabo por la simple
adición o sustracción de un número fijo a todos los valores del nivel de gris como sigue,

g(i, j) = f (i, j) + DES (1.1)


la ecuación anterior no es más que la suma de dos matrices. Ası́, para todo 0 ≤ i ≤ N − 1,
0 ≤ j ≤ M − 1, f (i, j) es un elemento de la imagen original, DES es un valor constante
que suma a cada elememto f (i, j) y, g(i, j) es el pı́xel de la imagen corregida que resulta de
5

la modificación de la intensidad del brillo del elemento f (i, j). En esta ecuación se asume
que los valores que sobrepasen el máximo y el mı́nimo se redondean al máximo y mı́nimo
posibles permitidos. Un valor DES positivo incrementa el brillo de la imagen, mientras un
valor negativo la oscurece.

Supongamos que G es una imagen digital de una escena con poco o mucho brillo. ¿Podemos
explicar en términos matemáticos el proceso de corrección del brillo de esa imagen? Definiti-
vamente si, y esto pasa por el hecho de que el desplazamiento del histograma de una imagen
digital es representada por la suma de matrices, (1.1), lo cual tiene una estructura de grupo.

El conjunto de matrices sumables de orden N × M con elementos reales, denotado RN ×M ,


constituyen un grupo abeliano bajo la suma habitual de matrices, (RN ×M , +). Si consideramos
G la matriz asociada a la imagen con el brillo distorcionado y F la matriz asociada a la imagen
con el brillo deseado, se sigue de la ecuación (1.1):

G = F + DES (1.2)
Se desprende de la ecuación (1.1) o (1.2) que F y DES son elementos del grupo (RN ×M , +),
por ende existe el inverso aditivo de esas matrices esto es, −F y −DES. Sumando en am-
bos lado de la ecuación (1.2) el inverso aditivo de F y considerando la conmutatividad y
asociatividad de la suma, obtenemos:

G − F = (F − F ) + DES = 0 + DES = DES =⇒ DES = G − F


Por lo tanto, podemos restaurar el brillo deseado a partir de la imagen G desplazando su
histograma del modo como se indica en la siguiente ecuación:

F = G − DES
donde DES = G − F .

La siguiente definición que daremos se refiere a conjuntos en los cuales hay dos operaciones
relacionadas entre sı́.

1.2.3. Anillo
Definición 1.2.3.1 (Anillo) Sea A un conjunto y sean + y . operaciones de A. Se dice que
(A, +, .) es un anillo si:

i) (A, +) es un grupo abeliano.

ii) . es asociativa y tiene elemento neutro.

iii) Valen las propiedades distributivas: Para a, b, c ∈ A,

a.(b + c) = a.b + a.c


(b + c).a = b.a + c.a
6

Si . es conmutativo, se dice que (A, +, .) es un anillo conmutativo.

Notación. Cuando quede claro cuáles son las operaciones + y ., para referirnos al anillo
(A, +, .), escribiremos simplemente A. Al elemento neutro del producto se lo notará 1.

Ejemplos.

(Z, +, .), (Q, +, .), (R, +, .) y (C, +, .) son anillos conmutativos.

Si (A, +, .) es un anillo conmutativo, entonces (A[X], +, .) es un anillo conmutativo con


las operaciones usuales de polinomios.

Si C es un conjunto, (P(C), M, ∩) es un anillo conmutativo.

{f : R → R} con las operaciones usuales de suma y producto de funciones es un anillo


conmutativo.

Al igual que en el caso de los grupos, también pueden probarse propiedades que poseen todos
los anillos: Sea (A, +, .) un anillo, y sea 0 el elemento neutro de +. Entonces 0 · a = a, ∀a ∈ A
(El Prof. explicará en clase los detalles de esta proposición).

Definición 1.2.3.2 (Dominio de integridad/Dominio ı́ntegro) Un anillo (A, +, .) se


llama un dominio de integridad o dominio ı́ntegro si a · b = 0 ⇒ a = 0 o b = 0.

Ejemplos.

(Z, +, .), (Q, +, .), (R, +, .) y (C, +, .) son dominios de integridad.

Si A es un dominio de integridad, entonces A[X] es un dominio de integridad.

La siguiente definición resume las propiedades que debe satisfacer uno de los conjuntos invo-
lucrados en la definición de un espacio vectorial.

1.2.4. Cuerpo y acción


Definición 1.2.4.1 (Cuerpo) Sea K un conjunto, y sean + y . operaciones de K. Se dice
que (K, +, .) es un cuerpo si (K, +, .) es un anillo conmutativo y todo elemento no nulo de
K tiene inverso multiplicativo. Es decir:

i) (K, +) es un grupo abeliano.

ii) (K − {0}, .) es un grupo abeliano, y

iii) vale la propiedad distributiva de . con respecto a +.

Ejemplos.

(Q, +, .), (R, +, .) y (C, +, .) son cuerpos.


7

Proposición 1.2.4.1 Todo cuerpo (K, +, .) es un dominio de integridad.

Para completar la definición de espacio vectorial necesitamos definir una clase especial de
funciones que se aplican a elementos de dos conjuntos distintos:

Definición 1.2.4.2 (Acción) Sean A y B dos conjuntos. Una acción de A en B es una


función · : A × B → B.

Notación: ·(a, b) = a · b

1.3. Definición y propiedades del espacio vectorial


Definición 1.3.0.1 (K-espacio vectorial) Sea (K, +, .) un cuerpo. Sea V con conjunto no
vacı́o, sea + una operación en V y sea . una acción de K en V . Se dice que (V, +, .) es un
K-espacio vectorial si se cumplen las siguientes condiciones:

i) (V, +) es un grupo abeliano.

ii) La acción · : K × V → V satisface:

(a) a · (v + w) = a · v + a · w ∀a ∈ K; ∀v, w ∈ V .
(b) (a + b) · v = a · v + b · v ∀a, b ∈ K; ∀v ∈ V .
(c) 1 · v = v ∀v ∈ V .
(d) (a · b) · v = a · (b · v) ∀a, b ∈ K; ∀v ∈ V .

Los elementos de V se llaman vectores y los elementos de K se llaman escalares. La acción


· se llama producto por escalares.

Observe que el sı́mbolo · se usa tanto para la acción de K en V como para el producto en
K, pero esto no deberı́a generar confusión puesto que en el primer caso estará aplicado a un
elemento de K y otro de V , mientras que el segundo, a dos elementos de K.

En lo que sigue, K denotará un cuerpo. Si (V, +, .) es un K−espacio vectorial y la operación


+ de V y la acción · de K en V quedan claras del contexto, diremos simplemente que V es
un K−espacio vectorial.

Hay propiedades que se cumplen en cualquier espacio vectorial. A continuación mostraremos


algunas de ellas.

Seaa V un K−espacio vectorial. Entonces

1. 0 · v = 0 para todo v ∈ V . (Observe que el elemento 0 que aparece en el miembro


izquierdo de la igualdad es el elemento neutro de K, mientras que el de la derecha es
el vector 0 ∈ V .)
8

2. (−1) · v = −v para todo v ∈ V . (Recuerde que −v denota el inverso aditivo de v).

El Prof. explicará en clase las pruebas de los incisos (1) y (2).

Conocida las propiedades del espacio vectorial, en el siguiente capı́tulo operaremos sobre ella,
en particular, sobre el espacio de las matrices.
Capı́tulo 2

Álgebra de Matrices

2.1. Introducción
En el capitulo anterior estudiamos las propiedades de la estructura algebraica conocida como
espacio vectorial. A continuación operaremos sobre ella, en particular, sobre el espacio de
matrices, las cuales estudiaremos con detalle, ası́ como ciertas matrices particulares que son
de gran utilidad en el Álgebra Lineal.

2.2. Definiciones y propiedades


Comenzaremos con la noción de matriz la cual fue expuesta informalmente en el capitulo
anterior.

Sean n, m ∈ N. El conjunto de las matrices de n filas y m columnas con coeficientes en un


cuerpo K es
  

 a 11 ... a1m 

K n×m
=  :
 . . . :  : aij ∈ K para todo 1 ≤ i ≤ n, 1 ≤ j ≤ m


 a 
n1 ... anm 

Para determinar una matriz en K n×m basta especificar, para cada 1 ≤ i ≤ n y 1 ≤ j ≤ m,


qué elemento de K se halla en el lugar ij (correspondiente a la intersección de la fila i y la
columna j) de la matriz. Por consiguiente, una matriz n × m sobre el cuerpo K es una
función A del conjunto de pares de enteros (i, j), 1 ≤ i ≤ n, 1 ≤ j ≤ m, en el cuerpo K. Los
elementos de la matriz A son los escalares Aij = (A)ij = aij .

Ejemplo. Sean n, m ∈ N, y sean 1 ≤ k ≤ n, 1 ≤ l ≤ m. Para un valor de k y l fijo, se define


la matriz E ∈ K n×m como
(
1 si i = ko y j = lo
(eij ) =
0 si i 6= ko o j 6= lo

9
10

Estas matrices se llaman las matrices canónicas de K n×m .

Una primera observación que debemos hacer se refiere a cómo determinar si dos matrices (de
las mismas dimensiones) son iguales:

Observación. Sean A, B ∈ K n×m . Entonces A = B si y sólo si aij = bij para cada 1 ≤ i ≤ n,


1 ≤ j ≤ m.

2.3. Suma de matrices y producto por escalares


Podemos definir una operación (suma) en K n×m y una acción de K en K n×m que transforman
a este conjunto en un K−espacio vectorial:

Definición 2.3.0.1 Se definen la suma de matrices y el producto por escalares como

+ : K n×m × K n×m → K n×m , A + B = (aij + bij ), (1 ≤ i ≤ n, 1 ≤ j ≤ m).

· : K × K n×m → K n×m , kA = (kaij ), (1 ≤ i ≤ n, 1 ≤ j ≤ m).

Es fácil verificar que (K n×m , +, .) es un K−espacio vectorial. En este sentido, el elemento


neutro en K n×m bajo la suma se conoce como matriz nula, esta es una matriz cuyo elementos
son todos cero y se denota 0. Por otra parte, el elemento neutro bajo la multiplicación es una
matriz cuadrada (n = m), denotada usualmente el número 1 o por la letra I o In , tal que
I = (δij ), donde δij es el δ de Kronecker, se conoce como la matriz identidad.

2.4. Produto de matrices


Definiremos ahora un producto que, dadas dos matrices A y B con coeficientes en K tales que
la cantidad de columnas de A es igual a la cantidad de filas de B, calcula una nueva matriz C.

Definición 2.4.0.1 (Producto de dos matrices) Sean A ∈ K n×m y B ∈ K m×r . Se defi-


ne el producto de A por B como la matriz C ∈ K n×r tal que
m
X
cij = aik bkj , 1 ≤ i ≤ n; 1 ≤ j ≤ r.
k=1

Analizaremos ahora algunas propiedades del producto de matrices y su relación con la suma
de matrices.

Proposición 2.4.0.1 (Propiedades del producto de matrices)


Dadas A ∈ K n×m , B ∈ K m×r y C ∈ K r×s , se tiene que (A · B) · C = A · (B · C) (Propiedad
asociativa).
11

Para cada n ∈ N, sea In ∈ K n×n . Entonces, si A ∈ K n×m , se verifica: In · A = A · Im = A.


La matriz In es la matriz identidad de K n×n .

Propiedades distributivas:

(a) Si A ∈ K n×m y B, C ∈ K m×r , entonces A · (B + C) = A · B + A · C.

(b) Si A, B ∈ K n×m y C ∈ K m×r , entonces (A + B) · C = A · C + B · C.

El Prof. demostrará en clase las dos primeras declaraciones de la proposición anterior. Luego,
quedará como ejercicio probar las propiedades distributivas.

Observe que, en particular, el producto de matrices está definido para cualquier par de
matrices en K n×n y, por lo tanto, se tiene una operación producto en K n×n para cada n ∈ N.
De la proposición anteriore se deduce:

Proposición 2.4.0.2 (K n×n , +, .) es una anillo.

Si bien el producto de matrices comparte muchas de sus propiedades con el producto usual
de números reales, hay propiedades que verifica éste que no son válidas para el producto de
matrices:
Observación. Dos de las propiedades que no se cumplen para el producto de matrices son
las siguientes:

El producto de matrices no es conmutativo. Aún en el caso de matrices cuadradas, en


 A·B 
el que siempre se puedencalcular y B · A,
 en general se tiene que A · B 6= B · A.
0 1 1 0
Por ejemplo, para A = yB= se tiene que
0 0 0 0
   
0 0 0 1
A·B = y B·A=
0 0 0 0

El hecho que A · B = 0 no implica A = 0 o B = 0. En el ejemplo anterior, A 6= 0


y B 6= 0, pero A · B = 0. Por tanto, (K n×n , +, .) no es un dominio de integridad o
dominio ı́ntegro.

El conjunto K n×n resulta ser a la vez un anillo y un K−espacio vectorial.

Concluimos esta sección introduciendo algunas nociones que nos serán de utilidad en lo
sucesivo:

Definición 2.4.0.2 (Transpuesta de una matriz) Sea A ∈ K n×m . Se llama matriz trans-
puesta de A, y se nota At , a la matriz At ∈ K m×n definida por (At )ij = Aji para cada
1 ≤ i ≤ m, 1 ≤ j ≤ n.

Seguidamente presentamos las propiedades básicas de la transpuesta. Suponemos que las


dimensiones de las matrices son adecuados para efectuar las operaciones.
12

1. (At )t = A;
2. (A + B)t = At + B t ;
3. (αA)t = αAt ;
4. (AB)t = B t At ;

Definición 2.4.0.3 Sea A ∈ K m×n . La conjugada de A la denotamos por A y se define


(A)ij = (A)ij . La transpuesta conjugada o transpuesta hermitiana, denotada por A∗ ,
se define como A∗ = At .

Las siguientes condiciones se cumplen:

1. A · B = A · B
2. (A∗ )∗ = A;
3. (αA)∗ = αA∗ ;
4. (AB)∗ = B ∗ A∗ .

Definición 2.4.0.4 (Diagonal principal) Sea A ∈ K n×n . La diagonal principal de la ma-


triz A contiene a todos los elementos (A)ii , es decir, los elementos que van desde la esquina
superior izquierda hasta la esquina inferior derecha de la matriz A.

Definición 2.4.0.5 (Matriz triangular) Una matriz A ∈ K n×n es triangular superior


si (A)ij = 0 para i > j.

Si S, T ∈ K n×n son triangulares superiores y α ∈ K:

1. S + T es triangular superior;
2. αS es triangular superior;
3. ST es triagular superior.

Definición 2.4.0.6 (Traza de una matriz)


Pn Sea A ∈ K n×n . Se llama traza de la matriz
A, y se nota tr(A), al escalar tr(A) = i=1 Aii .

2.5. Matrices inversibles


elemento no nulo de K n×n tenga inverso con respecto al producto. Por
No es cierto quetodo 
0 1
ejemplo: A = ∈ K 2×2 no tiene inversa. En efecto, A · B 6= I2 para toda matriz
0 0
B ∈ K 2×2 , puesto que (A · B)22 = 0 6= (I2 )22 para toda matriz B ∈ K 2×2 .

En esta sección nos ocuparemos de las matrices que si tienen inversa y veremos también cómo
hallar la inversa de una matriz en el caso en que ésta exista.
13

Definición 2.5.0.1 (Matriz inversible) Una matriz A ∈ K n×n se dice inversible si exis-
te una matriz B ∈ K n×n tal que A · B = B · A = In .

La matriz B de la definición es única y se nota B = A−1 . Esto será explicado con detalle en
clase.

Si A es inversible, entonces At es inversible y (At )−1 = (A−1 )t .

Para cada n ∈ N consideraremos el conjunto de todas las matrices inversibles en K n×n :

GL(n, K) = {A ∈ K n×n : A es inversible}.


Nos interesa estudiar la estructura de este conjunto.

Proposición 2.5.0.1 Para cada n ∈ N, se verifican las siguientes propiedades:

1. Si A, B ∈ GL(n, K), entonces A · B ∈ GL(n, K). Más aún, (A · B)−1 = B −1 · A−1 . En


particular, el producto de matrices · es un operación en GL(n, K).

2. In ∈ GL(n, K).

3. Si A ∈ GL(n, K) entonces A−1 ∈ GL(n, K).

En clases el profesor justifcará la proposición anterior que aunado a la asociatividad del


producto de matrices nos permite hacer la siguiente declaración:

Proposición 2.5.0.2 (GL(n, K), .) es un grupo, que se denomina el grupo lineal general
(n, K).

2.6. Matrices elementales


A cada operación de filas de una matriz de n × m, le asociaremos la matriz que se obtiene
al aplicarle dicha operación la matriz identidad In . Las matrices obtenidas de esta forma se
denominan matrices elementales. Tendremos entonces tres familias de matrices elementales,
correspondientes a los tres tipos de operaciones de filas permitidas. A continuación damos
las definiciones precisas y estudiamos el comportamiento de las matrices elementales con
respecto al producto.

Definición 2.6.0.1 (Operación elemental por filas) Una operación elemental por
filas aplicada a una matriz A ∈ K n×m significa llevar a cabo cada una de las siguientes
operaciones a la matriz A:

1. Intercambiar la fila i por la fila j,

2. Multiplicar por a a la fila i,

3. Sumar a la fila i la fila j multiplicada por a.


14

Más aún, si B se obtiene a partir de A a través de una sucesión finita de operaciones ele-
mentales por filas, entonces decimos que A y B son equivalentes por filas y lo denotamos
A ∼ B.

Es fácil ver que las relación equivalente por filas es una relación de equivalencia sobre K n×m ,
esto es, A ∼ A, A ∼ B ⇒ B ∼ A y, A ∼ B y B ∼ C entonces, A ∼ C. Esto será explicado
con más detalle en clase.

Usando operaciones elementales por filas es posible transformar una matriz en otra que tiene
una forma especialmente sencilla.

Seguidamente daremos una explicación adicional correspondiente a las operaciones elemen-


tales. Comenzaremos con la operación: Intercambiar la fila i por la fila j.

Sean 1 ≤ i, j ≤ n. Se define P ij ∈ K n×n como

P ij = In − (E)ii − (E)jj + (E)ij + (E)ji


donde (E)kl es una matrı́z canónica del espacio K n×n . Observe que P ij es la matriz que
resulta al intercambiar las filas i y j en la matriz identidad In .

Es fácil verificar que, dada B ∈ K n×m el producto P ij B es la matriz que resulta al intercam-
biar en la matriz B las filas i y j.

En particular, P ij P ij = I, es decir, P ij es inversible y (P ij )−1 = P ij .

Ahora introducimos las matrices elementales asociadas a la operación: Multiplicar por a la


fila i.

Sea a ∈ K, a 6= 0, y sea 1 ≤ i ≤ n. Se define Mi (a) ∈ K n×n como

Mi (a) = In + (a − 1)(E)ii
Dada B ∈ K n×m se tiene
(
Bkj si k 6= i
(Mi (a)B)kj =
aBkj si k = i
es decir, Mi (a)B es la matriz que resulta multiplicar por a la i−ésima fila de B. En particular,
Mi (a)Mi (a−1 ) = Mi (a−1 )Mi (a) = In , de donde Mi (a) ∈ GL(n, K) y (Mi (a))−1 = Mi (a−1 ).

Finalmente, la tercera operación de las familias de matrices elementales es la que representa


la operación: Sumar a la fila i la fila j multiplicada por a.

Sea a ∈ K y sea i 6= j con 1 ≤ i, j ≤ n. Se define T ij (a) ∈ K n×n como

T ij (a) = In + a(E)ij
15

la matriz que se obtiene de la matriz In al sumarle a la i−ésima fila, a por la fila j.

Si B ∈ K n×m , entonces
(
Bkj si k 6= l
(T ij (a)B)kj =
Bil + aBjl si k = l
o sea que T ij (a)B es la matriz que se obtiene de B al sumarle a la i−ésima fila, a por la fila j.
En particular, se tiene que T ij (a)T ij (−a) = T ij (−a)T ij (a) = I, con lo que T ij (a) ∈ GL(n, K)
y (T ij (a))−1 = T ij (−a).

De las propiedades de las matrices elementales que hemos vistos, se deduce que triangular
una matriz mediante operaciones sobre sus filas es multiplicarlas a izquierda por matrices
elementales. En forma análoga, puede verse que multiplicar una matriz a derecha por matri-
ces elementales corresponde a efectuar operaciones sobre las columnas de la matriz.

Sea A ∈ K n×n . Entonces existen matrices elementales E1 , ..., Er ∈ K n×n tales que E1 ...Er A
es triangular superior. Si además, no tiene ceros en la diagonal, existen matrices elementales
Er+1 , ..., Es tales que Es ...Er+1 Er ...E1 A = In . Por consiguiente:

Es ...Er+1 Er ...E1 (AA−1 ) = In A−1 = Es ...Er+1 Er ...E1 In = A−1


Este último resultado nos permite obtener la inversa una matriz mediante una sucesión
finita de operaciones elementales, dando origen a los conocidos métodos de Gauss y Gauss-
Jordan, útiles para la solución de un sistema de ecuaciones lineales o el cálculo de la matriz
inversa. Para este último, sea C una matriz cuadrada de orden n. Consideremos la matriz
ampliada

(C, In )
Si a esta matriz le aplicamos una cantidad finita de operaciones elementales, a fin de convertir
C en la matriz identidad, si esto es posible, ese mismo conjunto de operaciones elementales
sobre In dará como resultado la inversa de la matriz C, esto es:
E ...E
In , C −1

(C, In ) −−s−−→
1

En la siguiente sección se describe el método de Gauss-Jordan para hallar la inversa de una


matriz inversible. Los detalles de los cálculos serán explicados en clase.

2.7. Descripción del método Gauss-Jordan para hallar


la inversa de una matriz inversible
Dada A ∈ K n×n , se arma una matriz en K n×2n cuyas primeras n columnas corresponden
a la matriz A y cuyas n columnas están formadas por los n vectores de la base canónica
de K n . Esto corresponde a plantear la ecuación A · B = In con B ∈ K n×n , subdividirla
16

en n sistemas linealas A · Bi = ei , 1 ≤ i ≤ n, igualando columna a columna, y escribir


la matriz ampliada de los n sistemas.

Si al triangular la matriz no aparece ningún cero en la diagonal, se pueden resolver


los sistemas que resultan (que tienen solución única) y hallar entonces la inversa de
A. Al no aparecer ceros en la diagonal, se continua aplicando operaciones elementales
sobre las filas de la matriz de manera que en las primeras n columnas quede formada
la matriz In . Entonces A−1 es la matriz que aparece en las últimas n columnas.

Si al triangular la matriz aparece un cero en la diagonal, la matriz A no es inversible.


Capı́tulo 3

Sistema de ecuaciones lineales

3.1. Introducción
El objetivo de este capitulo es presentar un método para resolver la ecuación matricial
AX = B, donde A ∈ K m×n y B ∈ K m×1 . En otras palabras, queremos encontrar, queremos
encontrar todas las matrices X ∈ K n×1 que satisfacen la igualdad AX = B. Interpretando
cada fila Ai∗ de A como un elemento de K 1×n , la ecuación matricial AX = B se traduce en
el sistema de m ecuaciones lineales

A1∗ X = b1 , ..., Am∗ X = bm


donde Bi1 = bi ∈ K para todo 1 ≤ i ≤ m. También lo podemos interpretar como un sistema
de m ecuaciones lineales con incógnitas o variables x1 , ..., xn :

a11 x1 + a12 x2 + ... + a1n xn = b1


a21 x1 + a22 x2 + ... + a2n xn = b2
: : :
am1 x1 + am2 x2 + ... + amn xn = bm
donde (A)ij = aij ∈ K para todo 1 ≤ i ≤ m, 1 ≤ j ≤ n. El sistema de ecuaciones lineales
AX = 0 recibe el nombre de sistema de ecuaciones lineales homogéneo.

El método de Gauss-Jordan expuesta en el capitulo anterior, transforma una ecuación ma-


tricial, AX = B, en un más sencilla pero con el mismo conjunto de solución. Esto es posible
mediante las operaciones elementales aplicadas a la matriz ampliada (A, B).

El profesor explicará en clase qué se debe entender por una matriz escalonada reducida.

3.2. Teoremas claves para la solución de un sistema de


ecuaciones lineales
Teorema 3.2.0.1 (Eliminación de Gauss-Jordan) Sea A ∈ K m×n . Entonces existe una
matriz escalonada reducida R tal que A ∼ R.

17
18

La aplicación del Teorema de la eliminación de Gauss-Jordan junto con el próximo resultado


nos proporciona una técnica para encontrar todas las soluciones de una ecuación matricial
AX = B, donde A ∈ K m×n y B ∈ K m×1 .

Teorema 3.2.0.2 Sea A ∈ K m×n y B ∈ K m×1 y f una operación elemental por fila. Enton-
ces, las ecuaciones AX = B y f (A)X = f (B) tiene la misma solución.

El problema de resolver una ecuación matricial de la forma AX = B se reduce a resolver


una ecuación de la forma EX = C, donde E es ecalonada reducida. La idea es la siguiente:
si tenemos la ecuación AX = B, entonces, por la eliminación de Gauss-Jordan, efectuamos
operaciones elementales por filas a A hasta convertirla en una matriz escalonada reducida
E. Las mismas operaciones llevan la matriz ampliada (A, B) a la matriz ampliada (E, C).
Por el Teorema 3.2.0.2, las ecuaciones AX = B y EX = C tienen la misma solución.

Teorema 3.2.0.3 Consideremos la ecuación matricial

EX = C (3.1)
donde C = (c1 , ..., cm )t y E ∈ K m×n es una matriz escalonada reducida con elementos (E)ij =
eij . Supongamos además que E tiene r filas distintas de cero y que eiki = 1 es el 1 principal
de cada fila Ei∗ , para todo 1 ≤ i ≤ r. Entonces:

1. Si cj 6= 0 para algún j > r, entonces la ecuación (3.1) no tiene solución.

2. Si cj = 0 para todo j > r, entonces


 
In
a) r = n implica que E = , donde 0 es la matriz cero de tamaño (m − n) × n y
0
la única solución de la ecuación (3.1) es (c1 , ..., cn )t .
b) r < n implica que la ecuación (3.1) tiene infinitas soluciones: para cada

p ∈ {1, ..., n}\{k1 , ..., kr }


asignamos cualquier valor a xp y luego calculamos xks , para s = r, r − 1, ..., 1 en
este orden, mediante la fórmula
" #
X
x k s = cs − esj xj
ks <j≤n

Ejemplo.

Vamos a resolver el sistema de ecuaciones

x + 2y − 3z = a
2x + 6y − 11z = b
x − 2y + 7z = c
19

Primero construimos la matriz ampliada (A, B)


 
1 2 −3 a
(A, B) = 2 6 −11 b 
1 −2 7 c
despues de aplicar sucesivamente las operaciones elementales T 21 (−2), T 31 (−1), M2 (1/2),
T 12 (−2) y T 32 (4) llegamos a la matriz.

3a − b
 
1 0 2
b − 2a 
0 1 −5/2


2
0 0 0 c − 5a + 2b
Luego, la ecuación AX = Btiene la misma
 solución que la ecuación EX = C, donde

1 0 2
 3a − b
 b − 2a 
E = 0 1 −5/2 y C =  
0 0 0 2
c − 5a + 2b
Como E es escalonada reducida aplicamos la primera parte del Teorema 3.2.0.3 para concluir
que si c − 5a + 2b 6= 0, entonces la ecuación no tiene solución. Si c − 5a + 2b = 0 entonces, por
la parte 2 del Teorema 3.2.0.3, deducimos que la ecuación teien infinitas soluciones porque el
número de filas distintas de cero de E es menor que el número de columnas: 2 < 3. En este
caso, la variable z es la única variable libre, luego la solución de EX = C son de la forma:
 
b − 2a 5
3a − b − 2zo , + zo , zo
2 2
donde zo toma algún valor en K.
Ejercicios

1. Demuestre que cada uno de los conjuntos con las operaciones indicadas son espacios
vectoriales.

a) El espacio de la n−uplas Rn con las operaciones

(x1 , ..., xn )t + (y1 , ..., yn )t = (x1 + y1 , ..., xn + yn )t


α(x1 , ..., xn )t = (αx1 , ..., αxn )t
donde (x1 , ..., xn )t , (y1 , ..., yn )t ∈ Rn y α ∈ R.
b) El espacio de las matrices Rm×n con las operaciones

(A + B)ij = (A)ij + (B)ij


(αA)ij = α(A)ij
donde A, B ∈ Rm×n y α ∈ R.
c) Sea X un conjunto no vacı́o y F(X, R) el conjunto de las funciones X −→ R. Si

f, g ∈ F(X, R)
y α ∈ R definimos las operaciones f + g y αf por

(f + g)(x) = f (x) + g(x)


(αf )(x) = αf (x)
para todo x ∈ X.

d) El conjunto R[x] de todos los polinomios con coeficientes en R junto con las operaciones
usuales
Pn
ai xi + P ni=o bi xi = Pni=o (ai + bi )xi
P P
i=o
α ni=0 ai xi = n
i=0 (αai )x
i

2. ¿Es R2 con las operaciones indicadas a continuación un espacio vectorial sobre R?

a) (x, y) + (w, z) = (x + w, y + z) y α(x, y) = (αx, y);


b) (x, y) + (w, z) = (x + w, 0) y α(x, y) = (αx, 0)

20
21

3. Con E(x) designamos el mayor entero que no es mayor que x. Construya las matrices
siguientes:

a) A = (aij ) con aij = E(j/i) y de orden 4 × 5.


b) B = (bij ) con bij = E((i + 1)/(j + 2)) de orden 3 × 4.
c) C = (cij ) con cij = E(j) y de orden ×3.
d) D = (dij ) con dij = E(jδij ) y de orden 4 × 4.

4. Formule todas las propiedades de la suma y producto de matrices. Asi como las relación
que pueda existir entre esas operaciones matriciales.

5. Dadas las matrices


   
3 + i 5 −2 3 1+i 0
A= yB=
1 0 2 − 3i i 1 −3i

calcule 2iA − 5B.

6. Dadas las matrices


 
  1
3 + i 5 −2 
A= , B = 2 y C =
 i −1
1 0 2 − 3i
3

calcule ABC y CAB.

7. Probar que, ∀n ∈ N, n ≥ 2, el producto de matrices en K n×n no es conmutativo.

8. Dar condiciones necesarias y suficientes sobre A y B ∈ K n×n para que

a) (A + B)2 = A2 + 2AB + B 2
b) A2 − B 2 = (A − B)(A + B)

9. Probar que si A y B ∈ K n×n no necesariamente vale A2 · B 2 = (A · B)2 .

10. Sean A, B y C ∈ K n×n (n ≥ 2). Mostrar la falsedad de las siguientes afirmaciones:

i) A · B = 0 ⇒ A = 0 ó B = 0
ii) A · B = A · C y A 6= 0 ⇒ B = C
iii) A · B = 0 ⇒ B · A = 0
iv) Aj = 0 ⇒ A = 0
v) A2 = A ⇒ A = 0 ó A = In

11. Sea A = T 12 (1) ∈ R2×2 . Calcular A20 y 20A.


22

12. Calcular (P ij )15 y (P ij )16 .

13. Sea B = M3 (2) ∈ R4×4 . Calcular B 20 y 20B.


 
4 −1
14. Sea A = ∈ R2×2
8 −2

i) Hallar b y c ∈ R tales que A2 + b · A + c · I2 = 0.


ii) Calcular An ∀n ∈ N

15. Sea A ∈ GL(n, K) y B, C ∈ K n×m . Probar:

i) A · B = A · C ⇒ B = C
ii) A · B = 0 ⇒ B = 0

16. Decidir si cada una de las siguientes afirmaciones es verdadera o falsa.

i) A, B ∈ GL(n, K) ⇒ A + B ∈ GL(n, K)
ii) A ∈ GL(n, K) ⇔ At ∈ GL(n, K)
iii) T r(A) = 0 ⇒ A ∈
/ GL(n, K)
iv) A nilpotente (es decir, ∃j ∈ N : Aj = 0) ⇒ A ∈
/ GL(n, K)

17. Sea A ∈ K n×n y sea b ∈ K n . Probar que el sistema Ax = b tiene solución única si y
sólo si A ∈ GL(n, K).

18. Sea A ∈ K n×n . Probar que existe B ∈ K n×n tal que BA = In si y sólo si A ∈ GL(n, K).
Deducir que existe B ∈ K n×n tal que AB = In si y sólo si A ∈ GL(n, K).

19. Encuentre una condición necesaria y suficiente para que una matriz B ∈ R2×2 sea
invertible y calcule la inversa cuando existe.

20. Demuestre que si A es inversible y AB = 0, entonces B = 0.

21. Una matriz diagonal es una matriz de la forma

0 ··· 0
 
d11
..
0
 . : 

D=  .. 
: . 0 
0 · · · 0 dnn

¿Cuándo es D inversible?. En ese caso, ¿cuál es la inversa?


   
−1 0 1 −1
22. Considere la matriz diagonal D = yA= . Calcule (A−1 DA)100 .
0 1 2 2
23

23. Dadas las matrices


 
2 1  
3 1 + i 0
A =  0 i y B =
i 1 −3i
−1 1

Calcule (AB)t , B t At , (AB)∗ y (B ∗ A∗ ).

24. Sea A ∈ K n×n . Se define la traza de A, denotada por T r(A), como el elmento de K

n
X
T r(A) = Akk
k=1

Dadas A, B ∈ K n×n y α ∈ K demuestre i) T r(A + B) = T r(A) + T r(B); ii) T r(αA) =


αT r(A) y iii) T r(AB) = T r(BA).

25. Una matriz T ∈ K n×n es triangular superior si Tij = 0 para i > j. Suponga que S, T
son triangulares superiores y α ∈ K. Demuestre que

a) S + T es triangular superior;
b) αS es triangular superior;
c) ST es triangular superior.

26. Resolver las ecuaciones:


 
3 1
a) 5X + I =
−7 6
 
5 2 3
b) 2X − 3I = 6 1 7
4 1 2
c) 3(X + 5I2 ) = 2(X − I2 )
   
1 2 5 6
d) 2X + Y = y X − 3Y =
3 4 7 8

27. Encuentre la matriz escalonada reducida de las siguientes matrices


     
−2 6 0 3 −1 2 1 0 0 −i 1 + i 0
A = −1 2 −1 ; B = 2 1 1 0 1 0 y C =  1 −2 1
0 1 2 1 −3 0 0 0 1 1 2i −1

28. Resuelva cada uno de los siguientes sistemas de ecuaciones lineales:


 
6x − 4y + 4z = 28 4x − 10y + 6w − 8z + 4u = 8 
3x − 6y + 3z = 21 (a) 5x − 10y − 5w − 4z + 7u = 22 (b)
4x − 2y + 8z = 34 3x − 7y + 2w − 5z + 4u = 9
 
24

 
−x − 2y + 3w − 4z = −2  ix − (1 + i)y = 0
−6x − 15y + 6w − 3z = −3 (c) x − 2y + z = 0 (d)
−5x − 12y + 7w − 6z = −7 x + 2iy − z = 0
 

 
x1 + x2 − 2x3 + x4 = 0  x1 + x2 − 2x3 + x4 = −2 
3x1 − 2x2 + x3 + 5x4 = 0 (e) 3x1 − 2x2 + x3 + 5x4 = 3 (f )
x1 − x2 + x3 + 2x4 = 0 x1 − x2 + x3 + 2x4 = 2
 

 
x1 + x2 + x3 − 2x4 + x5 = 1 x1 + x2 + x3 + x4 = 2 
x1 − 3x2 + x3 + x4 + x5 = 0 (g) x1 + 3x2 + 2x3 + 4x4 = 0 (h)
3x1 − 5x2 + 3x3 + 3x5 = 0 2x1 + x3 − x4 = 6
 

¿Cambia algo en (e), (f ), (g) y (h) si K = Q? ¿Y si K = C?

29. Resolver los siguientes sistemas no homogéneo. Considerar en cada uno de ellos el
sistema homogéneo asociado (AX = 0). (Ver ejercicio 37?).
 
x1 − x2 + x3 = 2  x1 − x2 + x3 = 1 
−x1 + 2x2 + x3 = −1 (i) −x1 + 2x2 + x3 = 1 (ii)
−x1 + 4x2 + 5x3 = 0 −x1 + 4x2 + 5x3 = 4
 

 
x1 − x2 − x3 = 2  x1 − x2 − x3 = α 
2x1 + x2 − 2x3 = 1 (iii) 2x1 + x2 − 2x3 = β (iv)
x1 + 4x2 + x3 = 1 x1 + 4x2 + x3 = γ
 

(α, β, γ ∈ R).

30. Determine las valores de k para que el sistema de ecuaciones lineales tenga: i) una
solución única; ii) infinitas soluciones; y iii) niinguna solución.

−x + y + z = 1 
kx + 3y + 2z = 3 (i)
−3x − ky − z = −2


 kx1 + 2x2 + kx3 = 1
x1 + kx2 − x3 = 1


kx1 + (k + 4)x2 + 3x3 = −2
 
−x1 + x2 + k 2 x3 = −1 (ii) (iii)
−kx1 − 2x2 + x3 = 1
x1 + kx2 + (k − 2)x3 = 2
 

(k + 2)x2 + (3k + 1)x3 = −1

31. Resolver el siguiente sistema en C2×2 :



(1 − i)x − iy = 0
2x + (1 − i)y = 0
25

32. Resolver en C3×3 el sistema AX = 0 donde


 
i −(1 + i) 0
A = 1 −2 1
1 2i −1

33. Dado el sistema:



2x − y + z = α1 
3x + y + 4z = α2
−x + 3y + 2z = α3

Determinar los valores de α1 , α2 , α3 ∈ R para los cuales el sistema admite solución.

34. Resolver según los valores de a y b en R


 
(5 − a)x1 − 2x2 − x3 = 1  ax1 + x2 + x3 = 1 
−2x1 + (2 − a)x2 − 2x3 = 2 (i) x1 + ax2 + x3 = a (ii)
−x1 − 2x2 + (5 − a)x3 = b x1 + x2 + ax3 = a2
 

35. Determinar todos los k ∈ R para que cada uno de los siguientes sistemas tenga solución
única.
 
x1 + kx2 + x3 = 1  x1 + (k − 1)x2 = 0 
2x1 + x3 = 0 (i) x1 + (3k − 4)x2 + kx3 = a (ii)
2x1 + kx2 + kx3 = 0 x1 + (k − 1)x2 + k2 x3 = 0
 

36. Determinar los números reales k para los cuales el sistema



x1 + x2 = 0 

x1 + kx2 = 0

k 3 x1 + x2 + k 3 x3 + kx4 = 0

x1 + k 2 x2 + kx3 + kx4 = 0

tiene alguna solucuón no trivial y, para esos k, resolverlo.

37. Sea
 
2 −6 0
A = 3 −1 2
2 1 1

¿Para que matrices B ∈ R3×1 tiene solución el sistema AX = B?

38. Demuestre que si P, Q son soluciones del sistema homogéneo AX = 0, entonces αP +βQ
es una solución de AX = 0, para todo α, β ∈ K.
26

39. Sea A ∈ K m×n y B ∈ K m×1 . Suponga que P es una solución del sistema de ecuaciones
lineales AX = B. Demuestre que cualquier otra solución de AX = B es de la forma
P + Q, donde Q es una solución del sistema homogéneo AX = 0.

40. Determine si las matrices dadas son invertibles y, en caso de serlo, calcule la inversa.
Escribir las que sean invertibles como producto de matrices elementales.
     
1 2 −4 1 3 −4 −i 1 + i 0
A = −1 −1 5  ; B = 1 5 −1 ; C =  1 −2 1
2 7 −3 3 13 −6 1 2i −1
 
2 1 3 1 2  
  1 0 −1 0
1 1 1 0
 5 −1 8 2
 0 0 1 0
A = 0 1 1 ; B = 
0 0 0 1 2 ; C = 2 1 −2 3
 
0 0 1 0 0 0 1 2
3 1 −1 3
0 0 0 0 2
 
cos θ − sin θ 0
A =  sin θ cos θ 0
0 0 1

41. Dada la matriz


 
3 0 1
A = 1 −1 1
2 0 1

encuentre matrices elementales E1 , ..., Ek tales que Ek ...E1 A = I.

42. Demuestre que una matriz triangular superior es invertible si, y sólo si, todos los ele-
mentos dela diagonal son diferentes de cero.

43. Demuestre que si T es una matriz triangular superior invertible, entonces T −1 también
es triangular superior.
27

Bibliografı́a

Burgos, A. (1974). Iniciación de la matemática moderna. Madrid: Selecciones gráficas.

Hoffman, K., and Kunze, R. (1971). Álgebra Lineal. New Jersey: Prentice Hall.

También podría gustarte