Está en la página 1de 204

UNIVERSIDAD PEDRO RUIZ GALLO

FACULTAD DE CIENCIAS FISICAS Y MATEMÁTICAS

ESCUELA PROFESIONAL DE MATEMÁTICAS

ALGEBRA LINEAL

presentado por:

Lic. Mat. Walter Arriaga Delgado

LAMBAYEQUE – PERU
2013
Dedicatoria
Para mis padres, Martha y Elı́as; para mi
adorable esposa, Flor Angela y para los
más grandes tesoros de mi vida, mis hijas
Alessandra Anghely y Stefany Grace.
Prefacio

Visión general

Una de las situaciones más dificiles a que se ve enfrentado comunmente un investigador en


matemática es la de tratar de explicar su labor profesional.
La respuesta a ésta interrogante a lo largo de la historia de la humanidad han sido de la más
variable ı́ndole: hay quienes plantean que cultivan esta ciencia por satisfacción personal, sin
buscar sus aplicaciones inmediatas; otros aseguran que, siendo la busqueda de conocimiento
consustancial a la naturaleza humana y siendo la matemática lenguaje universal, ésta debe
cultivarse como contribución al acervo cultural de la humanidad, para permitir a los diversos
pueblos comprender su propia y particular realidad. También se estima necesario que todos
los paı́ses, especialmente aquellos en desarrollo, cultiven las disciplinas básicas para ası́ poder
lograr independizarse cientı́fica, tecnológica y económicamente.
Concordando en mayor o menor medida con estos planteamientos, se puede constatar que
pese a ser la matemática la más común de las ciencias, en el sentido de que está presente
y es utilizada por todos en la vida cotidiana, ciertamente no es la ciencia con mayor grado
de popularidad; mucha gente tiene sentimientos de aprensión, disgusto e incluso miedo a la
matemática.
Aún considerando estas dificultades, creemos que no ha sido suficientemente difundido el
muy relevante papel que juega nuestra disciplina en la formación integral de cada ciudadano;
de manera privilegiada, la matemática aporta a esta formación capacitando a las personas para
tomar decisiones en la vida, para enfrentar situaciones nuevas, para poder crear y expresar
ideas originales; esto se logra por ejemplo a través de desarrollar la capacidad de abstracción,
de enseñar a relacionar objetos o situaciones diversas, de desarrollar la intuición; en fin, la
matemática ayuda a desarrollar una mentalidad crı́tica y creativa.
Es entonces muy preocupante que sea la más desconocida de las ciencias para el ciudadano
medio; es lo que nos atrevemos a llamar el analfabetismo matemático, o, más generalmente,
el analfabetismo cientı́fico.
El libro que se encuentra en estos momentos en sus manos pretende presentarle una in-
troducción, a nivel elemental y básico, de una parte de las matemáticas sumamente útil y
aplicable a muchas ramas del saber: El Algebra Lineal.
De la experiencia de dictar cursos y ponencias sobre Algebra Lineal es que surgieron

i
ii Algebra Lineal Walter Arriaga Delgado

apuntes de clase que, después de sucesivas revisiones y ampliaciones, fueron transformándose


hasta optar la forma que ahora presentamos, con la intención de que sirva como texto guı́a
que inicie al alumno en esta fascinante rama de las matemáticas.

Objetivo

El objetivo de este libro es presentar los temas de manera clara y comprensible para los
estudiantes de cualquier nivel, de forma que los motive a preguntar porqué y transmitirles el
entusiasmo y gusto por el estudio del Algebra Lineal y a la vez proporcionar al lector una
herramienta de consulta, ası́ como reforzar la comprensión de los temas y conceptos por medio
de una amplia gama de interesantes aplicaciones en el mundo real. El texto se ha diseñado
para brindarle una comprensión sólida e intuitiva de los conceptos básicos, sin sacrificar la
precisión matemática.

Aplicaciones

Una de mis metas fue convencer a lo estudiantes de la importancia del Algebra Lineal en
sus campos de estudio. Ası́, este libro pretende implementar el estudio de las aplicaciones del
Algebra Lineal a la Computación e Informática, Ingenierı́a de Sistemas, etc.

Caracterı́sticas

Contenido

El contenido del presente manuscrito se desarrolla de la siguiente manera:

 En el Capı́tulo I, se realiza un análisis general de la teorı́a de matrices, determinantes y


sistemas de ecuaciones lineales.

 En el Capı́tulo II, se estudian los espacios vectoriales y subespacios vectoriales, además


se determinan la base y dimensión de un espacio vectorial.

 En el Capı́tulo III, se estudia las transformaciones lineales, asi como también se deter-
mina el núcleo y la imagen de una transformación lineal.

Caracterı́sticas pedagógicas

En base a nuestra experiencia docente y en consejos de muchos colegas, hemos incluı́do


varios aspectos pedagógicos para ayudar a los estudiantes a aprender y a ampliar su perspectiva
acerca del Algebra Lineal.
Walter Arriaga Delgado Algebra Lineal iii

Problemas resueltos y propuestos

Un problema en matemática puede definirse como una situación, a la que se enfrenta un


individuo o un grupo, que requiere solución, y para lo cual no se vislumbra un camino aparente
y obvio que conduzca a la misma.

La resolución de problemas debe apreciarse como la razón de ser del contenido matemático,
un medio poderoso de desarrollar conocimiento matemático y un logro indispensable de
una buena educación matemática. El elemento crucial asociado con el desempeño eficaz en
matemática es que los estudiantes desarrollen diversas estrategias que le permitan resolver
problemas donde muestren cierto grado de independencia y creatividad.

La elaboración de estrategias personales de resolución de problemas crea en los alumnos


confianza en sus posibilidades de hacer matemática, estimula su autonomı́a, ası́ como expresa
el grado de comprensión de los conocimientos y le facilita mecanismos de transferencia a otras
situaciones.

Concebimos entonces que la resolución de problemas es el proceso más importante que


posibilitará a los estudiantes experimentar la utilidad y potencia de la matemática. Implicarlos
en esa labor les permitirá indagar, construir, aplicar y conectar lo aprendido. De ahı́ que una
responsabilidad importante de los docentes del área de matemática sea elaborar, seleccionar,
proponer y discutir problemas de diverso tipo y exigencia conjuntamente con los estudiantes
y con otros colegas.

Aprender matemática significa entender y usar la matemática a través de la resolución


de problemas, aprender matemática no sólo es memorizar fórmulas técnicas para resolver
ejercicios propuestos.

Hay que hacer que los alumnos trabajen dinámicamente en actividades que permitan la
construcción del saber matemático por etapas, a partir de fenómenos y de situaciones cotidi-
anas de modo que vayan elaborando conceptos de dificultad creciente, observando claramente
y de inmediato su uso.

Todo usuario de la Matemática recopila, descubre o crea conocimiento en el curso de la


actividad que realiza con un fin. El desarrollo de las actividades debe estar organizado para
que los estudiantes comuniquen ideas oralmente y por escrito. El proceso de construcción del
lenguaje matemático no puede ser una actividad individual. Es un proceso de comunicación:
alumno-profesor, profesor-alumno y sobre todo alumno-alumno. La capacidad de usar con
facilidad el lenguaje matemático es muy importante para comprender la matemática y por eso
las formas de comunicación matemática deben ser cada vez más formales y simbólicas.

El libro contiene problemas resueltos y propuestos para que el estudiante ponga a prueba
su aptitud. En los ejemplos resueltos enseñamos a los estudiantes a pensar sobre los problemas
antes de que empiecen a resolverlos.
iv Algebra Lineal Walter Arriaga Delgado

Resúmenes

Al final de cada capı́tulo, aparece un repaso detallado de los resultados importantes del
mismo, esto permitirá una clara comprensión del texto.

Uso de Software

La tendencia cada vez mayor a que el docente se convierta en un “facilitador del apren-
dizaje” más que un “presentador de hechos” ha producido una expansión en la esfera de los
paquetes de informática especializados como los software matemáticos preparados para ayu-
dar al docente. Estos paquetes tienen por objeto suplementar el trabajo práctico, permitiendo
ası́ ampliar la presentación de la ciencia a los estudiantes. Estos software han adquirido tal
grado de complejidad en la enseñanza de la Ciencia que han recibido el nombre de “Tecnologı́a
Educativa”.
Entre los software matemáticos más importantes podemos citar: Maple, Matlab, Derive,
Mathematica, Cabri Geometry, etc.
El software matemático Maple que se ha utilizado para la preparación de este libro, se
caracteriza por realizar cálculos con sı́mbolos que representan objetos matemáticos.
Se trata de un sistema de cálculo cientı́fico (simbólico, numérico y gráfico) interactivo, con
una sintaxis próxima a la notación matemática, disponible para una amplia gama de sistemas
operativos. Algunas de sus capacidades son:

X Operaciones numéricas en aritmética racional exacta o decimal de precisión arbitraria.

X Manipulación algebraica de variables y sı́mbolos.

X Operaciones con polinomios, fracciones algebraicas y funciones matemáticas elementales.

X Cálculo de lı́mites, derivadas y primitivas.

X Resolución de ecuaciones y sistemas.

X Operaciones con vectores y matrices.

X Capacidades gráficas en 2 y 3 dimensiones.

X Lenguaje de programación de alto nivel.

La historia de la matemática
La historia de la matemática está llena de anécdotas, de problemas interesantes que pueden
motivar a los jóvenes a estudiarla y desarrollar actitude positivas hacia ella. El uso de tópicos
de historia de la matemática, de biografı́as de matemáticos, de acertijos y problemas clásicos
permite acercarnos a esta ciencia desde un punto de vista humano. Los estudiantes com-
prenden que la matemática es simplemente una actividad creada por seres humanos iguales
Walter Arriaga Delgado Algebra Lineal v

a ellos, quienes desarrollaron ideas creativas y resolvieron situaciones que en su tiempo er-
an importantes, pero que en otros momentos sufrieron frustración y desengaño, ya sea al no
poder resolver los problemas que se plantearon, porque la sociedad no estaba preparada para
sus ideas renovadoras, o porque sufrieron la marginación de las comunidades cientı́ficas de la
época, como ocurrió en el caso de las mujeres matemáticas.
Es sumamente útil explorar con nuestros alumnos los inicios de un concepto, las dificultades
con las que tuvieron que enfrentarse estos investigadores y las ideas que surgieron al enfrentar
una situación nueva. Todos estos hechos encarnan una verdadera aventura intelectual que
muchas veces se deja de lado en las clases tradicionales donde un tema aparece presentado de
manera acabada e inerte, sin posibilidad de descubrimiento, ni crı́tica.

Requisitos
El requisito para leer éste libro es conocer su matemática básica y su cálculo diferencial e
integral. Para aprovechar al máximo este texto los alumnos deben contar con medios numéricos
de resolución (software matemáticos) que no exigen que el usuario sea experto en computación,
pero de igual modo pueden aprender bien incluso sin ningún medio de éstos.

El autor
Introducción

Desde los comienzos de su existencia, el hombre ha estudiado su medio ambiente con la


finalidad de mejorar su situación. Empezó por observaciones, como hacemos hoy en dı́a, y
siguió por la reunión de información y su aplicación a la vida cotidiana.
La ciencia es hoy dı́a algo más compleja. Nuestra capacidad de observación ha aumentado
enormemente gracias al desarrollo de los modernos instrumentos desde los que nos permiten
ver diminutas partı́culas de materia ampliadas millones de veces hasta los que nos permiten
ver estrellas distantes en los lı́mites exteriores del universo tal como lo conocemos. Nuestros
procesos de acopio de datos también se han vuelto muy complejos. No solo disponemos de
medios muy rápidos para registrar información sino que, mediante el uso de calculadoras y
software, podemos recuperar la información en una fracción de segundo. Sin embargo, mu-
chos de nosotros no tenemos todavı́a la posibilidad de usar los últimos inventos de la ciencia
moderna. Tenemos que trabajar con las cosas existentes en nuestro medio inmediato que van
a influir en nuestras vidas y en las de quienes nos rodean. Hay que tener en cuenta que los
cambios rápidos e incesantes del mundo de hoy hacen que también cambien a su compás los
conocimientos necesarios de matemática
El álgebra lineal es la rama de la matemática que concierne al estudio de vectores, espacios
vectoriales, transformaciones lineales y sistemas de ecuaciones lineales. Los espacios vectoriales
son un tema central en la matemática moderna; por lo que el álgebra lineal es usada ampli-
amente en álgebra abstracta y análisis funcional. El álgebra lineal tiene una representación
concreta en la geometrı́a analı́tica, y tiene aplicaciones en el campo de las ciencias naturales
y en las ciencias sociales.
La historia del álgebra lineal moderna se remonta a los años de 1843 cuando William
Rowan Hamilton (de quien proviene el uso del término vector) creó los cuaterniones; y de
1844 cuando Hermann Grassmann publicó su libro Die lineare Ausdehnungslehre.
El álgebra lineal tiene sus orı́genes en el estudio de los vectores en el plano y en el espacio
tridimensional cartesiano. Aquı́, un vector es un segmento, caracterizado por su longitud (o
magnitud), dirección y sentido (u orientación). Los vectores pueden entonces utilizarse para
representar ciertas magnitudes fı́sicas, como las fuerzas, pueden sumarse y ser multiplicados
por escalares, formando entonces el primer ejemplo de espacio vectorial real.
Hoy dı́a, el álgebra lineal se ha extendido para considerar espacios de dimensión arbi-
traria o incluso de dimensión infinita. Un espacio vectorial de dimensión n se dice que es

vii
viii Algebra Lineal Walter Arriaga Delgado

n-dimensional. La mayorı́a de los resultados encontrados en 2 y 3 dimensiones pueden exten-


derse al caso n-dimensional. A mucha gente le resulta imposible la visualización mental de
los vectores de más de tres dimensiones (o incluso los tridimensionales). Pero los vectores de
un espacio n-dimensional pueden ser útiles para representar información: considerados como
n−tuplas, es decir, listas ordenadas de n componentes, pueden utilizarse para resumir y ma-
nipular información eficientemente. Por ejemplo, en economı́a, se pueden crear y usar vectores
octo-dimensionales u 8−tuplas para representar el Producto Interno Bruto de 8 paı́ses difer-
entes. Se puede simplemente mostrar el PIB en un año en particular, en donde se especifica el
orden que se desea, por ejemplo, (Estados Unidos, Reino Unido, Francia, Alemania, España,
India, Japón, Australia), utilizando un vector (v1 , v2 , v3 , v4 , v5 , v6 , v7 , v8 ) en donde el PIB
de cada paı́s está en su respectiva posición.
Un espacio vectorial (o espacio lineal), como concepto puramente abstracto en el que
podemos probar teoremas, es parte del álgebra abstracta, y está bien integrado en élla. Por
ejemplo, con la operación de composición, el conjunto de aplicaciones lineales de un espacio
vectorial en sı́ mismo (endomorfismos) tiene estructura de anillo, y el subconjunto de las
aplicaciones lineales que son invertibles (los automorfismos) tiene estructura de grupo. El
Álgebra Lineal también tiene un papel importante en el cálculo, sobre todo en la descripción
de derivadas de orden superior en el análisis vectorial y en el estudio del producto tensorial
(en fı́sica, buscar momentos de torsión) y de las aplicaciones antisimétricas.
Un espacio vectorial se define sobre un cuerpo, tal como el de los números reales o en el
de los números complejos. Una aplicación (u operador) lineal hace corresponder los vectores
de un espacio vectorial con los de otro (o de él mismo), de forma compatible con la suma o
adición y la multiplicación por un escalar definidos en ellos. Elegida una base de un espacio
vectorial, cada aplicación lineal puede ser representada por una tabla de números llamada
matriz. El estudio detallado de las propiedades de las matrices y los algoritmos aplicados a las
mismas, incluyendo los determinantes y autovectores, se consideran parte del álgebra lineal.
En matemática los problemas lineales, aquellos que exhiben linealidad en su comportamien-
to, por lo general pueden resolverse. Por ejemplo, en el cálculo diferencial se trabaja con una
aproximación lineal a funciones. La distinción entre problemas lineales y no lineales es muy
importante en la práctica.
Puesto que el álgebra lineal es una teorı́a exitosa, sus métodos se han desarrollado por
otras áreas de la matemática: en la teorı́a de módulos, que remplaza al cuerpo en los escalares
por un anillo; en el álgebra multilineal, uno lidia con ’múltiples variables’ en un problema de
mapeo lineal, en el que cada número de las diferentes variables se dirige al concepto de tensor;
en la teorı́a del espectro de los operadores de control de matrices infi-dimensionales, aplicando
el análisis matemático en una teorı́a que no es puramente algebraica. En todos estos casos las
dificultades técnicas son mucho más grandes.
El Álgebra Lineal es seguramente, una de las herramientas fundamentales en las Ciencias
de la Computación. Originariamente dedicada a la resolución de sistemas de ecuaciones, su
abstracción y formalismo la hacen a veces un poco árida de entender. Sin embargo la inmen-
Walter Arriaga Delgado Algebra Lineal ix

sidad de sus aplicaciones bien vale el esfuerzo: Teorı́a de la Información, Teorı́a de Códigos,
Criptografı́a, etc. Incluso las más recientes tendencias en computación como la Computación
Cuántica tienen en el Álgebra Lineal su herramienta clave.
En este curso introduciremos los conceptos y técnicas clave del Álgebra Lineal y veremos
por encima algunas de sus aplicaciones a la Informática, en concreto a la Teorı́a de Códigos.
Esta obra es un intento para lograr que la enseñanza y el aprendizaje de la ciencia sean los
más eficaces posible. Como no hay una manera perfecta de enseñar la Ciencia, ésta publicación
no pretende ser el non plus ultra de la enseñanza de la Matemática. Los profesores deben buscar
constantemente los mejores métodos para ellos mismos y para sus alumnos, ası́ como leer con
la mayor amplitud y profundidad posibles. Sin embargo, se espera que este trabajo sirva de
documento básico para empezar. Se ha reunido las contribuciones de docentes que se han
especializado en estos temas a fin de presentar un amplio panorama de la enseñanza de ésta
Ciencia.
Es importante que el pensamiento creador en todos los niveles de educación se centre en
crear las situaciones de aprendizaje más eficaces para los estudiantes. En consecuencia, este
texto está destinado tanto a estudiantes de ciencias e ingenierı́a como a docentes en ejercicio
ası́ como también a los futuros docentes de varios niveles académicos para que lo utilicen
en las situaciones más diversas. Su finalidad es mejorar la enseñanza cotidiana de la ciencia
examinando los numerosos temas que influyen sobre el estudiante.
Éste es el compromiso que como docente de la Facultad de Ciencias Fı́sicas y Matemáticas
de la Universidad Nacional Pedro Ruiz Gallo he asumido: el contribuir a la formación integral
de los estudiantes del presente siglo.
Se tiene siempre la esperanza de que una publicación sea tan buena que haya demanda
de una segunda edición. Esto permite siempre corregir las inexactitudes y las equivocaciones,
ası́ como añadir material pertinente nuevo u omitido inadvertidamente antes. Se agradecerá a
los lectores que comuniquen sus propias contribuciones y sugerencias al autor.
x Algebra Lineal Walter Arriaga Delgado
Índice general

Prefacio I

Introducción VI

1. MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LIN-


EALES 1
1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Algo de historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3. Orden de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.4. Igualdad de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.5. Matrices Especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.6. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.7. Traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.8. Transpuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.9. Matriz simétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.10. Matriz antisimétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.11. Matriz involutiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.12. Matriz nilpotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.13. Matriz idempotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.14. Matriz conjugada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.15. Matriz hermitiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1.16. Matriz antihermitiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.1.17. Matriz ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.1.18. Matriz positiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1. Algo de historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.2. Cálculo de Determinantes por la Regla de Sarrus . . . . . . . . . . . . . 21
1.2.3. Propiedades Generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2.4. Menores complementarios y Cofactores . . . . . . . . . . . . . . . . . . . 24
1.2.5. Cálculo de Determinantes por Cofactores . . . . . . . . . . . . . . . . . 25

xi
xii Algebra Lineal Walter Arriaga Delgado

1.3. Otras matrices importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26


1.4. Operaciones Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.4.1. Matriz escalonada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.2. Matrices equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.4.3. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.5. Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.5.1. Matriz de cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.5.2. Adjunta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.5.3. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.5.4. Método de Gauss Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.6. Criptografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.6.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.6.2. Sistema Criptográfico usando Matrices . . . . . . . . . . . . . . . . . . . 43
1.7. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.7.1. Algo de historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.7.2. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.7.3. Clasificación de los sistemas de ecuaciones lineales . . . . . . . . . . . . 47
1.7.4. Sistemas Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.7.5. Método de Gauss-Jordan. Eliminación Gausiana . . . . . . . . . . . . . 49
1.7.6. Método de Gabriel Cramer . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.7.7. Teorema de Rouché - Fröbenius . . . . . . . . . . . . . . . . . . . . . . . 52
1.7.8. Sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
1.8. Factorización LU de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.9. Reseñas Históricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

2. VECTORES EN EL ESPACIO BIDIMENSIONAL Y TRIDIMENSIONAL 87

3. ESPACIOS VECTORIALES 89
3.1. Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.1.1. Propiedades de los espacios vectoriales . . . . . . . . . . . . . . . . . . . 96
3.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2.1. Operaciones con subespacios . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2.2. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.2.3. Sistemas de generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.2.4. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . 106
3.2.5. Bases y Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

4. TRANSFORMACIONES LINEALES 131


4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.2. Clasificación de las Transformaciones Lineales . . . . . . . . . . . . . . . . . . . 133
4.3. Núcleo e Imagen de una Transformación Lineal . . . . . . . . . . . . . . . . . . 134
Walter Arriaga Delgado Algebra Lineal xiii

4.4. Matriz asociada a una Transformación Lineal . . . . . . . . . . . . . . . . . . . 138


4.4.1. Representación matricial de una transformación lineal . . . . . . . . . . 138
4.5. Operaciones con Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . 139

5. VALORES Y VECTORES PROPIOS. DIAGONALIZACIÓN 165


5.1. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
5.2. Diagonalización de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
5.2.1. Matrices semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

Bibliografı́a 181

Indice de Materias 183


xiv Algebra Lineal Walter Arriaga Delgado
Índice de figuras

1.1. Johann Carl Friedrich Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58


1.2. Arthur Cayley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
1.3. Gabriel Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

4.1. La transformación lineal T . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133


4.2. El núcleo de una transformación lineal T . . . . . . . . . . . . . . . . . . . . . . 134
4.3. La imagen de una transformación lineal T . . . . . . . . . . . . . . . . . . . . . 135

xv
xvi Algebra Lineal Walter Arriaga Delgado
Índice de cuadros

1.1. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

xvii
xviii Algebra Lineal Walter Arriaga Delgado
1
MATRICES, DETERMINANTES
Y SISTEMAS DE ECUACIONES
LINEALES

Objetivos
z Conocer y aplicar las principales técnicas de cálculo matricial.

z Operar con las matrices para aplicarlas en la solución de sistemas lineales.

z Ordenar los datos adecuadamente en la formulación de un problema.

z Manejar los determinantes como elemento de cálculo en la resolución de los sistemas


lineales.

1.1. Matrices

1.1.1. Algo de historia

El primero que empleó el término “matriz” fue el matemático inglés James Joseph Sylvester
en el año 1850.
Sin embargo, hace más de dos mil años los matemáticos chinos habı́an descubierto ya un
método de resolución de sistemas de ecuaciones lineales equivalente al método de Gauss y por
lo tanto empleaban tablas con números.
Pero hasta el Siglo XIX no se desarrolla en las matemáticas el Álgebra de matrices. A
este desarrollo contribuyó de forma decisiva el matemático inglés Arthur Cayley. En 1858
publicó unas “Memorias sobre la teorı́a de matrices” en la que daba la definición de matriz y
las operaciones suma de matrices, de producto de un número real por una matriz, de producto
de matrices y de inversa de una matriz. Cayley afirma que obtuvo la idea de matriz a través

1
2 Algebra Lineal Walter Arriaga Delgado

de la de determinante y también como una forma conveniente de expresar transformaciones


geométricas.

1.1.2. Introducción

Las matrices aparecen por primera vez hacia el año 1850, introducidas por J.J. Sylvester.
El desarrollo inicial de la teorı́a se debe al matemático W.R. Hamilton en 1853. En 1858, A.
Cayley introduce la notación matricial como una forma abreviada de escribir un sistema de m
ecuaciones lineales con n incógnitas.
Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones
lineales, de las ecuaciones diferenciales y de las derivadas parciales. Además de su utilidad
para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de forma natural en
geometrı́a, estadı́stica, economı́a, informática, fı́sica, etc...
La utilización de matrices (arrays) constituye actualmente una parte esencial de los lengua-
jes de programación, ya que la mayorı́a de los datos se introducen en los ordenadores como
tablas organizadas en filas y columnas: hojas de cálculo, bases de datos,...
Además de su utilidad para el estudio de los sistemas de ecuaciones, las matrices aparecen
de manera natural en geometrı́a, estadı́stica, economı́a, etc.
Nuestra cultura está llena de matrices de números: El horario de los trenes de cada una
de las estaciones es una matriz de doble entrada, la tabla de cotizaciones de la Bolsa en cada
uno de los dı́as de la semana es otra, etc.
Las tablas de sumar y multiplicar, la disposición de los alumnos en clase, las casillas de un
tablero de ajedrez, las apuestas de la loto, los puntos de un monitor de ordenador, son otros
tantos ejemplos de la vida cotidiana de matrices.
Actualmente, muchos programas de ordenador utilizan el concepto de matriz. Ası́, las
Hojas de Cálculo funcionan utilizando una inmensa matriz con cientos de filas y columnas en
cuyas celdas se pueden introducir datos y fórmulas para realizar cálculos a gran velocidad.
Esto requiere utilizar las operaciones con matrices.

Definición 1.1.1. Una matriz es un ordenamiento rectangular de elementos dispuestos en


filas y columnas.

Aquı́ un ejemplo en sus distintas presentaciones:


" # !
2
0 −1 2 0 −1 2 0 −1

√ √ √
a 2 π a 2 π a 2 π

Esta matriz posee dos filas y tres columnas.


Es importante adquirir el hábito de enunciar siempre filas antes de columnas.
Walter Arriaga Delgado Algebra Lineal 3

Los elementos aij pueden ser números reales, números complejos o cualquier objeto no numéri-
co, como por ejemplo la posición de las fichas en el tablero del ajedrez o los apellidos de
personas cuando son codificadas en orden alfabético.
Notación General: Se simboliza cada elemento con subı́ndices de la forma aij , donde i
representa la fila donde se encuentra y j la columna.
Ası́ la matriz de m filas y n columnas cuyos elementos son aij es:
 
a11 a12 . . . a1j . . . a1n
 
 a21 a22 . . . a2j . . . a2n 
 
 . . . . 
 .. .. .. .. 
 
A= 
 ai1 ai2 . . . aij . . . ain 
 
 . .. .. .. 
 .. . . . 
 
am1 am2 . . . amj . . . amn

que abreviadamente se representa por:

A = (aij )m×n , donde m, n ∈ N

siendo i = 1; 2; 3; . . . ; m ; j = 1; 2; 3; . . . ; n y podemos leer ası́:


A es la matriz de m filas y n columnas. aij es un elemento de la matriz A.
Si aij ∈ K; (K = R ó K = C) entonces definimos una matriz Am×n como una aplicación de
I × J en K.
I ×J −→ K
(i, j) −→ aij
con 1 ≤ i ≤ m ; 1≤j ≤n donde a cada pareja (i, j) le corresponde un solo elemento
aij ∈ K.

1.1.3. Orden de una Matriz

El orden de una matriz es la multiplicación indicada del número de filas por el número de
columnas de dicha matriz, ası́ si la matriz tiene m filas y n columnas diremos que la matriz
es de orden m × n.
!
4 2 −5
Ejemplo 1.1.1. La matriz tiene 2 filas y 3 columnas, entonces decimos que es
7 1 −3
de orden 2 × 3.

El conjunto de matrices m × n con elementos aij ∈ K se denota por Km×n . Es decir


Km×n = {(aij )m×n /aij ∈ K}
Si K = R, entonces Rm×n = {(aij )m×n /aij ∈ R}
Si K = C, entonces Cm×n = {(aij )m×n /aij ∈ C}
4 Algebra Lineal Walter Arriaga Delgado

1.1.4. Igualdad de Matrices

Dos matrices del mismo orden son iguales si todos sus elementos de la misma posición son
respectivamente iguales.
Ası́, sean las matrices A = (aij )m×n ∧ B = (bij )m×n

A = B ↔ aij = bij , ∀i, j , 1 ≤ i ≤ m , 1 ≤ j ≤ n

Ejemplo 1.1.2. Halle el valor de: (2x − y) + (2z − w). Si las matrices:
! !
2x + y 2z + w 4 5
y
x − 2y z − 2w −1 0

son iguales.
Solución
De la igualdad de matrices
! !
2x + y 2z + w 4 5
=
x − 2y z − 2w −1 0

Se tiene:
2x + y = 4 ∧ x − 2y = −1 entonces x = 7/5 , y = 6/5
Ası́ mismo:
2z + w = 5 ∧ z − 2w = 0 entonces z = 2 , w = 1
Luego el valor de : (2x − y) + (2z − w) es:
  
7 6 8 23
2 − + (2(2) − 1) = + 3 =
5 5 5 5

1.1.5. Matrices Especiales

a) Matriz Cuadrada: Una matriz A es cuadrada cuando el número de filas es igual al número
de columnas. Am×n es cuadrada si y sólo si m = n, en este caso se dice que A es de orden
n × n o simplemente de orden n y se representa por An .
 
a11 a12 a13 · · · a1n
 
a 
 21 a22 a23 · · · a2n 
 
A=  a31 a32 a33 · · · a3n 
 (1.1)
 . .. .. .. .. 
 .. . . . . 
 
an1 an2 an3 · · · ann
" #
2 −1
Ejemplo 1.1.3. La matriz A = es cuadrada de orden 2.
3 5
Walter Arriaga Delgado Algebra Lineal 5

Diagonal Principal: Es una matriz cuadrada A = (aij )n×n , la diagonal principal es el


conjunto de elementos aij tales que i = j. Ası́ en:
 
2 3 −5
 
A=  7 9 8 

1 −4 0
la diagonal principal es la terna (2 9 0) y la diagonal secundaria es la terna (1 9 − 5).
En la matriz cuadrada 1.6, la diagonal principal es: (a11 a22 a33 . . . ann )

Tipos de matrices cuadradas:

Las matrices cuadradas pueden ser:

a.1. Matriz Triangular: Es aquella matriz cuyos elementos que se encuentran por encima
o por debajo de la diagonal principal son ceros. Estas a su vez pueden ser:
a.1.1. Matriz Triangular Superior : Una matriz cuadrada A = (aij )n×n es triangular
superior si aij = 0 ∀i > j, esto es, cuando los elementos que se encuentran por
debajo de la diagonal principal son ceros.
 
a a12 a13 · · · a1n
 11 
 0 a22 a23 · · · a2n 
 
 
T =  0 0 a33 · · · a3n 
 . .. .. .. .. 
 .. . . . . 
 
0 0 0 · · · ann
 
3 5 0
 
Ejemplo 1.1.4. La matriz  
0 7 0 es triangular superior.
0 0 0
a.1.2. Matriz Triangular Inferior : Una matriz cuadrada A = (aij )n×n es triangular
inferior si aij = 0 ∀i < j, esto es, cuando los elementos que se encuentran por
encima de la diagonal principal son ceros.
 
a 0 0 ··· 0
 11 
a 0 
 21 a22 0 · · · 
 
T =  a31 a32 a33 · · · 0 
 . .. .. .. .. 
 .. . . . . 
 
an1 an2 an2 · · · ann
 
16 0 0
 
Ejemplo 1.1.5. La matriz 
 1 16 0  es triangular inferior.

3 2 π
6 Algebra Lineal Walter Arriaga Delgado

a.2 Matriz Diagonal: Es aquella matriz cuyos elementos que se encuentran por encima
y por debajo de la diagonal principal son ceros. Es decir aij = 0 si i 6= j.
 
a 0 0 ··· 0
 11 
 0 a22 0 · · · 0 
 
 
D=  0 0 a33 · · · 0  
 . .. .. .. .. 
 .. . . . . 
 
0 0 0 · · · ann
 
! π 0 0
3 0  
Ejemplo 1.1.6. Las matrices ,  
 0 e 0  son diagonales.
0 4
0 0 α
a.3 Matriz Escalar: Es aquella matriz cuyos elementos que se encuentran en la diagonal
principal de toda matriz diagonal son iguales.
 
α 0 0 ··· 0
 
0 α 0 · · · 0
 
 
E= 0 0 α · · · 0 
 .. .. .. .. .. 
. . . . .
 
0 0 0 ··· α

En forma general: 
α, si i = j
En es escalar si aij =
0, si i 6= j
 
! 3 0 0
2 0  
Ejemplo 1.1.7. Las matrices , 
0 3 0  son escalares

0 2
0 0 3
a.4 Matriz Identidad: Es aquella matriz cuyos elementos que se encuentran en la diag-
onal principal de toda matriz escalar son iguales a 1.
 
1 0 0 ··· 0
 
0 1 0 · · · 0
 
 
I= 0 0 1 · · · 0 
 .. .. .. . . .. 
. . . . .
 
0 0 0 ··· 1

En forma general: 
1, si i = j
In es identidad si aij =
0, si i =
6 j
Walter Arriaga Delgado Algebra Lineal 7

b) Matriz Rectangular: Son aquellas matrices donde el número de filas es distinta al número
de columnas. Esto es: la matriz A = (aij )m×n es rectangular si m 6= n.

Ejemplo 1.1.8.  
3 0  
 
2 4 ; 2 3 1 −1
  1×4
1 2
3×2

c) Matriz Nula: Es aquella matriz cuadrada o rectangular en donde todos sus elementos son
nulos, es decir, una matriz A = (aij )m×n es nula si aij = 0 ∀i, j.

Ejemplo 1.1.9. ! !
0 0 0 0 0
;
0 0 0 0 0

1.1.6. Operaciones con Matrices

Ası́ como en cualquier conjunto numérico, en el conjunto de matrices también se definen


ciertas operaciones, obviamente, bajo determinadas condiciones.

a. Adición y sustracción de matrices


Sean las matrices A = (aij )m×n ∧ B = (bij )m×n
La suma A + B de las matrices A y B de orden m × n es una matriz C = (cij )m×n de
orden m × n, de tal modo, que cada elemento cij es igual a la suma: aij + bij .
Ası́: A + B = (aij )m×n + (bij )m×n = (aij + bij )m×n
La resta A − B de las matrices A y B de orden m × n es una matriz D = (dij )m×n de
orden m × n, de tal modo, que cada elemento dij es igual a la resta: aij − bij .
Ası́: A − B = (aij )m×n − (bij )m×n = (aij − bij )m×n
! !
2 4 5 7
Ejemplo 1.1.10. Sean: A = ; B= , entonces:
3 −1 −9 16
! ! ! !
2 4 5 7 2+5 4+7 7 11
A+B = + = ⇒ (A + B) =
3 −1 −9 16 3 − 9 −1 + 16 −6 15
! ! ! !
2 4 5 7 2−5 4−7 −3 −3
A−B = − = ⇒ (A − B) =
3 −1 −9 16 3 − (−9) −1 − 16 12 −17

Definición 1.1.2. La operación binaria que hace corresponder a cada par de matrices
A y B una tercera matriz C llamada suma de A y B, esto es:

+ : Mm×n × Mm×n −→ Mm×n


(A, B) −→ +(A, B) = A + B = C
8 Algebra Lineal Walter Arriaga Delgado

Propiedades:

i. La adición es interna o cerrada en Mm×n es decir: (A + B) ∈ Mm×n ∀ A, B ∈


Mm×n , por definición de la adición de matrices.

ii. La adición en Mm×n es asociativa, es decir: (A + B) + C = A + (B + C), ∀


A; B; C ∈ Mm×n . Veamos:
Sean A = (aij )m×n ; B = (bij )m×n ; C = (cij )m×n
⇒ (A + B) + C = ((aij )m×n + (bij )m×n + (cij )m×n )
⇒ (aij + bij + cij )m×n = (aij )m×n + (bij + cij )m×n = A + (B + C)

iii. Existe en Mm×n una única matriz identidad o neutro aditivo denotado por 0; lla-
mada matriz nula donde todos sus elementos son ceros; esto es: ∀ A ∈ Mm×n , ∃ 0 ∈
Mm×n tal que A + 0 = 0 + A = A

iv. Toda matriz A ∈ Mm×n tiene un simétrico aditivo dado por −A ∈ Mm×n ; esto
es: ∀ A ∈ Mm×n , ∃ (−A) = (−aij )m×n tal que A+(−A) = (aij )m×n +(−aij )m×n =
0m×n

Con estas propiedades queda garantizado que (Mm×n ; +) tiene estructura de grupo.
Además:

v. La adición en Mm×n es conmutativa, es decir: A + B = B + A, ∀ A; B ∈ Mm×n ,


ası́: A + B = (aij )m×n + (bij )m×n ⇒ (aij + bij )m×n = (bij + aij )m×n
⇒ (bij )m×n + (aij )m×n = B + A

Mediante esta quinta propiedad diremos que (Mm×n ; +) es un grupo abelino o


conmutativo.

b. Multiplicación de matrices

b.1. Multiplicación de un escalar por una matriz


Cuando un escalar multiplica a una matriz, cada elemento de la matriz queda
multiplicado por dicho escalar. Ası́: Sea A = (aij )m×n ⇔ αA = (αaij )m×n .
Donde “α” es un escalar
! !
4 3 5(4) 5(3)
Ejemplo 1.1.11. Sea: A = ⇒ 5A = ⇒ 5A =
2 1 5(2) 5(1)
!
20 15
10 5
Definición 1.1.3. La operación binaria que hace corresponder a cada par de ele-
mentos, un escalar α y una matriz A, una matriz C llamada producto de α y A,
Walter Arriaga Delgado Algebra Lineal 9

esto es:
· : K × Mm×n −→ Mm×n
(α, A) −→ ·(α, A) = αA

Propiedades:

i. Propiedad distributiva: α(A + B) = αA + αB, ∀ A, B ∈ Mm×n ; ∀ α ∈ K


ii. Propiedad distributiva: (α + β)A = αA + βA, ∀ A ∈ Mm×n ; ∀ α; β ∈ K
iii. Propiedad asociativa: α(βA) = (αβ)A, ∀ A ∈ Mm×n ; ∀ α; β ∈ K

Por tanto: Si K = R entonces (Mm×n , +, ·) es un espacio vectorial sobre el cuerpo


de los números reales.
Si K = C entonces (Mm×n , +, ·) es un espacio vectorial sobre el cuerpo de los
números complejos.
b.2. Multiplicación de una matriz fila por una matriz columna
 
b
 1
b 
   2
 
Sean las matrices: A = a1 a2 a3 · · · an ; B= 
 b3 
1×n .
 .. 
 
bn
n×1
Definimos: AB = (a1 b1 + a2 b2 + a3 b3 + · · · + an bn )1×1 . Es decir:
n
X
AB = ak bk
k=1
 
  7
 
Ejemplo 1.1.12. Sean: A = 1 3 5 B=
;
−2

4
entonces: AB = (1)(7) + (3)(−2) + (5)(4) = 21

b.3. Multiplicación de dos matrices


Dados dos matrices A = (aij )m×n ; B = (bjk )n×p existe una tercera matriz
C = (cik )m×p que representa el producto de multiplicar las matrices A y B; donde
cik es el producto de multiplicar la fila i de la primera matriz por la columna k de
la segunda matriz.

Definición 1.1.4. La operación binaria que hace corresponder a cada par de ma-
trices A y B, una matriz C llamada producto de A y B, esto es:

· : Mm×n × Mn×p −→ Mm×p


(A, B) −→ ·(A, B) = AB
10 Algebra Lineal Walter Arriaga Delgado

Nota: La multiplicación de una matriz A y la matriz B existe si y sólo si el número


de columnas de la primera matriz es igual al número de filas de la segunda matriz.
Es decir:
n
X
AB = (cik )m×p / cik = aij · bjk
j=1

Si el producto AB está definido se dice que A es conformable con B para la multi-


plicación.
 
! 5 4 1
4 3 2  
Ejemplo 1.1.13. Sean las matrices: A = ; B=  7 9 3
5 1 9
2×3 2 1 2
3×3
La matriz C producto
! de A y B será de orden 2 × 3 de la siguiente forma.
c11 c12 c13
C= . Hallando cada uno de los elementos:
c21 c22 c23
c11 = (4)(5) + (3)(7) + (2)(2) = 45
c12 = (4)(4) + (3)(9) + (2)(1) = 45
c13 = (4)(1) + (3)(3) + (2)(2) = 17
c21 = (5)(5) + (1)(7) + (9)(2) = 50
c22 = (5)(4) + (1)(9) + (9)(1) = 38
c23 = (5)(1) + (1)(3) + (9)(2) = 26
!
45 45 17
entonces: C =
50 38 26

Nota: La multiplicación de matrices no necesariamente es conmutativa.

b.4. Multiplicación de matrices por bloques


Existen situaciones en las que es conveniente manejar las matrices como bloques de
matrices más pequeñas, llamadas submatrices, y después multiplicar bloque por
bloque en lugar de componente por componente. Resulta que la multiplicación en
bloques es muy similar a la multiplicación normal de matrices.

Ejemplo 1.1.14. Considere el producto:


  
1 −1 2 4 1 4 3
  
2 0 4 5  
   2 −1 0
AB =   
1 1 2 −3  
  −3 2 1
−2 3 5 0 0 1 2

El lector debe verificar que este producto esté definido. Ahora se hace una partición
Walter Arriaga Delgado Algebra Lineal 11

de estas matrices mediante lı́neas punteadas.


  
1 −1 | 2 4 1 4 | 3
     
 2 0 | 4 5  2 −1 | 0  C | D G | H
     
  
−− −− | −− −− −− −− | −− =  −− | −−  −− | −−
     
 1 1 | 2 −3   −3 2 | 1  E | F J | K
  
−2 3 | 5 0 0 1 | 2
!
1 −1
Existen otras maneras de formar la partición. En este caso C = ,
2 0
!
1
K = , etc. Ahora suponiendo que todos los productos y las sumas de las
2
matrices están definidos, se puede multiplicar normalmente para obtener
 
! ! CG + DJ | CH + DK
C D G H  
AB = = − − −− | − − −− 

E F J K
EG + F J | EH + F K
! ! !
1 −1 1 4 −1 5
Ahora: CG = =
2 0 2 −1 2 8
! ! !
2 4 −3 2 −6 8
DJ = = y
4 5 0 1 −12 13
! ! ! !
−7 13 1 1 3 3
CG + DJ = . De manera similar, EH = = ,
−10 21 −2 3 0 −6
! ! ! !
2 −3 1 −4 −1
FK = = y EH + F K = .
5 0 2 5 −1
! !
13 −3 4
El lector debe verificar que CH + DK = y EG + F J =
20 −11 −1
de manera que
 
−7 13 | 13  
    −7 13 13
CG + DJ | CH + DK −10 21 | 20   
   
 −10 21 20 
  
AB =   − − −− | − − −−  = 
 −− −− | −− =  
   −3 4 −1
EG + F J | EH + F K    
 −3 4 | −1 
−11 −1 −1
−11 −1 | −1

Ésta es la misma respuesta que se obtiene si se multiplica AB directamente.


Cuando se hace una partición de dos matrices y, como ene el ejemplo anterior, todos
los productos de submatrices están definidos, entonces se dice que la partición es
conformante.
12 Algebra Lineal Walter Arriaga Delgado

Propiedades

i. Propiedad asociativa: A(BC) = (AB)C, donde A ∈ Mm×p , B ∈ Mp×q , C ∈ Mq×n .


En efecto:
p
X p
X Xq X q
p X p X
X q
A(BC) = aik (BC)kj = aik ( bkl clj ) = aik (bkl clj ) = (aik bkl )clj
k=1 k=1 l=1 k=1 l=1 k=1 l=1
q X
X p q X
X p q
X
= (aik bkl )clj = ( aik bkl )clj = (AB)il clj = (AB)C
l=1 k=1 l=1 k=1 l=1

ii. Propiedad asociativa: A(B + C) = AB + AC, donde A ∈ Mm×p , B; C ∈ Mp×n .


En efecto:
p
X p
X p
X
A(B + C) = aik (B + C)kj = aik (bkj + ckj ) = (aik bkj + aik ckj ) =
k=1 k=1 k=1
p
X p
X
aik bkj + aik ckj = AB + AC
k=1 k=1

iii. Propiedad no conmutativa: AB 6= BA


iv. AB = 0 no implica que A = 0 ó B = 0
v. AB = AC no implica que B = C
vi. Elemento neutro: ∀ A ∈ Mn×n , ∃ In ∈ Mn×n tal que IA = AI = A.
! !
3 2 3 7
Ejemplo 1.1.15. Sean las matrices: A = ; B = ; Veamos AB y
4 1 1 5
! ! ! ! ! !
3 2 3 7 11 31 3 7 3 2 37 13
BA. AB = = y BA = =
4 1 1 5 13 33 1 5 4 1 23 7

De donde observamos que: AB 6= BA.


! !
3 5 5 10
Ejemplo 1.1.16. Sean las matrices: A = ; B= ;
6 10 −3 −6
Veamos AB.
! ! !
3 5 5 10 0 0
AB = =
6 10 −3 −6 0 0

Vemos que AB = 0, pero no implica que A o B sean matrices nulas.


! ! !
1 1 2 3 5 8
Ejemplo 1.1.17. Sean las matrices: A = , B= , C=
0 0 5 8 2 3
Veamos AB y AC.
! ! ! ! ! !
1 1 2 3 7 11 1 1 5 8 7 11
AB = = y AC = =
0 0 5 8 0 0 0 0 2 3 0 0
Se observa que AB = AC sin embargo B 6= C.
Walter Arriaga Delgado Algebra Lineal 13

Definición 1.1.5.

 Si AB = BA, se dice que las matrices A y B son matrices conmutables.


 Si AB = −BA , se dice que las matrices A y B son matrices anticonmutables.
Nota: Si A es una matriz cuadrada de orden n y B = aA + bI donde a y b son escalares
entonces A y b son conmutables.

c. Potenciación de matrices Sea A una matriz cuadrada y n ∈ N/n ≥ 2; entonces se


define:
An = A.A.A.A
| {z · · · A}
“n′′ veces
! ! ! !
1 3 1 3 1 3 7 15
Ejemplo 1.1.18. Si A = entonces A2 = =
2 4 2 4 2 4 10 22

Nota: La potenciación de matrices es conmutativa. De donde se tendrá.

a. (k. A)n = kn . An
b. Si A es una matriz cuadrada entonces Am An = An Am /m; n ∈ N
c. Si A y B conmutan entonces Am y B n conmutan siendo m, n naturales.
d. Si A es una matriz cuadrada (Am )n = Amn = (An )m ; m; n ∈ N.

1.1.7. Traza de una matriz

Dada la matriz cuadrada A = (aij )n×n , se llama traza de A a la suma de los elementos de
la diagonal principal y se denota por:
n
X
Traz(A) = aii = a11 + a22 + a33 + · · · + ann
i=1
 
5 9 0
 
Ejemplo 1.1.19. Sea A=
0 7 4 ⇒ Traz(A) = 5 + 7 − 2 = 10
9 −5 −2
Teorema 1.1.1. Sean las matrices cuadradas A y B del mismo orden y λ un escalar.

Traz(A ± B) = Traz(A)± Traz(B)


En efecto: Sean A = (aij )n×n ; B = (bij )n×n ⇒ A ± B = (aij ± bij )n×n
Xn n
X n
X
Traz(A ± B) = (aii ± bii ) = (aii ) ± (bii ) = Traz(A) ± Traz(B)
i=1 i=1 i=1

Traz(λ · A) = λ Traz(A)
X n n
X
En efecto: Traz(λA) = λaii = λ aii = λ · TrazA
i=1 i=1
14 Algebra Lineal Walter Arriaga Delgado

Traz(AB) = Traz(BA)
n
X n
X
En efecto: Traz(AB) = cij , donde cij = aij bj i entonces
i=1 j=1
  !
n
X n
X n
X n
X
Traz(AB) =  aij bj i  ⇒ bji aij = Traz(BA)
i=1 j=1 j=1 i=1

1.1.8. Transpuesta de una matriz

Definición 1.1.6. Sea A ∈ Mm×n , se llama transpuesta de A y se denota por At a la matriz


resultante de cambiar, ordenadamente, las filas por las columnas de la matriz A de tal manera,
que si llamamos A = (aij ) y At = (a′ij ) tenemos:

a′ij = aji , 1 ≤ i ≤ m 1 ≤ j ≤ n

por lo que si A ∈ Mm×n ⇒ At ∈ Mn×m .


 
! 1 4
1 2 3  
Ejemplo 1.1.20. Dada la matriz A= entonces At = 
2 7

4 7 2
3 2
Teorema 1.1.2.
(A ± B)t = At ± B t , A, B ∈ Mm×n .
n
!t n
X X
Ai = Ati , donde: Ai son matrices del mismo orden, i = 1, n
i=1 i=1

(At )t = A, A ∈ Mm×n .

(λA)t = λAt ; A ∈ Mm×n , λ es un escalar

(AB)t = B t · At , A ∈ Mm×n , B ∈ Mn×p .


n
!t 1
Y Y
Ai = Ati , donde: Ai son matrices conformables, i = 1, n
i=1 i=n

1.1.9. Matriz simétrica

Una matriz cuadrada diremos que es simétrica si y sólo si es igual a su transpuesta, en


otras palabras es simétrica respecto a su diagonal principal.

A es simétrica ⇐⇒ A = At
 
! −10 1 2
5 7  √ 
Ejemplo 1.1.21. Las matrices ;  1 2 −3  son matrices simétricas
7 4
2 −3 π
Walter Arriaga Delgado Algebra Lineal 15

1.1.10. Matriz antisimétrica

Una matriz cuadrada será antisimétrica si y sólo si es igual al negativo de su transpuesta.

A es antisimétrica ⇐⇒ A = −At

Los elementos simétricos respecto de la diagonal principal son opuestos y su diagonal son
ceros.
!
0 5
Ejemplo 1.1.22. Dada la matriz A = se tiene que
−5 0
! !
t 0 −5 0 0
A = = (−1) = −A
5 0 −5 0

entonces A es antisimétrica.

Observación 1.1.1. Todos los elementos de la diagonal principal de una matriz antisimétrica
son iguales a cero y los elementos simétricos respecto a la diagonal principal son opuestos o
en forma equivalente: aij = −aji

Teorema 1.1.3. Toda matriz cuadrada se puede escribir como la adición de una matriz
simétrica y otra antisimétrica

Demostración
Observe las matrices A + At y A − At . Veamos que:
(A + At )t = At + (At )t = At + A = A + At ⇒ A + At es simétrica
(A − At )t = At − (At )t = At − A = −(A − At ) ⇒ A − At es antisimétrica
A + At A − At
y como: A= +
2 }
| {z 2 }
| {z
simétrica antisimétrica

podemos expresar la matriz A como una adición de una matriz simétrica y otra antisimétrica.

1.1.11. Matriz involutiva

Una matriz cuadrada es involutiva si y sólo si su cuadrado es igual a la identidad, es decir:


A2 = I.
!
−1 −1
Ejemplo 1.1.23. Dada la matriz A= . Veamos:
0 1
! ! !
−1 −1 −1 −1 1 0
A2 = A. A = = = I entonces A2 = I ⇔ A es involutiva.
0 1 0 1 0 1
16 Algebra Lineal Walter Arriaga Delgado

1.1.12. Matriz nilpotente

Una matriz cuadrada A se dice nilpotente de ı́ndice k si Ak = Θ; donde Θ es una matriz


nula; además Ak−1 6= Θ.
 
1 1 3
 
Ejemplo 1.1.24. Dada la matriz A=
5 2 6
. Veamos:
−2 −1 −3
    
1 1 3 1 1 3 0 0 0
    
A2 = A. A = 
5 2 6 
 5 2 6 
= 3 3 9
−2 −1 −3 −2 −1 −3 −1 −1 −3
    
1 1 3 0 0 0 00 0
    
A3 = A. A = 
 5 2 6  3
 3 9  = 0 0 0
  
−2 −1 −3 −1 −1 −3 0 0 0

Entonces A es una matriz nilpotente de ı́ndice de nilpotencia 3.

1.1.13. Matriz idempotente

Una matriz cuadrada A se llama idempotente si y sólo si A2 = A


!
3 2
Ejemplo 1.1.25. Veamos la matriz A = , donde:
−3 −2
! ! !
2
3 2 3 2 3 2
A = A. A = = , obteniéndose que A2 = A
−3 −2 −3 −2 −3 −2
luego diremos que A es una matriz indepotente.

1.1.14. Matriz conjugada



Sean a y b números reales e i = −1; la expresión z = a + bi representa un número
conplejo. Los números complejos de la forma a + bi y a − bi se llaman conjugados y cada
uno de ellos es conjugado del otro. Si z = a + bi, su complejo conjugado se representa por
z = a + bi.
Sean z1 = a + bi y z2 = z 1 = a − bi; entonces, z 2 = z 1 = a − bi = a + bi, es decir, el conjugado
del conjugado de un número complejo z es el mismo.
Si z1 = a + bi y z2 = c + di se tiene

z1 + z2 = (a + c) + (b + d)i y z1 + z2 = (a + c) − (b + d)i = (a − bi) + (c − di) = z1 + z2 ,


es decir, el conjugado de la suma de dos números complejos es igual a la suma de los
conjugados.
Walter Arriaga Delgado Algebra Lineal 17

z1 ·z2 = (ac− bd)+ (ad+ bc)i y z1 · z2 = (ac− bd)− (ad+ bc)i = (a− bi)(c− di) = z1 ·z2 ,
esto es, el conjugado del producto de dos números complejos es igual al producto de los
conjugados.
Sea A una matriz cuyos elementos son números complejos; la matriz obtenida a partir
de A sustituyendo cada elemento por su conjugado se llama matriz conjugada de A y se
representa por A (conjugada de A).
" # " #
1 + 2i i 1 − 2i −i
Ejemplo 1.1.26. Si A = será A=
3 2 − 3i 3 2 + 3i

Sean A y B las matrices conjugadas, respectivamente de A y B, y k un escalar cualquiera;


entonces se tiene que:

Teorema 1.1.4.
(A) = A.

(kA) = k · A

(A + B) = A + B.

(AB) = A · B.
t
(A)t = (A ).
t
donde la transpuesta de A se denota por A (y se lee transpuesta de la conjugada de A).
Algunas veces se emplea la notación A∗ .

1.1.15. Matriz hermitiana

Dada una matriz cuadrada de elementos complejos se llama hermitiana o hermı́tica si dicha
matriz es igual a la transpuesta de su matriz conjugada, es decir:
t
una matriz cuadrada A es hermitiana si y sólo si A = A . De donde se concluye que los
elementos de la diagonal principal son necesariamente reales.
! !
5 4+i 5 4−i
Ejemplo 1.1.27. Sea la matriz: A = ⇔ A=
4−i 1 4+i 1
!
5 4+i
(A)t = , como: (A)t = A ⇒ A es una matriz hermitiana.
4−1 1
Propiedades

Sea A = B + iC, donde A es hermitiana y B y C reales, entonces B es simétrica y C


antisimétrica.

En una matriz hermitiana, los elementos de la diagonal principal son reales.


18 Algebra Lineal Walter Arriaga Delgado

1.1.16. Matriz antihermitiana

Dada una matriz cuadrada de elementos complejos se llama antihermitiana si es igual al


negativo de la transpuesta de su matriz conjugada. Es decir:
t
una matriz cuadrada A es antihermitiana si y sólo si A = −A .
De donde se cuncluye que los elementos de la diagonal principal son ceros.
! !
0 4 + 5i 0 4 − 5i
Ejemplo 1.1.28. Sea A= ⇒ A=
−4 + 5i 0 −4 − 5i 0
! !
0 −4 − 5i 0 4 + 5i
⇒ (A)t = = (−1) = −A
4 − 5i 0 −4 + 5i 0
luego se dirá que la matriz A es antihermitiana.

Teorema 1.1.5. Sea A una matriz cuadrada de elementos complejos.

A + (A)t es hermitiana.

A − (A)t es antihermitiana.

Teorema 1.1.6. Toda matriz cuadrada de elementos complejos se puede escribir como la
adición de una matriz hermitiana y otra antihermitiana.

1.1.17. Matriz ortogonal

Sea la matriz cuadrada An = [aij ]. A es ortogonal sı́ y sólo si A−1 = At , A es no singular

Propiedades

A es ortogonal ⇔ AAt = In .

Si A y B son ortogonales ⇒ AB es ortogonal.

Las matrices ortogonales, representan transformaciones en espacios vectoriales reales llamadas


justamente, transformaciones ortogonales. Estas transformaciones son isomorfimos internos
del espacio vectorial en cuestión. Suelen representar rotaciones y son usadas extensivamente
en computación gráfica. Por sus propiedades también son usadas para el estudio de ciertos
fibrados y en fı́sica se las usa en la formulación de ciertas teorı́as de campos.

1.1.18. Matriz positiva

Sea A ∈ Rn×n , A es positiva sı́, y sólo si XAt X > 0 ∀ X ∈ Rn , X 6= 0.


Walter Arriaga Delgado Algebra Lineal 19

1.2. Determinantes

1.2.1. Algo de historia


Los determinantes fueron introducidos en Occidente a partir del siglo XVI, esto es, antes
que las matrices, que no aparecieron hasta el siglo XIX. Conviene recordar que los chinos
(Hui, Liu, Jiuzhang Suanshu o Los nueve capı́tulos del arte matemático.) fueron los primeros
en utilizar las tablas de números y en aplicar un algoritmo que, desde el Siglo XIX, se conoce
con el nombre de Eliminación gaussiana.

Primeros cálculos de determinantes

En su sentido original, el determinante determina la unicidad de la solución de un sistema


de ecuaciones lineales. Fue introducido para el caso de orden 2 por Cardan en 1545 en su obra
Ars Magna presentado como una regla para la resolución de sistemas de dos ecuaciones con
dos incógnitas. Esta primera fórmula lleva el nombre de regula de modo.
El japonés Kowa Seki introdujo los determinantes de orden 3 y 4 en la misma época que
el alemán LeibnizLa aparición de determinantes de órdenes superiores tardó aún más de cien
años en llegar. Curiosamente el japonés Kowa Seki y el alemán Leibniz otorgaron los primeros
ejemplos casi simultaneamente.
Leibniz estudió los distintos tipos de sistemas de ecuaciones lineales. Al no disponer de la
notación matricial, representaba los coeficientes de las incógnitas con una pareja de ı́ndices:
ası́ pues escribı́a ij para representar ai,j . En 1678 se interesó por un sistema de tres ecuaciones
con tres incógnitas y obtuvo, para dicho ejemplo, la fórmula de desarroyo a lo largo de una
columna. El mismo año, escribió un determinante de orden 4, correcto en todo salvo en el
signo. Leibniz no publicó este trabajo, que pareció quedar olvidado hasta que los resultados
fueron redescubiertos de forma independiente cincuenta años más tarde
En el mismo periodo, Kowa Seki publicó un manuscrito sobre los determinantes, donde se
hallan fórmulas generales difı́ciles de interpretar. Parece que se dan fórmulas correctas para
determinantes de tamaño 3 y 4, y de nuevo los signos mal para los determinantes de tamaño
superior. El descubrimiento se queda sin futuro a causa del cierre de de Japón al mundo
exterior. Este aislamiento debido a los shoguns, se ve reflejado en la expulsión de los Jesuitas
en 1638.

Determinantes de cualquier dimensión

Gabriel Cramer obtuvo las primeras fórmulas generales de cálculo de los determinantes.
En 1748, un póstumo tratado de álgebra de MacLaurin recupera la teorı́a de los determinantes
al contener la escritura correcta de la solución de un sistema de cuatro ecuaciones con cuatro
incógnitas.
En 1750, Cramer formula las reglas generales que permiten la resolución de un sistema de n
ecuaciones con n incógnitas, aunque no ofrece demostración alguna. Los métodos de cálculo de
los determinantes son hasta entonces delicados debido a que se basan en la noción de signatura
de una permutación.
Los matemáticos se familiarizan con este nuevo objeto a través de los artı́culos de Bézout
en 1764, de Vandermonde en 1771 (que proporciona concretamente el calculo del determinante
de la actual Matriz de Vandermonde). En 1772, Laplace establece las reglas de recurrencia
20 Algebra Lineal Walter Arriaga Delgado

que llevan su nombre. En el año siguiente, Lagrange descubre la relación entre el cálculo de
los determinantes y el de los volúmenes.
Gauss utiliza por primera vez el término (( déterminante )), en las Disquisitiones arithmeti-
cae en 1801. Lo empleaba para lo que hoy dı́a denominamos discriminante de una cuádrica
y que es un caso particular de determinante moderno. Igualmente estuvo cerca de obtener el
teorema del determinante de un producto.

Aparición de la noción moderna de determinante

Cauchy fue el primero en emplear el término determinante con su significado moderno. Se


encargó de realizar una sı́ntesis de los conocimientos anteriores y publicó en 1812 la fórmula
del determinante de un producto. Ese mismo año Binet ofreció una demostración para dicha
fórmula. Paralelamente Cauchy establece las bases del estudio de la reducción de endomorfis-
mos.
Con la publicación de sus tres tratados sobre determinantes en 1841 en la revista Crelle,
Jacobi aporta a la noción una gran notoriedad. Por primera vez presenta métodos sistemáticos
de cálculo bajo una forma algorı́tmica. Del mismo modo, hace posible la evaluación del deter-
minante de funciones con instauración del jacobiano.
El cuadro matricial es introducido por los tabajos de Cayley y Sylvester. Cayley es además
el inventor de la notación del determinante mediante dos barras verticales y es quien estable-
ció la fórmula de cálculo de la inversa.
La teorı́a se ve reforzada por el estudio de determinantes que poseen propiedades de
simetrı́a particular y por la introducción del determinante en los nuevos campos de las
matemáticas, como es el caso del wronskiano en las ecuaciones diferenciales lineales.

Definición 1.2.1. El determinante es una función que, aplicada a una matriz cuadrada, la
transforma en un escalar.

Notación: Sea A una matriz cuadrada, el determinante de la matriz A se representa por |A|
o det(A).
Sea Mn×n el conjunto de todas las matrices cuadradas de orden n; entonces la definición queda
de la siguiente manera.

| | : Mn×n −→ R ó C
A −→ |A|

Determinante de una matriz de orden uno

Se llama determinante de una matriz de primer orden, formada por el elemento a11 , al
propio elemento a11 .

Ejemplo 1.2.1. Sea: A = (3) ⇒ |A| = 3


Walter Arriaga Delgado Algebra Lineal 21

Determinante de una matriz de orden dos


!
a11 a12
Sea la matriz A = se define el determinante de A como:
a21 a22

|A| = a11 · a22 − a21 · a12


!
3 2
Ejemplo 1.2.2. Sea: A = ⇒ |A| = 3(4) − 2(1) = 10
1 4

Determinante de una matriz de orden tres


 
a11 a12 a13
 
Sea: A = 
a21 a22 a23 
 se define el determinante de A como:
a31 a32 a33

|A| = (a11 a22 a33 + a12 a23 a31 + a21 a32 a13 ) − (a31 a22 a13 + a21 a12 a33 + a32 a23 a11 )
 
1 2 3
 
Ejemplo 1.2.3. Sea: A =  
−1 0 4 ⇒ |A| = (0 − 16 − 3) − (0 − 10 + 4) = −13
−2 1 5

1.2.2. Cálculo de Determinantes por la Regla de Sarrus

Se aplica la matriz trasladando las dos primeras filas a la parte inferior y se aplican mul-
tiplicaciones en direcciones de las diagonales, conforme se indica.
 
a11 a12 a13
 
Sea: A =  a21 a22 a23 
 entonces:
a31 a32 a33

a11 a12 a13

a21 a22 a23


|A| =
a31 a32 a33
a13 a22 a31 a11 a22 a33
a11 a12 a13
a23 a32 a11 a21 a32 a13
a21 a22 a23
a33 a12 a21 a31 a12 a23
I D

donde:
D = a11 a22 a33 + a21 a32 a13 + a31 a12 a23
22 Algebra Lineal Walter Arriaga Delgado

I = a13 a22 a31 + a23 a32 a11 + a33 a12 a21


por lo tanto
|A| = D − I
 
1 2 3
 
Ejemplo 1.2.4. Halle el determinante de: A = 
 −1 0 4

−2 1 5
Solución:

1 2 3

−1 0 4
|A| =
−2 1 5
0 0
1 2 3
4 −3
−1 0 4
−10 −16
−6 −19

∴ |A| = (−19) − (−6) = −13

1.2.3. Propiedades Generales

1. Dada una matriz cuadrada A, se tiene que: |A| = |At |.

2. Dadas las matrices cuadradas A y B y del mismo orden se tiene que: |AB| = |A||B|.

3. Si una matriz cuadrada tiene dos filas o dos columnas, respectivamente proporcionales;
se dice entonces que su determinante es cero.

4. Si una matriz cuadrada A posee una fila o una columna de ceros, su determinante es
nulo.

5. Si se intercambian dos filas o columnas consecutivas de una matriz cuadrada, su deter-


minante sólo cambia de signo.

6. Si a una fila o columna de una matriz cuadrada se le suma una cierta cantidad de veces
otra fila o columna, entonces la matriz resultante tiene el mismo determinante.

7. Si todos los elementos de una fila o una columna se multiplican por un número k, todo
el determinante queda multiplicado por dicho número.
Walter Arriaga Delgado Algebra Lineal 23

8. El determinante de una matriz diagonal, triangular inferior o triangular superior es igual


al producto de multiplicar los elementos de la diagonal principal.

9. El determinante de una matriz antisimétrica de orden impar es igual a cero.

10. El determinante de una matriz hermitiana es un número real.

11. El determinante de una matriz ortogonal A es +1 ó −1. En efecto, de las propiedades del
determinante tenemos det(A · At ) = det A det At = det A det A = (det A)2 = det I = 1,
y por tanto, det A = ±1.

12. Si A es una matriz nilpotente entonces |A| = 0. En efecto, si A es una matriz nilpotente
de orden k, Ak = 0. Por tanto |Ak | = 0, luego |A|k = 0, y en consecuencia |A| = 0.

13. Sea A una matriz de orden n; se cumple que: |kA| = kn |A|; k es una escalar.

14. El determinante de una matriz cuadrada no varı́a si a una fila o una columna se le suma
una combinación lineal de filas o columnas paralelas.

15. Si una fila o columna de la matriz cuadrada A es combinación lineal de otras paralelas,
su determinante es nulo.

16. Si descomponemos una fila o una columna de una matriz cuadrada en suma de dos,
podemos descomponer el determinante en suma de dos determinantes de la forma:

a a12 ··· a1n a11 a12 · · · a1n a11 a12 · · · a1n
11
. .. .. . .. .. .. .. ..
.. .
. . . . . . . .

ai1 + a′ ai2 + a′ ′
· · · ain + ain = ai1 ai2 · · · ain + a′i1 a′i2 · · · a′in
i1 i2
.. .. .. . .. .. .. .. ..
. . . .. . . . . .


an1 an2 ··· ann an1 an2 · · · ann an1 an2 · · · ann

Observación 1.2.1. No confundir con det(A + B) = det(A) + det(B), que esto no se cumple.

Observación 1.2.2. Teniendo en cuenta la definición del determinante, se pueden considerar


dos matrices cuadradas especiales más:

a) Matriz Singular. Una matriz es singular si su determinante es cero; es decir:

det A = 0 ⇐⇒ A es singular

b) Matriz Regular. Una matriz es regular llamada también no singular si su determinante


es diferente de cero; es decir:

det A 6= 0 ⇐⇒ A es no singular
24 Algebra Lineal Walter Arriaga Delgado

Ejemplo 1.2.5.
!
 Dada la matriz: A = 3 4
6 8
⇒ |A| = 24 − 24 = 0

∴ A es singular
!
 Dada la matriz: B = 4 3
1 5
⇒ |B| = 20 − 3 = 17

∴ B es no singular

1.2.4. Menores complementarios y Cofactores

Considérese la matriz cuadrada de orden n.


 
a11 a12 · · · a1j · · · a1n
 
 a21 a22 · · · a2j · · · a2n 
 
 .. 
 . 
 
A= 
 ai1 ai2 ··· aij · · · ain 
 
 .. 
 . 
 
an1 an2 · · · anj · · · ann
Denotaremos por Mij a la matriz cuadrada de orden (n − 1) que resulta de eliminar la fila i
y la columna j de la matriz A luego:

I. Al determinante de la matriz Mij (|Mij |) se le llamará menor complementario del ele-


mento aij de la matriz A.

II. Se define cofactor del elemento aij denotado por Aij .

Aij = (−1)i+j |Mij |

Ejemplo 1.2.6.
 
3 1 4
 
Sea la matriz A = 
−1 2 −3 

5 2 −2

2 −3 √

el menor de 3 es: √ = −4 + 3 2
2 −2

1 4

el menor de 5 es: = −3 − 8 = −11
2 −3

3 4

el menor de 2 es: = −6 − 20 = −26
5 −2

√ 3 4

el menor de 2 es: = −9 + 4 = −5
−1 3
Walter Arriaga Delgado Algebra Lineal 25

Nota:

1. La diferencia entre el menor |Mij | y el cofactor Aij de un elemento aij es solamanete el


signo.
Ası́: Aij = (−1)i+j |Mij |, de donde:
|{z} | {z }
cofactor menor

|Mij | si i + j es par
Aij =
−|M | si i + j es impar
ij

2. El signo que relaciona a Aij y |Mij | del elemento aij de la matriz A se puede hallar en
forma práctica mediante el siguiente arreglo:
 
+ − + ···
 
− + − · · ·
 
 
+ − + · · ·
 
.. .. ..
. . .

Ası́ el signo de a35 es positivo puesto que (3 + 5) es par.


El signo del elemento a25 es negativo ya que (2 + 5) es impar.

1.2.5. Cálculo de Determinantes por Cofactores

Teorema de Laplace:
El determinante de una matriz A = (aij )m×n es igual a la suma de los productos obtenidos
de multiplicar los elementos de cualquier fila (o columna) por sus respectivos cofactores:
n
X
|A| = ai1 Ai1 + ai2 Ai2 + . . . + ain Ain = aij Aij
j=1

n
X
|A| = a1j A1j + a2j A2j + . . . + anj Anj = aij Aij
i=1

Ejemplo 1.2.7.

Calcular el determinate de:


 
3 5 7
 
A=
−2 0 4

1 −3 2
Solución:
Elegimos la fila 2, entonces:
26 Algebra Lineal Walter Arriaga Delgado


5 7 3 7 3 5

|A| = −(−2) + 0 − 4 ⇒ |A| = 2(10 + 21) + 0 − 4(−9 − 5)
−3 2 1 2 1 −3

∴ |A| = 118

Nota: Lo más recomendable es escoger la fila o columna que tenga la mayor cantidad de ceros.

1.3. Otras matrices importantes

Matriz diagonal

Una matriz diagonal es una matriz cuadrada en que las entradas son todas nulas salvo en
la diagonal principal, y éstas pueden ser nulas o no.
Toda matriz diagonal es también una matriz simétrica, triangular (superior e inferior) y
(si las entradas provienen del cuerpo R o C) normal.
Otro ejemplo de matriz diagonal es la matriz identidad.

Operaciones matriciales

Las operaciones de suma y producto de matrices son especialmente sencillas para matrices
diagonales. Vamos a emplear aquı́ la notación de diag(a1 , . . . , an ) para una matriz diagonal
que tiene las entradas a1 , . . . , an en la diagonal principal, empezando en la esquina superior
izquierda. Entonces, para la suma se tiene:

diag(a1 , . . . , an ) + diag(b1 , . . . , bn ) = diag(a1 + b1 , . . . , an + bn )

y para el producto de matrices,

diag(a1 , . . . , an ) · diag(b1 , . . . , bn ) = diag(a1 b1 , . . . , an bn )

La matriz diagonal diag(a1 , . . . , an ) es invertible si y sólo si las entradas a1 , . . . , an son todas


distintas de 0. En este caso, se tiene

diag(a1 , . . . , an )−1 = diag(a−1 −1


1 , . . . , an )

En particular, las matrices diagonales forman un subanillo del anillo de las matrices de n × n.
Multiplicar la matriz A por la izquierda con diag(a1 , . . . , an ) equivale a multiplicar la fila
i-ésima de A por ai para todo i. Multiplicar la matriz A por la derecha con diag(a1 , . . . , an )
equivale a multiplicar la columna i-ésima de A por ai para todo i.
Walter Arriaga Delgado Algebra Lineal 27

Usos

Las matrices diagonales tienen lugar en muchas áreas del álgebra lineal. Debido a la sen-
cillez de las operaciones con matrices diagonales y el cálculo de su determinante y de sus
valores y vectores propios, siempre es deseable representar una matriz dada o transformación
lineal como una matriz diagonal.
De hecho, una matriz dada de n × n es similar a una matriz diagonal si y sólo si tiene n
autovectores linealmente independientes. Tales matrices se dicen diagonalizables.
En el cuerpo de los números reales o complejos existen más propiedades: toda matriz
normal es similar a una matriz diagonal (teorema espectral) y toda matriz es equivalente a
una matriz diagonal con entradas no negativas.

Matriz banda

Una matriz cuadrada se le llama Matriz Banda cuando es una matriz donde los valores no
nulos son confinados en un entorno de la diagonal principal, formando una banda de valores
no nulos que completan la diagonal principal de la matriz y más diagonales en cada uno de
sus costados.
Escrito formalmente, una matriz A = (ai,j )n×n es una matriz banda si todos sus elementos
son cero fuera de una zona diagonal cuyo rango se determina por las constantes k1 y k2 :

ai,j = 0 si j < i − k1 o j > i + k2 ; k1 , k2 ≥ 0

Los valores k1 y k2 son el semiancho de banda izquierdo y derecho respectivamente. El ancho


de banda de una matriz es k1 + k2 + 1, y se puede definir como el número menor de diagonales
adyacentes con valores no nulos.
Una matriz banda con k1 = k2 = 0 es una matriz diagonal.
Una matriz banda con k1 = k2 = 1 es una matriz tridiagonal; cuando k1 = k2 = 2 se tiene
una matriz pentadiagonal y ası́ sucesivamente.
Una matriz banda con k1 = k2 = p, dependiendo del número p, se le puede llamar matriz
p-banda, formalmente se puede definir como

ai,j = 0 si |i − j| > p ; p≥0

De una matriz banda con k1 = 0, k2 = n − 1, se obtiene la definición de una matriz


triangular inferior. De forma similar, para k1 = n − 1, k2 = 0, se obtiene la definición de una
matriz triangular superior.
28 Algebra Lineal Walter Arriaga Delgado

Matriz normal

Sea A matriz compleja cuadrada, entonces es una matriz normal si y sólo si

A∗ A = AA∗

donde A∗ es el conjugado transpuesto de A (también llamado hermitiano).


!
−i −i
Ejemplo 1.3.1. La matriz de orden 2 es normal, debido a que:
−i i
! !∗ ! ! ! ! !
−i −i −i −i −i −i i i 2 0 i i −i −i
= = = =
−i i −i i −i i i −i 0 2 i −i −i i
!∗ !
−i −i −i −i
−i i −i i

Una importante propiedad de este tipo de matrices es que son diagonalizables.

Matriz definida positiva

Una matriz definida positiva es una matriz hermitiana que es análoga a los números reales
positivos.

Definiciones equivalentes

Sea M una matriz hermitiana cuadrada n × n, se dice definida positiva si cumple con una
(y por lo tanto, las demás) de las siguientes formulaciones equivalentes:

1. Para todos los vectores no nulos z ∈ Cn tenemos que z∗ M z > 0.


Nótese que z∗ M z es siempre real.

2. Todos los autovalores λi de M son positivos. (Recordamos que los autovalores de una
matriz hermitiana o en su defecto, simétrica, son reales.)

3. La función hx, yi = x∗ M y define un producto interno en Cn .

4. Todos los menores principales de M son positivos. O lo que es equivalente; todas las
siguientes matrices tienen determinantes positivo.

la superior izquierda de M de dimensión 1 × 1


la superior izquierda de M de dimensión 2 × 2
la superior izquierda de M de dimensión 3 × 3
······
la superior izquierda de M de dimensión (M − 1) × (M − 1)
Walter Arriaga Delgado Algebra Lineal 29

M en sı́ misma

Análogamente, si M es una matriz real simétrica, se reemplaza Cn por Rn , y la conjugada


transpuesta por la transpuesta.

Propiedades

Toda matriz definida positiva es inversible (su determinante es positivo), y su inversa es


definida positiva.

Si M es una matriz definida positiva y r > 0 es un número real, entonces rM es definida


positiva.

Si M y N son matrices definidas positivas, entonces la suma M +N , el producto M N M y


N M N son definidas positivas, además si M N = N M , entonces M N es también definida
positiva.

Toda matriz definida positiva M , tiene al menos una matriz raı́z cuadrada N tal que
N2 = M.

Observación 1.3.1. La matriz hermitiana M se dice:

definida negativa si x∗ M x < 0 para todos los vectores x ∈ Kn no nulos.

semidefinida positiva si x∗ M x ≥ 0 para todo x ∈ Kn .

semidefinida negativa si x∗ M x ≤ 0 para todo x ∈ Kn .

Una matriz hermitiana se dice indefinida si no entra en ninguna de las clasificaciones


anteriores.

Observación 1.3.2. Caso no hermitiano. Una matriz real M puede "tener#la propiedad
1 1
xT M x > 0 para todo vector real no nulo sin ser simétrica. La matriz es un ejem-
0 1
plo. En general, tendremos xT M x > 0 para todo vector real no nulo x si y sólo si la matriz
simétrica (M + M T )/2, es definida positiva.

Matriz permutación

La matriz permutación es la matriz cuadrada con todos sus n × n elementos iguales a 0,


excepto uno cualquiera por cada fila y columna, el cual debe ser igual a 1. De acuerdo a esta
definición existen n! matrices de permutación distintas, de las cuales una mitad corresponde
a matrices de permutación par (con el determinante igual a 1) y la otra mitad a matrices de
permutación impar (con el determinante igual a -1).
30 Algebra Lineal Walter Arriaga Delgado

Para n = 3 se tiene:
Matrices de permutación par:
   
1 0 0 0 0 1 0 1 0
   
0 1 0 1  
0 0 0 0 1
  
0 0 1 0 1 0 1 0 0

Matrices de permutación impar:


   
0 0 1 0 1 0 1 0 0
   
0 1 0 1 0 0 0 0 1
   
1 0 0 0 0 1 0 1 0

Puede notarse que las matrices de permutación conforman un grupo de orden n! respecto
al producto.
Propiedades

El elemento neutro del grupo es la matriz identidad.

El elemento inverso de cada elemento del grupo de matrices de permutación es la matriz


traspuesta correspondiente.

Cada elemento del grupo de matrices de permutación es una matriz ortogonal.

El producto de matrices de permutación par siempre genera una matriz de permutación


par.

El producto de matrices de permutación impar siempre genera una matriz de per-


mutación par.

El producto de matrices de permutación de paridad distinta siempre genera una matriz


de permutación impar.

Observe que las matrices de permutación par conforman un semigrupo y que además el
grupo de matrices de permutación no es conmutativo.

Cada elemento del grupo de matrices de permutación fuera del semigrupo es una matriz
simétrica.

Jacobiano

El jacobiano es una abreviación de la matriz jacobiana y su determinante, el determinante


Jacobiano. Son llamados ası́ en honor al matemático Carl Gustav Jacobi.
Walter Arriaga Delgado Algebra Lineal 31

La matriz Jacobiana es una matriz formada por las derivadas parciales de primer orden
de una función. Una de las aplicaciones más interesantes de esta matriz es la posibilidad de
aproximar linealmente a la función en un punto. En este sentido, el Jacobiano representa la
derivada de una función multivariable.
Supongamos F : Rn −→ Rm es una función que va del espacio euclidiano n-dimensional
a otro espacio euclideano m-dimensional. Esta función está determinada por m funciones
reales: y1 (x1 , . . . , xn ), . . . , ym (x1 , . . . , xn ). Las derivadas parciales de estas (si existen) pueden
ser organizadas en una matriz m por n, la matriz Jacobiana de F :
 
∂y1 ∂y1
···
 ∂x1 ∂xn 
 . .. .. 
 .. . . 
 
 ∂y ∂y 
m m
···
∂x1 ∂xn
∂(y1 , . . . , ym )
Esta matriz es denotada por JF (x1 , . . . , xn ) o como .
∂(x1 , . . . , xn )

Cuadrado latino

Un cuadrado latino es una matriz de n × n elementos, en la que cada casilla está ocupada
por uno de los n sı́mbolos de tal modo que cada uno de ellos aparece exactamente una vez en
cada columna y en cada fila.
Las siguientes matrices son cuadrados latinos:
 
  a b d c
1 2 3  
   c a d
2 3 1 b 
   
c d b a
3 1 2  
d a c b

Los cuadrados latinos se dan como una Tabla de multiplicar (Tabla Cayley) de quasigrupos.
Estos tienen su aplicación en el diseño de experimentos.
El nombre de Cuadrados Latinos se origina con Leonhard Euler quién utilizó caracteres
Latinos como sı́mbolos.
Un cuadrado latino se dice que está reducido (o normalizado o de forma estandarizada) si
la primera fila y la primera columna están en orden natural. Por ejemplo, el primer cuadrado
está reducido, porque la primera fila y la primera columna son 1, 2, 3.
Es posible hacer un cuadrado latino permutando (reordenando) las filas y las columnas.

Representación por un Arreglo Ortogonal

Si cada entrada de un cuadrado latino de n × n se escribe como una tripleta (f, c, s)


donde f es la fila, c la columna y s el sı́mbolo (para nuestro caso un número), obtenemos n2
32 Algebra Lineal Walter Arriaga Delgado

tripletas llamado arreglo ortogonal del cuadrado. Por ejemplo, para el primer cuadrado latino
de nuestros ejemplos, el arreglo ortogonal será ası́

{(1, 1, 1), (1, 2, 2), (1, 3, 3), (2, 1, 2), (2, 2, 3), (2, 3, 1), (3, 1, 3), (3, 2, 1), (3, 3, 2)}

donde, por ejemplo, la tripleta (2,3,1) representa que el valor en la fila 2 columna 3 es 1.
La representación de un cuadrado latino puede ser escrita en términos del arreglo ortogonal
quedando ası́:

Existen n2 tripletas de la forma (f, c, s), donde 1 ≤ f, c, s ≤ n.

Todos los pares (f, c) son diferentes, todos los pares (f, s) son diferentes, y todos los
pares (c, s) son diferentes.

La representación por arreglos ortogonales muestra que las filas, columnas y sı́mbolos juegan
un papel muy similar, esto estará un poco más claro conforme nos adentremos en el tema.
Muchas operaciones sobre un Cuadrado latino produce otro Cuadrado latino (por ejemplo,
alternar filas).
Si permutamos las filas, permutamos las columnas, y permutamos los sı́mbolos de un
Cuadrado latino obtenemos un nuevo Cuadrado latino que decimos que es isotópico del
primero. El isotopismo es una relación de equivalencia, en base a esto se dice que todos
los Cuadrados latinos están divididos en subgrupos, llamados clases isotópicas, según esto dos
Cuadrados de la misma clase se dice que son isotópicos, y dos de clases diferentes son no
isotópicos.
Otro tipo de operación es simple de explicar usando la representación de estos por arreglos
ortogonales. Si reorganizamos consciente y sistemáticamente los tres elementos de cada tripleta
(f, c, s) por (c, f, s) lo cual corresponde a una transposición del cuadrado (reflejado en la
diagonal principal), o podemos remplazar cada tripleta (f, c, s) por (c, s, f ), lo que es una
operación más complicada. Todas juntas nos dan 6 posibilidades, incluida no hacer nada,
dándonos 6 Cuadrados Latinos llamados conjugados del cuadrado original.
Finalmente, podemos combinar estas dos operaciones equivalentes: Dos Cuadrados Latinos
son paratópicos si uno de ellos es conjugado del otro. Esto es nuevamente una relación de
equivalencia, con la clase de equivalencia principal llamada Clase Principal, especies o clase
paratópica. Cada clase contiene 6 clases isotópicas.
El popular rompecabezas Sudoku es un caso especial de Cuadrados Latinos; toda solución
de un Sudoku es un Cuadrado Latino. Un Sudoku impone una restricción adicional a los
subgrupos de 3 × 3, estos solo deben contener los dı́gitos del 1 al 9 (en la versión estándar).
El rompecabezas conocido como Diamante 16 ilustra un concepto generalizado de la or-
togonalidad de los Cuadrados Latinos: El Cuadrado Ortogonal (A. E. Brouwer, 1991).
Walter Arriaga Delgado Algebra Lineal 33

1.4. Operaciones Elementales


Se llaman operaciones elementales o transformaciones elementales por filas o columnas
sobre una matriz a las siguientes operaciones:

Operaciones elementales con filas

Dada la matriz A ∈ Mm×n , cuyas filas son F1 , F2 , . . . , Fm . Las operaciones elementales


con filas son:

Fij A : Intercambia dos filas de A.

Fi (λ) : Multiplica la fila Fi de A por un escalar λ 6= 0.

Fij (λ) : Multiplica la fila Fi de A por un escalar λ 6= 0 y luego suma a la fila Fj . Esta
operación se representa por el vector fila λFi + Fj .

Operaciones elementales con columnas

Dada la matriz A ∈ Mm×n , cuyas columnas son C1 , C2 , . . . , Cm . Las operaciones elemen-


tales con columnas son:

Cij A : Intercambia dos columnas de A.

Ci (λ) : Multiplica la columna Ci de A por un escalar λ 6= 0.

Cij (λ) : Multiplica la columna Ci de A por un escalar λ 6= 0 y luego suma a la columna


Cj . Esta operación se representa por el vector columna λCi + Cj .
 
3 −1 9 2
 
Ejemplo 1.4.1. Sea la matriz A =   −2 −5 1 −1 , realicemos las siguientes opera-

4 7 −8 0
ciones:
   
3 −1 9 2 −2 −5 1 −1
   
−2 −5 1 −1 −−−−F−12−−−→  3 −1 9 2 
   
4 7 −8 0 4 7 −8 0
   
3 −1 9 2 3 2 9 −1
   
−2 −5 1 −1 −−−−C−24−−−→ −2 −1 1 −5
   
4 7 −8 0 4 0 −8 7
   
3 −1 9 2 3 −1 9 2
   
−2 −5 1 −1 −−−−F− 2 (5)
− − −−→ −10 −25 5 −5
   
4 7 −8 0 4 7 −8 0
34 Algebra Lineal Walter Arriaga Delgado

   
3 −1 9 2 3 −1 −18 2
  C3 (−2)  
−2 −1  −1
 −5 1  −−−−−−−−−−→ −2 −5 −2 
4 7 −8 0 4 7 16 0
   
3 −1 9 2 3 −1 9 2
  F13 (−2)  
−2 −5 1 −1  −1
  −−−−−−−−−−→ −2 −5 1 
4 7 −8 0 −2 9 −26 −4
   
3 −1 9 2 3 89 9 2
  C32 (10)  
−2  
−5 1 −1 −−−−−−−−−−→ −2 45 1 −1
 
4 7 −8 0 4 −73 −8 0

1.4.1. Matriz escalonada

Una matriz A ∈ Mm×n , de la forma:


 
1 a12 a13 a14 a15 · · · a1n
 
0 0 1 a24 a25 · · · a2n 
 
 
0 0 0 0 1 · · · a3n 
A= 0 0

 0 0 0 ··· 0  
. .. .. .. .. .. 
 .. . . . . ··· . 
 
0 0 0 0 0 ··· 0

con r filas no nulas y s filas nulas. Llamaremos pivote de una fila (o columna) de A al primer
elemento no nulo de dicha fila (o columna), si lo hay. La matriz A se dice que es escalonada
por filas si verifica las siguientes condiciones:

Todas las filas nulas están en la parte inferior de la matriz.

El primer elemento no nulo de cada fila, llamado pivote, está a la derecha del pivote de
la fila anterior (esto supone que todos los elementos debajo de un pivote son cero).

Además se dice que es escalonada reducida por filas si cumplen las siguientes condiciones:

El pivote de cada fila no nula es 1.

En cada fila, el pivote es el único elemento no nulo de su columna

De igual forma se puede definir la matriz escalonada y escalonada reducida por columnas.

Ejemplo 1.4.2. Matrices escalonadas:


     
1 −3 2 5 1 2 0 0 1 2 5 −7
     
0 1 −7 4  , 0 1 −1 , 0 0 1 −7 2 
     
0 0 1 10 0 0 0 0 0 0 0 1
Walter Arriaga Delgado Algebra Lineal 35

Ejemplo 1.4.3. Matrices escalonadas reducidas:


     
1 0 0 0 1 0 0 0 1 0 0 0
     
0 1 0 0 , 0 1 0 , 0 0 1 0 0
     
0 0 0 1 0 0 0 0 0 0 0 1

Observación 1.4.1.

Toda matriz puede llevarse por operaciones elementales de filas a la forma escalonada.
El algoritmo para hacerlo se llama método de Gauss o del pivote.

La forma escalonada de una matriz no es única.

1.4.2. Matrices equivalentes

Dos matrices A y B se denominan equivalentes si una de ellas se deduce de la otra mediante


una suseción finita de transformaciones elementales de lı́nea (fila o columna).
El siguiente ejemplo nos muestra que toda matriz de orden m × n puede ser reducida mediante
operaciones elementales fila (columna) a una matriz en forma escalonada por filas (columnas).
 
2 5 3
 
1 2 2
 
Ejemplo 1.4.4. Reducir a la forma escalonada por filas la matriz: A =  
3 4 1
 
2 3 2
Solución
       
2 5 3 1 2 2 1 2 2 1 2 2
       
1 2 2      
  F12 2 5 3 F12 (−2) 0 1 −1 F13 (−3) 0 1 −1
A=  −−−−→   −−−−−−→   −−−−−−→  
3 4 1 3 4 1 3 4 1  0 −2 −5
       
2 3 2 2 3 2 2 3 2 2 3 2
     
1 2 2 1 2 2 1 2 2
     
F14 (−2)
0 1 −1 F 3 (2) 0 1 −1 F 4 (1) 0 1 −1
  2   2  
−−−−−→   −−−−−→   −−−−−→  
0 −2 −5 0 0 −7 0 0 −7
     
0 −1 −2 0 −1 −2 0 0 −3
   
1 2 2 1 2 2
   
0 1 −1 F 4 (3) 0 1 −1
F3 (−1/7)   3  
−−−−−−−→   −−−−−→   = B
0 0 1  0 0 1 
   
0 0 −3 0 0 0

Observación 1.4.2. Una matriz cuadrada A ∈ Mn×n escalonada es una matriz triangular
superior, pero no todas las matrices triangulares superiores son matrices escalonadas.
36 Algebra Lineal Walter Arriaga Delgado

Anteriormente hemos visto que una matriz triangular era inversible si y sólo si todos los
términos de la diagonal principal no son cero; esta caracterı́stica es también válida para las
matrices escalonadas cuadradas.
Veremos a continuación las ventajas que ofrece la reducción de una matriz cuadrada en otra
que tenga forma escalonada.

1.4.3. Rango de una matriz

El rango de una matriz es el mayor de los órdenes de los menores no nulos que podemos
encontrar en la matriz. Por tanto, el rango no puede ser mayor al número de filas o de columnas.
También se define el rango de una matriz como el número máximo de filas (o columnas)
linealmente independientes. esta segunda definición nos va a permitir relacionar el concepto
de rango con conceptos relativos a espacios vectoriales.
El cálculo del rango de una matriz es una cuestión importante a la hora de estudiar sistemas
de ecuaciones lineales. Además en teorı́a de control, el rango de una matriz se puede usar para
determinar si un sistema lineal es controlable u observable.
A continuación vamos a explicar cómo calcular rangos de matrices reales y veremos de que
modo podemos utilizar esta información para aplicarla a los espacios vectoriales.

Definición 1.4.1. El rango de una matriz es igual al número de filas no nulas que quedan en
la última interacion de las sucesivas transformaciones elementales que se hacen con la matriz.

Se deduce que para hallar el rango de una matriz es suficiente transformarla a su forma
escalonada. Como dos matrices equivalentes tienen el mismo rango, el rango de dicha matriz
será igual al rango de la matriz escalonada. Si designamos por r el número de filas no nulas
de la matriz escalonada, entonces el rango de la matriz se denota:

ρ(A) = r
 
0 2 −4
 
1 4 −5
 
 
Ejemplo 1.4.5. Hallar el rango de la matriz A = 3 1 7
 
0 1 −2
 
2 3 0
Solución: Realizando sucesivamente las transformaciones elementales tendremos:
     
0 2 −4 1 4 −5 1 4 −5
     
1 4 −5 0 2 −4  −4
    F 3 (−3) y F 5 (−2) 0 2 
  F12   1 1  
A = 3 1 7  −−−−→ 3 1 7  −−−−−−−−−−−−−−→ 0 −11 22 
     
0 1 −2 0 1 −2 0 1 −2
     
2 3 0 2 3 0 0 −5 10
Walter Arriaga Delgado Algebra Lineal 37

   
1
−5 4 1 4 −5
   
0 1 −2  1 −2
  F 3 (11) , F 5 (5) , F 4 (−1) 0 
F2 (1/2)   2 2 2  
−−−−−−→ 0 −11 22  −−−−−−−−−−−−−−−−−→ 0 0 0 =B
   
0 1 −2  0 0 0
   
0 −5 10 0 0 0
La última matriz escalonada B tiene 2 filas no nulas, luego:

ρ(B) = ρ(A) = 2
 
25 31 17 43
 
75 94 53 132
 
Ejemplo 1.4.6. Hallar el rango de la matriz A =  
75 94 54 134
 
25 32 20 48
Solución: Por el método de las transformaciones elementales se tiene:
       
25 31 17 43 25 31 17 43 25 31 17 43 25 31 17 43
       
75 94 53 132  0 1 2 3    
    0 1 2 3 0 1 2 3
 ≈ ≈
   ≈ 
75 94 54 134  0 1 3 5    
    0 0 1 2 0 0 1 2
25 32 20 48 0 1 3 5 0 0 1 2 0 0 0 0

La última matriz escalonada tiene tres filas no nulas, por tanto

ρ(A) = 3

1.5. Matriz Inversa

Si A ∈ Mn×n , se dice que A es invertible o tiene inversa si existe una matriz B ∈ Mn×n
tal que AB = BA = I. La matriz B recibe el nombre de matriz inversa de A y se denota por
A = B −1 , análogamente la matriz A es la inversa de B y se expresa por A = B −1 . Entonces
se tiene:
AA−1 = A−1 A = I (1.2)

Propiedades:

Si A y B son matrices cuadradas invertibles de orden n, entonces:

⊲ (A−1 )−1 = A

⊲ (λA)−1 = λ−1 · A−1 ; λ es escalar.

⊲ (AB)−1 = B −1 A−1
38 Algebra Lineal Walter Arriaga Delgado

⊲ (At )−1 = (A−1 )t

Teorema 1.5.1. Una matriz cuadrada tiene inversa si y solo si es una matriz no singular, en
tal caso se dice que la matriz es invertible.

Teorema 1.5.2. Si una matriz cuadrada A es invertible entonces su inversa es única.

Demostración. Supongamos que B y C son dos matrices inversas de A. Debemos probar que
B = C.
En efecto. Si B es matriz inversa de A entonces AB = BA = I, además C es matriz inversa
de A entonces AC = CA = I. También se cumple por la ley asociativa de la multiplicación de
matrices que B(AC) = (BA)C. Entonces:

B = BI = B(AC) = (BA)C = IC = C

de donde se obtiene que B = C.

1.5.1. Matriz de cofactores

Sea la matriz  
a11 a12 a13 · · · a1n
 
 a21 a22 a23 · · · a1n 
 
A= . .. .. .. .. 
 .. . . . . 
 
an1 an2 an3 · · · ann

Si Aij es el cofactor del elemento aij , entonces la matriz cofact(A) definida como:
 
A11 A12 A13 · · · A1n
 
 A21 A22 A23 · · · A1n 
 
cofact(A) =  . .. .. .. .. 
 .. . . . . 
 
An1 An2 An3 · · · Ann

se le conoce como matriz de cofactores, donde:

Aij = (−1)i+j |Mij |

y Mij es la matriz cuadrada de orden (n − 1) que resulta de eliminar la fila i y la columna j


de la matriz A
 
1 2 3
 
Ejemplo 1.5.1. Dada la matriz: A = 
3 5. Hallar la matriz cofact(A)
2
−1 4 −3
Solución
Walter Arriaga Delgado Algebra Lineal 39

" # " #
2 5 1 2
A11 = (−1)1+1 = −26 A23 = (−1)2+3 = −6
4 −3 −1 4
" # " #
1+2
3 5 3+1
2 3
A12 = (−1) =4 A31 = (−1) =4
−1 −3 2 5
" # " #
3 2 1 3
A13 = (−1)1+3 = 14 A32 = (−1)3+2 =4
−1 4 3 5
" # " #
2+1
2 3 3+3
1 2
A21 = (−1) = 18 A33 = (−1) = −4
4 −3 3 2
" #
1 3
A22 = (−1)2+2 =0
−1 −3
 
−26 4 14
 
luego la matriz de cofactores es: cofact(A) = 
 18 0 −6

4 4 −4

1.5.2. Adjunta de una matriz

La Adjunta de una matriz cuadrada A es la traspuesta de la matriz que se obtiene al


sustituir cada elemento aij por su cofactor Aij .
La Adjunta de A se denota por: Adj(A).

Adj(A) = [cofact(A)]t
 
1 2 3
 
Ejemplo 1.5.2. Sea la matriz: A=
3 5
2
−1 4 −3

Solución
Por el ejemplo anterior se tiene que la matriz de cofactores está dada por:
 
−26 4 14
 
cofac(A) =  18 0 −6

4 4 −4

entonces la adjunta de A estarı́a dada por:


 
−26 18 4
 
Adj(A) =  4 0 4
 (1.3)
14 −6 −4
40 Algebra Lineal Walter Arriaga Delgado

Teorema 1.5.3. Sea A una matriz invertible, entonces la matriz inversa está dada por:

Adj(A)
A−1 = (1.4)
|A|

y la adjunta de una matriz estarı́a por:

Adj(A) = |A|A−1 (1.5)


 
1 2 3
 
Ejemplo 1.5.3. Hallar la matriz inversa de A =  3 2 5 

−1 4 −3
 
−26 18 4
 
De (1.3) se tiene que: AdjA = 
 4 0 4.
14 −6 −4


1 2 3

Además 3 2 5 = 24, de donde:

−1 4 −3
 
−26 18 4
1 
 4

A−1 = 0 4
24  
14 −6 −4

1.5.3. Matrices elementales

Una matriz cuadrada E de orden n × n se llama matriz elemental si se puede obtener


a partir de la matriz identidad, In , de orden n × n mediante una sola operación fundamental
con filas.
Notación: Una matriz elemental se denota por E, o por Fij , λFi , Fj + λFi según la
forma en que se obtuvo de I.

Ejemplo 1.5.4. Veamos tres matrices elementales

Matriz
 obtenida
 multiplicando
 la segunda fila de I por 5.

1 0 0 1 0 0
  F2 (5)  
0 1 0  
  −−−−−→ 0 5 0 = 5F2
0 0 1 0 0 1

Matriz
 obtenida
 multiplicando
 la primera
 fila de I por −3 y sumándola a la tercera fila.
1 0 0 1 0 0
  F13 (−3)  
0 1 0 −−−−−−→  0 1 0
 
  = F3 − 3F1
0 0 1 −3 0 1
Walter Arriaga Delgado Algebra Lineal 41

Matriz
 obtenida
 intercambiando
  la segunda y tercera fila de I.
1 0 0 1 0 0
  F23  
0 1 0 −
− −−→ 0 0 1 = F23
   
0 0 1 0 1 0
Considere los siguientes tres productos, con λ 6= 0
    
1 0 0 1 0 0 1 0 0
    
0 λ 0 0 1/λ  
0 = 0 1 0 (1.6)
  
0 0 1 0 0 1 0 0 1
    
1 0 0 1 0 0 1 0 0
    
 0 1 0  0 1 0  1 0
   = 0  (1.7)
λ 0 1 −λ 0 1 0 0 1
    
1 0 0 1 0 0 1 0 0
    
0 0 1 0 0 
1 = 0 1 0 (1.8)
  
0 1 0 0 1 0 0 0 1
Las ecuaciones 1.6, 1.7 y 1.8 sugieren que toda matriz elemental es invertible y que su
inversa es del mismo tipo (vea tabla 1.1).

Multiplicar
Matriz ele- Muliplicar
Representación por la Representación
mental tipo A por la
simbólica izquierda, simbólica
E izquierda
E −1
Multiplique la Multiplique la
1
Multiplicación fila i de A por λFi fila i de A por Fi
λ
λ 6= 0 1/λ
Multiplique la Multiplique la
fila i de A por λ fila i de A por
Suma Fj + λFi Fj − λFi
y sume a la fila −λ y sume a la
j fila j
Intercambie las Intercambie las
Permutación Fij Fij
filas i y j filas i y j

Cuadro 1.1: Matrices elementales

Teorema 1.5.4. Toda matriz elemental es invertible. El inverso de una matriz elemental es
una matriz del mismo tipo.

Nota: El inverso de una matriz elemental se puede encontrar por inspección. No es nece-
sario hacer cálculos.
42 Algebra Lineal Walter Arriaga Delgado

Teorema 1.5.5. Una matriz cuadrada es invertible si y solo si es el producto de matrices


elementales.
 
2 4 6
 
Ejemplo 1.5.5. Verificar que la matriz A =  
4 5 6  es invertible y expresarla como un
3 1 −2
producto de matrices elementales.

1.5.4. Método de Gauss Jordan

El método de Gauss Jordan consiste en lo siguiente:

 Dada la matriz cuadrada A de orden n × n, se construye la matriz rectangular de orden


n × 2n llamada matriz aumentada (A | I).

 Se utiliza las transformaciones elementales por filas para poner la matriz A a su forma
escalonada reducida, obteniéndose la matriz (I | B).

 La matriz inversa en este caso es B = A −1 .

Observación 1.5.1. Si uno de los elementos de la diagonal principal de la matriz escalonada


reducida E en (E | B) es cero, entonces la matriz A no es invertible
 
2 4 6
 
Ejemplo 1.5.6. Determinar si la matriz A =  
4 5 6  es invertible. Si ası́ lo fuera,
3 1 −2
calcular su inversa.

Solución
Primero efectuamos las operaciones con filas para reducir A a una matriz escalonada E. Para
ello formamos la matriz (A | I).
     
1
2 4 6 | 1 0 0 1 2 3 | 0 0
2 1 2 3 | 12 0 0
     

(A|I) = 4 5 6 | 0 1 0 = 4   6 | 0 1 0  
5  = 0 −3 −6 | −2 1 0
3 1 −2 | 0 0 1 3 1 −2 | 0 0 1 0 −5 −11 | − 32 0 1
   
1
1 2 3 | 2 0 0 1 0 −1 | − 56 2
3 0
   
= 0 1 2 | 23 − 13 0 
 = 0 1 2 | 23 − 13 0 
0 −5 −11 | − 32 0 1 0 0 −1 | 116 − 5
3 1
   
1 0 −1 | − 56 2
3 0 1 0 0 | −3 8 7
3 −1
   

= 0 1 2 | 2 1 
− 3 0  = 0  0 | 13 11
2
3 1 3 − 3  = (I|B)
11 5 11 5
0 0 1 | −6 3 −1 0 0 1 | −6 3 −1
Walter Arriaga Delgado Algebra Lineal 43

como A se redujo a I, se tiene que:


  
− 83 7
3 −1 −16 14 −6
  1 
B = A−1 =   3
13
− 11
3 2 =  26 −22 12 
 6 
− 11
6
5
3 −1 −11 10 −6

1.6. Criptografı́a

1.6.1. Introducción

La criptografı́a es la ciencia que se encarga de diseñar métodos para mantener confidencial


a la información que es enviada por un medio inseguro.
Casi todos los medios de comunicación son inseguros, es decir, un espı́a siempre puede
intervenir una comunicación, y en tal caso conocer su contenido, alterar el contenido, borrar
el contenido, etc.
La criptografı́a entonces usa un algoritmo de cifrado con una clave. Para que el emisor de
un mensaje pueda estar seguro que éste sea confidencial, y solo el receptor autorizado pueda
saber en contenido aplicando un método de descifrado con su respectiva clave.
La criptografı́a tiene una amplia historia, ha existido desde los inicios de la civilización.

1.6.2. Sistema Criptográfico usando Matrices

Sea A una matriz invertible n × n, y M un mensaje con forma de matriz n × m. Entonces,


C = AM es el mensaje cifrado. Para poder descifrar el mensaje solo multiplicamos por la
matriz inversa A−1 a C para obtener el mensaje original.

A−1 C = A−1 AM = IM = M

Ejemplo 1.6.1. Proceso de preparación. Para cifrar un mensaje se hace lo siguiente: si el


mensaje original es “CULTURA PAZ Y EDUCACION”

El primer paso es codificar el mensaje con números de acuerdo a la siguiente tabla:


0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
– A B C D E F G H I J K L M N Ñ O P Q R S

21 22 23 24 25 26 27
T U V W X Y Z
De tal forma que el mensaje queda codificado como:
C U L T U R A – P A Z – E D U C A C I O N
3 22 12 21 22 19 1 0 17 1 27 0 5 4 22 3 1 3 9 16 14
44 Algebra Lineal Walter Arriaga Delgado

" # " #
−2 3 −45 39 47 3 19 −15 −11
Ejemplo 1.6.2. Sean: A = , C=
−1 1 −23 9 14 1 0 −8 −6
El mensaje M fue cifrado con la clave A, y se obtuvo el mensaje cifrado C. Encuentre el
mensaje M

Solución:
" # " #
−2 3 −1
1 −3
Como A = , entonces A = , ahora como M = A−1 C se tiene que:
−1 1 1 −2
" #" # " #
1 −3 −45 39 47 3 19 −15 −11 24 12 5 0 19 9 7
M= =
1 −2 −23 9 14 1 0 −8 −6 1 21 19 1 19 1 1
luego el mensaje se lee de la siguiente manera:
24 1 12 21 5 19 0 1 19 19 9 1 7 1
por lo tanto el messaje M será: WALTER–ARRIAGA

1.7. Sistemas de Ecuaciones Lineales

1.7.1. Algo de historia


La primera fase, que comprende el periodo de 1700 a. de C. a 1700 d. de C., se caracter-
izó por la invención gradual de sı́mbolos y la resolución de ecuaciones. Dentro de esta fase
encontramos un álgebra desarrollada por los griegos (300 a. de C.), llamada álgebra geométrica,
rica en métodos geométricos para resolver ecuaciones algebraicas.
La introducción de la notación simbólica asociada a Viète (1540-1603), marca el inicio de
una nueva etapa en la cual Descartes (1596-1650) contribuye de forma importante al desarrollo
de dicha notación. En este momento, el álgebra se convierte en la ciencia de los cálculos
simbólicos y de las ecuaciones. Posteriormente, Euler (1707-1783) la define como la teorı́a
de los “cálculos con cantidades de distintas clases” (cálculos con números racionales enteros,
fracciones ordinarias, raı́ces cuadradas y cúbicas, progresiones y todo tipo de ecuaciones).
Para llegar al actual proceso de resolución de la ecuación ax + b = c han pasado más de
3.000 años.
Los egipcios nos dejaron en sus papiros (sobre todo en el de Rhid −1,650 a.c. y el de
Moscú −1,850 a.c.) multitud de problemas matemáticos resueltos. La mayorı́a de ellos son de
tipo aritmético y respondı́an a situaciones concretas de la vida diaria; sin embargo, encon-
tramos algunos que podemos clasificar como algebraicos, pues no se refiere a ningún objeto
concreto. En éstos, de una forma retórica, obtenı́an una solución realizando operaciones con
los datos de forma análoga a como hoy resolvemos dichas ecuaciones.
Las ecuaciones más utilizadas por los egipcios eran de la forma:
x + ax = b
x + ax + bx = 0
donde a, b y c eran números conocidos y x la incógnita que ellos denominaban aha o montón.
Una ecuación lineal que aparece en el papiro de Rhid responde al problema siguiente:

“Un montón y un séptimo del mismo es igual a 24”.


Walter Arriaga Delgado Algebra Lineal 45

1
En notación moderna, la ecuación serı́a: x + x = 24.
7
La solución la obtenı́an por un método que hoy conocemos con el nombre de “método
de la falsa posición” o “regula falsi”. Consiste en tomar un valor concreto para la incógnita,
probamos con él y si se verifica la igualdad ya tenemos la solución, si no, mediante cálculos
obtendremos la solución exacta.
Los babilonios (el mayor número de documentos corresponde al periodo 600 a.c. a 300
d.c.) casi no le prestaron atención a las ecuaciones lineales, quizás por considerarlas demasiado
elementales, y trabajaron más los sistemas de ecuaciones lineales y las ecuaciones de segundo
grado. Los babilonios llamaban a las incógnitas con palabras tales como longitud, anchura,
área, o volumen , sin que tuvieran relación con problemas de medida.
Un ejemplo tomado de una tablilla babilónica plantea la resolución de un sistema de
ecuaciones en los siguientes términos:
1/4anchura + longitud = 7manos
longitud + anchura = 10manos
Para resolverlo comienzan asignando el valor 5 a una mano y observaban que la solución
podı́a ser: anchura = 20, longitud = 30. Para comprobarlo utilizaban un método parecido al
de eliminación. En nuestra notación, serı́a:
y + 4x = 28
y + x = 10
restando la segunda de la primera, se obtiene 3x = 18, es decir, x = 6 e y = 4.
También resolvı́an sistemas de ecuaciones, donde alguna de ellas era cuadrática.
Los matemáticos griegos no tuvieron problemas con las ecuaciones lineales y, exceptuando
a Diophante (250 d.c.), no se dedicaron mucho al álgebra, pues su preocupación era como
hemos visto, mayor por la geometrı́a. Sobre la vida de Diophante aparece en los siglos V o VI
un epigrama algebraico que constituye una ecuación lineal y dice:

“Transeúnte, ésta es la tumba de Diophante: es él quien con esta sorprendente dis-
tribución te dice el número de años que vivió. Su juventud ocupó su sexta parte,
después durante la doceava parte su mejilla se cubrió con el primer vello. Pasó aún
una séptima parte de su vida antes de tomar esposa y, cinco años después, tuvo un
precioso niño que, una vez alcanzada la mitad de la edad de su padre, pereció de
una muerte desgraciada. Su padre tuvo que sobrevivirle, llorándole durante cuatro
años. De todo esto, deduce su edad.”
Los griegos resolvı́an algunos sistemas de ecuaciones, pero uti1izando métodos geométricos.
Thymaridas (400 a.c.) habı́a encontrado una fórmula para resolver un determinado sistema
de n ecuaciones con n incógnitas. Diophante resuelve también problemas en los que aparecı́an
sistemas de ecuaciones, pero transformándolos en una ecuación lineal.
Diophante sólo aceptaba las soluciones positivas, pues lo que buscaba era resolver prob-
lemas y no ecuaciones. Utilizó ya un álgebra sincopada como hemos señalado anteriormente.
Sin embargo, unas de las dificultades que encontramos en la resolución de ecuaciones por
Diophante es que carece de un método general y utiliza en cada problema métodos a veces
excesivamente ingeniosos.
Los sistemas de ecuaciones aparecen también en los documentos indios. No obstante, no
llegan a obtener métodos generales de resolución, sino que resuelven tipos especiales de ecua-
ciones.
El libro El arte matemático, de autor chino desconocido (siglo III a.c.), contiene algunos
problemas donde se resuelven ecuaciones. En ellos encontramos un esbozo del método de las
46 Algebra Lineal Walter Arriaga Delgado

matrices para resolver sistemas de ecuaciones lineales. Uno de dichos problemas equivale a
resolver un sistema de tres ecuaciones lineales por dicho método matricial.
Los primeros documentos matemáticos que existen (datan del siglo III d.c.) son los Sul-
vasütras, donde se recogen todos los conocimientos necesarios para construir los templos. En
éstos aparece el siguiente problema:
“Hallar el lado de un rectángulo, conociendo el otro lado y sabiendo que su área es igual
al área de un cuadrado dado.”
Lo resolvı́an utilizando el método de la falsa posición, como los egipcios.
Posteriormente, Brahmagupta (siglo VII) expresa, ya de forma sincopada, cómo resolver
ecuaciones lineales. La incógnita la representaba por la abreviatura ya , y las operaciones con
la primera sı́laba de las palabras.
Dada la ecuación ax + b = cx + d, la solución vendrá dada dividiendo la diferencia de los
términos conocidos entre la diferencia de los coeficientes de los desconocidos, esto es,
d−b
x=
a−c
Estos métodos pasaron a los árabes que los extendieron por Europa. Al algebrista Abu-
Kamil (siglo IX y X) se le atribuye una obra donde trata la solución de ecuaciones lineales
por simple y doble falsa posición.

1.7.2. Introducción

El objetivo general de este tema es discutir y resolver sistemas de ecuaciones lineales,


haciendo abstracción del tipo de problemas que origina su planteamiento.
Discutir un sistema consiste en averiguar si tiene o no tiene solución y, caso de tenerla,
saber si es única o si no lo es.
Resolver un sistema es calcular su solución (o soluciones). Los casos más sencillos (2 ecua-
ciones con 2 incógnitas, 3 ecuaciones con 3 incógnitas ...) ya se han estudiado en cursos
anteriores. Aquı́, an alizaremos el caso general: cualquier número de ecuaciones y cualquier
número de incógnitas.

Definición 1.7.1. Un sistema de m ecuaciones lineales con n incógnitas es un conjunto de


expresiones algebraicas de la forma:



 a11 x1 + a12 x2 + · · · + a1n xn = b1



 a21 x1 + a22 x2 + · · · + a2n xn = b2
.. .. .. .. .. (1.9)

 . . . . .



 a x + a x + ··· + a x = b
m1 1 m2 2 mn n m

donde:

xj son las incógnitas, (j = 1, 2, . . . , n).

aij son los coeficientes, (i = 1, 2, . . . , m), (j = 1, 2, . . . , n).


Walter Arriaga Delgado Algebra Lineal 47

bi son los términos independientes, (i = 1, 2, . . . , m).

Cuando n es pequeño, es usual designar a las incógnitas con las letras x, y, z, t, . . . Obsérvese
que el número de ecuaciones no tiene por qué ser igual al número de incógnitas. Cuando bi = 0
para todo i, el sistema se llama homogéneo.


2x + y − z = 4


Ejemplo 1.7.1. El sistema de ecuaciones x + y + z = 6




3x − y = 4
se verifica para x = 2, y = 2, z = 2.

1.7.3. Clasificación de los sistemas de ecuaciones lineales

Los sistemas de ecuaciones lineales de acuerdo a su posibilidad de solución pueden ser:

I. Sistema Compatible: Es aquel sistema de ecuaciones que si admite soluciones. Estas a su


vez pueden ser:

a. Sistema Compatible Determinado: Si tienen un número limitado de soluciones.

b. Sistema Compatible Indeterminado: Si tienen infinitas soluciones.

II. Sistema Incompatible: Es aquel sistema de ecuaciones que no admite solución alguna.

Ejemplo 1.7.2.

x + 3y = 10
El sistema , es compatible. Su solución es {1, 3} y es determinado por
3x + y = 6
que sólo tienen una solución.

x + 3y = 7
El sistema , es incompatible, por que no hay ningún par de valores que
x + 3y = 10
verifiquen las ecuaciones.

x − y = 6
El sistema , es compatible indeterminado por que tiene infinitas solu-
3x − 3y = 18
ciones. {0, 6}, {1, 5}, {1, 7}, {2, 4}, · · · · · · .

Notación: El sistema de ecuaciones (1.9) se puede escribir en forma matricial de la siguiente


manera:
A.X = B (1.10)
48 Algebra Lineal Walter Arriaga Delgado

     
a11 a12 ... a1n x1 b1
     
 a21 a22 . . . a2n   x2   b2 
     
donde: A =  . .. .. .. ,X= . yB= . 
 .. . . 
.   .   .. 
  .   
am1 am2 . . . amn xn bm

Si en el sistema (1.9) consideramos las siguientes matrices:


       
a11 a12 a1n b1
       
 a21   a22   a2n   b2 
       
A1 =  . , A2 =  . , . . . . . ., An =  . , B =  . .
 ..   ..   ..   .. 
       
am1 am2 amn bm

El sistema se escribirá en forma vectorial de la siguiente manera:

A1 .X1 + A2 .X2 + · · · + An .Xn = B (1.11)

En esta notación, las soluciones de un sistema son los elementos de la forma:

S = (s1 , s2 , . . . , sn ) ∈ Rn

y se verifica la siguiente relación: A1 .s1 + A2 .s2 + · · · + An .sn = B




 2x − y + z = 6


Ejemplo 1.7.3. Consideremos el sistema de ecuaciones lineales: x + 4y − 2z = 0




3x − 5y + z = 4
 
2 −1 1
 
tenemos que A =  
1 4 −2 es la matriz de coeficientes de orden 3 × 3; y la matriz
3 −5 1
 
2 −1 1 6
 
b 
A = 1 4 −2 0
 es la matriz ampliada de orden 3 × 4.
3 −5 1 4

El sistema se puede escribir de las siguientes formas:


    
2 −1 1 x 6
    
Forma matricial: 1 4 −2 y  = 0
    

3 −5 1 z 4
       
2 −1 1 6
       
Forma vectorial: 1 x +  4  y + −2 z = 0
      

3 −5 1 4
Walter Arriaga Delgado Algebra Lineal 49

1.7.4. Sistemas Equivalentes

Dos sistemas de ecuaciones son equivalentes si toda solución del primero es solución del
segundo y viceversa. (No es necesario que tengan el mismo número de ecuaciones).


 x + 3y = 6 

 x + 3y = 6
Ejemplo 1.7.4. Los sistemas: 2x − y = 5 y son equivalentes.

 3x − 2y = 7


x−y = 2
Ambos son compatibles determinados y su solución es: x = 3, y = 1.

Definición 1.7.2. En un sistema de ecuaciones lineales, una ecuación es combinación lineal


de las ecuaciones del sistema, si se obtiene como resultado de sumar las ecuaciones del mismo
previamente multiplicadas por un número real.

A continuación veamos el Teorema fundamental de equivalencia.

Teorema 1.7.1. Si en un sistema de ecuaciones lineales se sustituye la ecuación i-ésima por


una combinación lineal de dicha ecuación y las demás ecuaciones del sistema (siempre que el
coeficiente que multiplique a la ecuación i-ésima sea distinto de cero), el sistema resultante es
equivalente al primero.

1.7.5. Método de Gauss-Jordan. Eliminación Gausiana

Es el método de resolución de sistemas de ecuaciones lineales, que consiste en llegar a un


sistema escalonado transformando la matriz ampliada en una matriz escalonada por filas.


x+y−z = 1


Ejemplo 1.7.5. Resolver el sistema 2x + 3y + z = 3




5x − y + 2z = 2

Solución
Consideramos la matriz aumentada o ampliada asociada al sistema, separando un poco la
columna de los términos independientes:
     
1 1 −1 1 1 1 −1 1 1 1 −1 1
     
2 3 3  1  1
 1  = 0 1 3  = 0 1 3 
5 −1 2 2 0 −6 7 −3 0 0 25 3


x + y − z = 1


Luego, el sistema ha quedado de la siguiente forma: y + 3z = 1




25z = 3
50 Algebra Lineal Walter Arriaga Delgado

3 16 12
Resolviendo las ecuaciones, comenzando por la última queda: z = ,y= ,x= .
25 25 25
Se trata de un sistema compatible determinado.


3x + 3y − +11z − t = 8


Ejemplo 1.7.6. Resolver el sistema 2x + 5z + 3t = 4




x − y + 2z + 2t = 2
Solución
La matriz ampliada es:
     
3 3 11 −1 8 1 −1 2 2 2 1 −1 2 2 2
     
2 0 3 4  3 4  
 5  = 2 0 5  = 0 2 1 −1 0 =
1 −1 2 2 2 3 3 11 −1 8 0 6 5 −7 2
 
1 −1 2 2 2
 
0 2 1 −1 0
 
0 0 2 −4 2


 x − y + 2z + 2t = 2


Luego, el sistema ha quedado de la siguiente forma: 2y + z − t = 0




2z − 4t = 2
Resolvemos la última ecuación, z = 1 + 2t; si hacemos t = α, queda:
−1 α −1 13α
z = 1 + 2α; y = − + ;x=− + ; t = α.
2 2 2 2
Las soluciones del sistema se hallan dando valores arbitrarios al parámetro α.
Es un sistema compatible indeterminado.


 −y + z = −2


Ejemplo 1.7.7. Resolver el sistema x + 2y + 4z = 3




2x + 4y + 8z = 1
Solución
La matriz ampliada es:
     
0 −1 1 −2 1 2 4 3 1 2 4 3
     
1 2 4 3  = 0 −1 1 −2 = 0 −1 1 −2
     
2 4 8 1 2 4 8 1 0 0 0 −5


x + 2y + 4z = 3


Luego, el sistema ha quedado de la siguiente forma: −y + z = −2




0 = −5
Se observa que el sistema es incompatible.
Walter Arriaga Delgado Algebra Lineal 51

1.7.6. Método de Gabriel Cramer

El método de Gauss que acabamos de ver es sencillo y eficaz para resolver un sistema de
ecuaciones lineales. Pero tiene un inconveniente. Si de un sistema de 300 incógnitas tan sólo
nos interesan 7, siguiendo el método de Gauss, habrı́amos de seguir el proceso de triangulación
como si nos interesaran todas ellas.
La regla de Cramer, que ahora veremos, aprovecha con astucia las propiedades de las
matrices y sus determinantes para despejar, separadamente, una cualquiera de las incógnitas
de un sistema de ecuaciones lineales.
Sistema de Cramer: Es un sistema de la forma (1.9) en el que m = n, y |A| =
6 0. Es decir,
La matriz A es cuadrada y regular. En tal caso, A tiene inversa A−1 , por lo que multiplicando
a (1.10) por la izquierda por A−1 , se tiene:
Adj(A)
A−1 AX = A−1 B ⇒ X = A−1 B ⇒ X= B.
|A|

Entonces, para usar la regla de Cramer se debe cumplir las siguientes condiciones:

El número de ecuaciones es igual al número de incógnitas.

El determinante de la matriz de coeficientes de las incógnitas debe ser distinto de cero.

Denotaremos por:
a a12 · · · a1n
11

a21 a22 · · · a2n

Determinante del sistema: ∆S = . .. .. ..
.. . . .


an1 an2 · · · ann


a11 a12 · · · b1 · · · a1n

a a22 · · · b2 · · · a2n
21
Determinante de xj : ∆xj =
··· ··· · · · · · · · · · · · ·


an1 an2 · · · bn · · · ann
∆xj es el determinante que se obtiene a partir de la matriz de coeficientes A, cambiando los
elementos de la columna j por los términos independientes.
La solución viene dada por:
∆xj
xj = (1.12)
∆S


 a x + b1 y + c1 z = d1
 1

Nota: El el caso de un sistema lineal de 3 ecuaciones con 3 incógnitas: a2 x + b2 y + c2 z = d2




a3 x + b3 y + c3 z = d3
se tiene:
52 Algebra Lineal Walter Arriaga Delgado

∆S = Determinante del sistema. ∆y = Determinante de y.


∆x = Determinante de x. ∆z = Determinante de z.
Recordemos que:


a1 b1 c1 d1 b1 c1 a1 d1 c1 a1 b1 d1

∆S = a2 b2 c2 ; ∆x = d2 b2 c2 ; ∆y = a2 d2 c2 ; ∆z = a2 b2 d2 .

a3 b3 c3 d3 b3 c3 a3 d3 c3 a3 b3 d3
Finalmente la solución del sistema se obtiene ası́:
∆x ∆y ∆z
x= ; y= ; z=
∆S ∆S ∆S


2x + 3y − 5z = 8


Ejemplo 1.7.8. Resolver el sistema 5x − 2y + z = 9




3x − y + 2z = 9

Solución
El sistema es un tı́pico caso en el que resulta conveniente aplicar la regla de Cramer.
Primero hallaremos los determinantes aplicando el método de Sarrus:


2 3 −5 2 8 −5

∆S = 5 −2 1 ⇒ ∆S = −32; ∆y = 5 9 1 ⇒ ∆y = −128;

3 −1 2 3 9 2


8 3 −5 2 3 8

∆x = 9 −2 1 ⇒ ∆x = −96 ∆z = 5 −2 9 ⇒ ∆z = −64

9 −1 2 3 −1 9
∆x ∆y ∆z
Luego: x= = 3; y= = 4; z= = 2. Por lo tanto el conjunto solución es:
∆S ∆S ∆S
C.S. = {3; 4; 2}

1.7.7. Teorema de Rouché - Fröbenius


b la
Sea el sistema dado en (1.9), donde A es la matriz de coeficientes de las incógnitas y A
matriz ampliada con los términos independientes.

I. La condición necesaria y suficiente para que el sistema sea compatible, es decir, para que
tenga solución es que el rango1 de A sea igual al rango de A.b

b = n, el sistema tendrá solución única (Sistema compatible


a) Si rango de A = rango de A
determinado).
1
El rango de una matriz es igual al número de filas linealmente independientes
Walter Arriaga Delgado Algebra Lineal 53

b = k < n, el sistema tendrá infinitas soluciones y depen-


b) Si rango de A = rango de A
derá exactamente de n − k parámetros (Sistema compatible indeterminado).

b el sistema no tendrá
II. Si rango de A 6= rango de A, solución (Sistema incompatible).


x + y − z


= 1
Ejemplo 1.7.9. Dado el sistema lineal 2x + 3y + az = 3




x + ay + 3z = 2
Halle el valor de “a” de tal modo que:

No tenga solución.

Tenga más de una solución.

Tiene una única solución.

Solución
La matriz ampliada:
     
1 1 −1 1 1 1 −1 1 1 1 −1 1
     
2 3 a 3 = 0 a + 2 1  1 
   1  = 0 1 a+2 
1 a 3 2 0 a−1 4 1 0 0 6 − a − a2 2 − a
No tiene solución si:
6 − a − a2 = 0 ∧ 2 − a 6= 0
(a + 3)(a − 2) = 0 ∧ a 6= 2 ⇒ a = −3

Tiene más de una solución si:


6 − a − a2 = 0 ∧ 2 − a = 0 ⇒ a = 2

Tiene solución única si:


6 − a − a2 6= 0 ∧ 2 − a 6= 0 ⇒ a 6= −3 , a 6= 2.
Por lo tanto a ∈ R − {−3; 2}

1.7.8. Sistemas homogéneos

Un sistema de ecuaciones lineales es homogéneo, si todos los términos independientes son


nulos.
Consideremos el siguiente sistema homogéneo de m ecuaciones con n incógnitas:


 a11 x1 + a12 x2 + · · · + a1n xn = 0



 a21 x1 + a22 x2 + · · · + a2n xn = 0
.. .. .. .. .. (1.13)

 . . . . .



 a x + a x + ··· + a x = 0
m1 1 m2 2 mn n
54 Algebra Lineal Walter Arriaga Delgado

Aplicando el teorema de Rouché-Fröbenius a este sistema, resulta que siempre tendrá solu-
ción, ya que siempre se cumple que r(A) = r(B).
Si r(A) = número de incógnitas, existirá una única solución que será la solución trivial:

x1 = x2 = . . . = xn = 0

Si r(A) < número de incógnitas, existirán infinitas soluciones. Podemos enunciar, pues, el
siguiente teorema:

Teorema 1.7.2. Un sistema de ecuaciones lineales homogéneo tiene solución distinta de la


trivial si y solo si el rango de la matriz los coeficientes es menor que el número de incógnitas.

Corolario 1.7.1. Un sistema de ecuaciones lineales homogéneo con igual número de ecua-
ciones que de incógnitas tiene solución distinta de la trivial si y solo si el determinante de la
matriz de coeficientes es nulo.

1.8. Factorización LU de una Matriz


En el álgebra lineal, la descomposición LU es una forma de factorización de una matriz
“no singular” como el producto de una matriz triangular inferior y una superior.
Esta factorización es útil para resolver sistemas de ecuaciones lineales sobre una computa-
dora y se puede usar para probar resultados importantes sobre matrices.
En la sección 1.7 se muestra el sistema de ecuaciones lineales dado en 1.9 que a su vez se
puede escribir como 1.10, es decir como:

Ax = b

Supongamos que se conoce cómo factorizar una matriz An×n en la forma

A = LU (1.14)

donde L es una matriz triangular inferior n × n y U es una matriz escalonada n × n. Entonces


el sistema 1.10 podrı́a representarse en la forma

LU.x = b (1.15)

Si denominamos y a la matriz columna de n filas resultado del producto de las matrices U x,


tenemos que la ecuación (1.15) se puede reescribir del siguiente modo:

Ly = b (1.16)

A partir de las ecuaciones (1.15) y (1.16), es posible plantear un algoritmo para resolver
el sistema de ecuaciones lineales empleando dos etapas:
Walter Arriaga Delgado Algebra Lineal 55

Primero obtenemos y aplicando el algoritmo de sustitución progresiva en la ecuación


(1.16).

Posteriormente obtenemos los valores de x aplicando el algoritmo de sustitución regresiva


a la ecuación

Ux = y (1.17)

El análisis anterior nos muestra lo fácil que es resolver estos dos sistemas de ecuaciones
triangulares y lo útil que resultarı́a disponer de un método que nos permitiera llevar a cabo
la factorización A = LU . Si disponemos de una matriz A de n × n, estamos interesados en
encontrar aquellas matrices:
   
l11 0 0 ··· 0 u11 u12 u13 · · · u1n
   
l l 0 · · · 0   0 u u · · · u 
 21 22   22 23 2n 
   

L =  l31 l32 l33 · · · 0  U =
 0 0 u 33 · · · u3n 

 .. .. .. . . ..   .. .. .. .. .. 
 . . . . .   . . . . . 
   
ln1 ln2 ln3 · · · lnn 0 0 0 · · · unn

tales que cumplan la ecuación (1.14). Cuando esto es posible, decimos que A tiene una de-
scomposición LU . Se puede ver que las ecuación anterior no determina de forma única a Ly
a U . De hecho, para cada i podemos asignar un valor distinto de cero a lii o uii (aunque no
ambos). Por ejemplo, una elección simple es fijar lii = 1 para i = 1, 2, . . . , n haciendo de esto
modo que L sea una matriz triangular inferior unitaria. Otra elección es hacer U una matriz
triangular superior unitaria (tomando uii = 1 para cada i).
 
2 3 2 4
 
 4 10 −4 0 
 
Ejemplo 1.8.1. Encuentre una factorización LU para la matriz A =  .
−3 −2 −5 −2
 
−2 4 4 −7
Reduzca por filas la matriz A a una matriz triangular superior y depués escriba A como un
producto de una matriz triangular superior.
Solución
F2 → F2 − 2F1
   
2 3 2 4 F3 → F3 + 32 F1 2 3 2 4 F3 → F3 − 58 F2
   
 4 10 −4 0  F4 → F4 + F1 0 4 −8 −8 F4 → F4 − 7 F2
    4
  −−−−−−−−−−−−−→   −−−−−−−−−−−−−→
−3 −2 −5 −2 0 5 −2 4 
   2 
−2 4 4 −7 0 7 6 −3
56 Algebra Lineal Walter Arriaga Delgado

   
2 3 2 4 2 3 2 4
   
0 4 −8 −8 F4 →F4 − 20 F3 0 4 −8 −8 
  3  
  −−−−−−−−−→  =U
0 0 3 9   0 0 3 9 
   
0 0 20 11 0 0 0 −49

Usando las matrices elementales se pude escribir


     
1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0
     
0 1 0  
0 0 1 0  
0 0 1 0 0 0    
1 0 0  0 1 0 0
 
U =     3 
0 0 1 0  0  5  0 1 0  0 1 0
  0 0 1  0 − 8 1 0 0  2 
0 0 − 203 1 0 − 74 0 1 0 0 0 1 1 0 0 1 0 0 0 1
 
1 0 0 0
 
−2 1 0 0
 
 A
 0 0 1 0
 
0 0 0 1
o también
     
1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0
     
2 1  
0 0  0  
1 0 0  0    
1 0 0 0 1 0 0 0 1 0 0
 
A=  3    
0 0 1 0  0 1 0  0 1 0 0 5 1 0 0 0 1 0
  − 2  0  8  
0 0 0 1 0 0 0 1 −1 0 0 1 0 0 0 1 0 74 0 1
 
1 0 0 0
 
0 1 0 0
 
 U
0 0 1 0
 
20
0 0 3 1

Se ha escrito A como un producto de seis matrices elementales y una matriz triangu-


lar
 superior. Sea L el producto de las matrices elementales. Debemos verificar que L =
1 0 0 0
 
 2 1 0 0
 
 3 5 , que es una matriz triangular inferior con unos en la diagonal.
− 1 0 
 2 8 
−1 74 20
3 1

Después se puede escribir A = LU , donde L es triangular inferior y U es triangular supe-


rior. Los elementos de la diagonal de L son todos iguales a 1 y los elementos de la diagonal de
U son los pivotes. Esta factorización se llama factorización LU de A.

El procedimiento usado en el ejemplo (1.8.1) se puede llevar a cabo mientras no se requieran


permutaciones paa poder reducir A a la forma triangular. Esto no siempre se puede. Por
Walter Arriaga Delgado Algebra Lineal 57

ejemplo, el primer paso a la reducción por filas de


 
0 2 3
 
2 −4 7
 
1 −2 5

es permutar(intercambiar) las filas 1 y 2 o las filas 1 y 3.


Suponga que por el momento esa permutación no es necesaria. Entonces, igual que en el
ejemplo (1.8.1), se puede escribir A = E1 E2 · · · En U , donde U es una matriz triangular superior
y cada matriz elemental es una matriz triangular inferior y con unos en la diagonal. Esto se
deduce del hecho de que E es de la forma Fj + λFi . (No hay permutaciones ni multiplicaciones
de filas por constantes). Más aún, los números que se hacen cero en la reducción por fils están
siempre abajo de la diagonal de manera que en Fj + λFi siempre se cumple que j > i. Ası́ los
λ aparecen abajo de la diagonal.

Ejemplo 1.8.2. Resuelva el sistema Ax = b usando la factorización LU, donde


   
2 3 2 4 4
   
 4 10 −4 0  −8
   
A=  y b= 
−3 −2 −5 −2 −4
   
−2 4 4 −7 −1

Solución
De ejemplo anterior se puede escribir A = LU , donde
   
1 0 0 0 2 3 2 4
   
2 1 0 0  −8 
 0 4 −8 
L =  −3 5  y U = 
 0 0 9 
 2 8 1   0 3 
−1 74 20 3 1 0 0 0 −49

El sistema Ly = b conduce a las ecuaciones




 y1 = 4





2y1 + y2 = −8

 − 32 y1 + 58 y2 + y3 = −4





−y1 + 7 y2 + 20 y3 + y4
4 3 = −1

es decir
y1 = 4
y2 = −8 − 2y1 = −16
y3 = −4 + 32 y1 − 58 y2 = 12
y4 = −1 + y1 − 74 y2 − 20
3 y3 = −49
58 Algebra Lineal Walter Arriaga Delgado

acabamos de realizar la sustitución hacia adelante. Ahora, de U x = y se obtiene




 2x1 + 3x2 + 2x3 + 4x4 = 4



 4x2 − 8x3 − 8x4 = −16

 3x3 + 9x4 = 12



 −49x = −49
4

es decir
x4 = 1
3x3 = 12 − 9x4 = 3 ⇒ x3 = 1
4x2 = −16 + 8x3 + 8x4 = 0 ⇒ x2 = 0
2x1 = 4 − 3x2 − 2x3 − 4x4 = −2 ⇒ x1 = −1
Por lo tanto la solución es: 

−1
 
0
 
x= 
1
 
1

1.9. Reseñas Históricas

Johann Carl Friedrich Gauss

Figura 1.1: Johann Carl Friedrich Gauss

Johann Carl Friedrich Gauss, nació el 30 de Abril de 1777 en Brunswick, Alemania. Fue
un matemático, astrónomo y fı́sico alemán de una profunda genialidad, que contribuyó sig-
nificativamente en muchos campos, incluida la teorı́a de números, el análisis matemático, la
geometrı́a diferencial, la geodesia, el magnetismo y la óptica. Considerado “el prı́ncipe de las
matemáticas “el matemático más grande desde la antigüedad”, Gauss ha tenido una influen-
2

cia notable en muchos campos de la matemática y de la ciencia, y es considerado uno de los


matemáticos que más influencia ha tenido alrededor de la historia.
Walter Arriaga Delgado Algebra Lineal 59

Gauss fue un prodigio, de quien existen muchas anécdotas acerca de su asombrosa precoci-
dad siendo apenas un pequeño infante, e hizo sus primeros grandes descubrimientos mientras
era apenas un adolescente.
Completo su magnum opus, Disquisitiones Arithmeticae a los veintiún años (1798), aunque
no seria publicada hasta 1801. Un trabajo que fue fundamental para que la teorı́a de los
números se consolidara y ha moldeado esta área hasta los dı́as presentes.
Es célebre la siguiente anécdota: con tan solo 3 años corrigió en su cabeza un error que
su padre, mientras éste realizaba un conteo de pago de sus empleados, haciendo ver su precoz
habilidad para los números.
Tenı́a Gauss 10 años cuando un dı́a en la escuela el profesor manda sumar los cien primeros
números naturales. El maestro querı́a unos minutos de tranquilidad . . . pero transcurridos
pocos segundos Gauss levanta la mano y dice tener la solución: los cien primeros números
naturales suman 5.050. Y efectivamente es ası́. ¿Cómo lo hizo Gauss? Pues mentalmente se
dio cuenta de que la suma de dos términos equidistantes era constante:

1, 2, 3, 4 . . . . . . 97, 98, 99, 100

1 + 100 = 2 + 99 = 3 + 98 = 4 + 97 = · · · = 101
Con los 100 números se pueden formar 50 pares, de forma que la solución final viene dada
por el producto

101 · 50 = 5050
Gauss habı́a deducido la fórmula que da la suma de n términos de una progresión aritmética
de la que se conocen el primero y el último término:

(a1 + an )n
Sn =
2
dónde a1 es el primer término, an el último, y n es el número de términos de la progresión.
En 1796 descubrió el método de construcción del Heptadecágono, y dió el criterio necesario
y suficiente para que un polı́gono pueda ser dibujado.
Fue el primero en probar rigurosamente el Teorema Fundamental del Álgebra (disertación
para su tesis doctoral en 1799), aunque una prueba casi completa de dicho teorema fue hecha
por Jean Le Rond d’Alembert anteriormente.
En 1801 publicó el libro Disquisitiones Aritmeticae, con seis secciones dedicadas a la Teorı́a
de números, dándole a esta rama de las matemáticas una estructura sistematizada. En la
última sección del libro expone su tesis doctoral. Ese mismo año predijo la órbita del asteroide
Ceres aproximando parámetros por mı́nimos cuadrados.
En 1809 fue nombrado director del Observatorio de Göttingen. En este mismo año publi-
ca Theoria motus corporum coelestium in sectionibus conicis Solem ambientium describiendo
cómo calcular la órbita de un planeta y cómo refinarla posteriormente. Profundiza sobre ecua-
ciones diferenciales y secciones cónicas.
Quizás Gauss haya sido la primera persona en intuir la independencia del postulado de
las paralelas de Euclides y de esta manera anticipar una geometrı́a no euclidiana. Pero esto
sólo se afirma, sacando conclusiones de cartas enviadas a sus amigos, Farkas Bolyai y a su hijo
János Bolyai a quien Gauss calificó como un genio de primer orden.
En 1823 publica Theoria combinationis observationum erroribus minimis obnoxiae, ded-
icado a la estadı́stica, concretamente a la distribución normal cuya curva caracterı́stica, de-
nominada Campana de Gauss, es muy usada en disciplinas no matemáticas donde los datos
60 Algebra Lineal Walter Arriaga Delgado

son susceptibles de estar afectados por errores sistemáticos y casuales como por ejemplo la
psicologı́a diferencial.
Hay que aclarar que Gauss no fue el primero en hacer referencia a la distribución normal.
Mostró un gran interés en geometrı́a diferencial y su trabajo Disquisitiones generales circa
superficies curva publicado en 1828 fue el más reconocido en este campo. En dicha obra expone
el famoso Teorema Egregium. De esta obra se deriva el término Curvatura Gaussiana.
En 1831 se asocia al fı́sico Wilhelm Weber durante seis fructı́feros años en los que realizan
investigaciones sobre las Leyes de Kirchhoff, publicaciones sobre magnetismo y construyen un
telégrafo eléctrico primitivo.
Aunque a Gauss le desagradaba dar clases, algunos de sus alumnos resultaron destaca-
dos matemáticos como Richard Dedekind y Bernhard Riemann. Otros matemáticos contem-
poráneos fueron Carl Gustav Jakob Jacobi, Dirichlet y Sophie Germain.
Gauss murió en Göttingen el 23 de febrero de 1855.

Arthur Cayley

Figura 1.2: Arthur Cayley

Arthur Cayley nació en Richmond, Reino Unido, el 16 de agosto de 1821 y murió en


Cambridge, 26 de enero de 1895. Fue uno de los fundadores de la escuela británica moderna
y contribuyó grandemente con el adelanto de la matemática pura.
Se graduó en 1842 en la Trinity College, Cambridge, él más tarde entró en leyes y pos-
teriormente fue admitido en la London Bar (1849). Luego pasó a ser profesor en Cambridge.
Cayley desarrolló la teorı́a de la invarianza algebraica, y su desarrollo de la geometrı́a no
dimensional ha sido aplicada en la fı́sica al estudio del Espacio-Tiempo continuo. Introdujo
la multiplicación de las matrices. Es el autor del teorema de Cayley-Hamilton que dice que
cualquier matriz cuadrada es solución de su polinomio caracterı́stico. Dio la primera defini-
ción moderna de la noción de grupo. Su trabajo en las matrices del álgebra sirvió como un
fundamento para la Mecánica Cuántica, la cual fue desarrollada por Werner Heisenberg en
1925. Cayley también sugirió que la Geometrı́a Euclidiana y no Euclidiana son tipos especiales
de geometrı́a. Unió la Geometrı́a Proyectiva (la cual depende de las propiedades invariantes
de las figuras) y la Geometrı́a Métrica (dependiente en tamaños de ángulos y longitudes de
lı́neas). Se publicaron los trabajos matemáticos de Cayley en Cambridge (1889-98).
Recibió la Royal Medal en 1859 y la Medalla Copley en 1882.
Walter Arriaga Delgado Algebra Lineal 61

En combinatoria, su nombre está unido a la fórmula nn−2 que enumera los árboles deco-
rados con n picos.
Se llama a veces octavas de Cayley o números de Cayley a los octoniones.

Gabriel Cramer

Figura 1.3: Gabriel Cramer

Gabriel Cramer (31 de julio, 1704 - 4 de enero, 1752) fue un matemático Suizo nacido
en Ginebra. Profesor de matemáticas de la Universidad de Ginebra durante el periodo 1724-
27. En 1750 ocupó la cátedra de filosofı́a en la citada universidad. En 1731 presentó en la
Academia de las Ciencias de Parı́s, una memoria sobre las causas de la inclinación de las
órbitas de los planetas. Editó las obras de Jean Bernouilli (1742) y Jacques Bernouilli (1744)
y el Comercium epistolarum de Leibniz. Su obra fundamental es la Introduction a lanalyse des
courbes algébriques (1750), en la que se desarrolla la teorı́a de las curvas algégricas según los
principios newtonianos, demostrando que una curva de grado n viene dada por la expresión:
n(n − 3)
2

Wilhelm Jordan
Wilhelm Jordan fue un geodesista alemán, nació en 1842 y murió en 1899. Hizo encuestas
en Alemania y África.
Es recordado entre los matemáticos por su algoritmo de Eliminación de Gauss - Jordan, con
Jordan mejorando la estabilidad del algoritmo de manera que se podı́a aplicar para minimizar
el error cuadrado en las mediciones. Esta técnica algebráica apareció en su Handbuch der
Vermessungskunde (1873).
62 Algebra Lineal Walter Arriaga Delgado

✍ EJERCICIOS RESUELTOS 1.

I. Matrices

1. Demuestre que si A es una matriz cuadrada, entonces:


a) AAt es simétrica.
Demostración. Se debe probar que B = AAt es simétrica, es decir que
B t = B.
En efecto: B t = (AAt )t = (At )t At = AAt = B
Por lo tanto B = AAt es simétrica. 
b) At A es simétrica.
Demostración. Se debe probar que B = At A es simétrica, es decir que
B t = B.
En efecto: B t = (At A)t = At (At )t = At A = B
Por lo tanto B = At A es simétrica. 
c) A + At es simétrica.
Demostración. Se debe probar que B = A + At es simétrica, es decir que
B t = B.
En efecto: B t = (A + At )t = At + (At )t = At + A = A + At = B
Por lo tanto B = A + At es simétrica. 
d) A − At es antisimétrica.
Demostración. Se debe probar que B = A − At es antisimétrica, es decir que
B t = −B.
En efecto: B t = (A − At )t = At − (At )t = At − A = −(A − At ) = −B
Por lo tanto B = A − At es antisimétrica. 
e) A + A t es hermitiana.
Demostración. Se debe probar que B = A + A t es hermitiana, es decir que
t
B = B.
t
En efecto: B = (A + A t )t = (A + A t )t = At + A = At + A = A t + A =
A + At = B
Por lo tanto B = A + A t es hermitiana. 
f) A − A t es antihermitiana.
Demostración. Se debe probar que B = A − A t es antihermitiana, es decir
t
que B = −B.
t
En efecto: B = (A − A t )t = (A − A t )t = At − A = At − A = A t − A =
A − A t = −(A − A t ) = B
Walter Arriaga Delgado Algebra Lineal 63

Por lo tanto B = A − A t es antihermitiana. 


g) AA t es hermitiana.
Demostración. Se debe probar que B = AA t es hermitiana, es decir que
t
B = B.
t
En efecto: B = (AA t )t = (AA t )t = AAt = A At = AA t = B
Por lo tanto B = AA t es hermitiana. 
h) A t A es hermitiana.
Demostración. Se debe probar que B = A t A es hermitiana, es decir que
t
B = B.
t
En efecto: B = (A t A)t = (A t A)t = At A = At A = A t A = B
Por lo tanto B = A t A es hermitiana. 
1
i) A es involutiva entonces (I + A) es idempotente.
2
Demostración.
Hipótesis: A es involutiva, es decir A2 = I
1
Tesis: B = (I + A) es idempotente, es decir B 2 = B.
2  2
2 1 1 1
En efecto: B = (I + A) = (I + A)(I + A) = (I + IA + IA + AA) =
2 4 4
1 1 1 1
(I + 2A + A2 ) = (I + 2A + I) = (2I + 2A) = (I + A) = B 
4 4 4 2
2. Demuestre que si A es una matriz cuadrada simétrica de orden m y P una matriz
de orden m × n, entonces la matriz B = P t AP es simétrica.
Demostración.
Hipótesis: A es simétrica: At = A
Tesis: B = P t AP es simétrica: B t = B.
En efecto: B t = (P t AP )t = (P t (AP ))t = (AP )t (P t )t = P t At P = P t AP = B
Por lo tanto B = P t AP es simétrica. 

3. Demuestre que si A es una matriz cuadrada antisimétrica de orden m y P una


matriz de orden m × n, entonces la matriz B = P t AP es antisimétrica.
Demostración.
Hipótesis: A es antisimétrica: At = −A
Tesis: B = P t AP es antisimétrica: B t = −B.
En efecto: B t = (P t AP )t = (P t (AP ))t = (AP )t (P t )t = P t At P = P t (−A)P =
−P t AP = −B
Por lo tanto B = P t AP es antisimétrica. 

II. Determinantes

1. Calcular:
64 Algebra Lineal Walter Arriaga Delgado


2
a (a + 1)2 (a + 2)2 (a + 3)2

b2 (b + 1)2 (b + 2)2 (b + 3)2

a)
c2 (c + 1)2 (c + 2)2 (c + 3)2

2
d (d + 1)2 (d + 2)2 (d + 3)2
Solución
Usando las transformaciones lineales se tiene:

2 2 2
a (a + 1)2 (a + 2)2 (a + 3)2 a a + 2a + 1 a2 + 4a + 4 a2 + 6a + 9

b2 (b + 1)2 (b + 2)2 (b + 3)2 b2 b2 + 2b + 1 b2 + 4b + 4 b2 + 6b + 6

2 = 2
c (c + 1)2 (c + 2)2 (c + 3)2 c c2 + 2c + 1 c2 + 4c + 4 c2 + 6c + 9

2 2 2
d (d + 1)2 (d + 2)2 (d + 3)2 d d + 2d + 1 d2 + 4d + 4 d2 + 6d + 9

2
a 2a + 1 4a + 4 6a + 9

b2 2b + 1 4b + 4 6b + 6

=
c2 2c + 1 4c + 4 6c + 9

2
d 2d + 1 4d + 4 6d + 9

2
a 2a + 1 2 6

b2 2b + 1 2 6

= =0
c2 2c + 1 2 6

2
d 2d + 1 2 6

puesto que 2 columnas son proporcionales.


2. Demostrar que si A y B son matrices cuadradas de orden n no singulares, y sea
λ ∈ R entonces:
a) Adj(AT ) = [Adj(A)]T
Demostración.
En efecto: Adj(AT ) = |AT |(AT )−1 = |A|(A−1 )T = (|A|A−1 )T = [Adj(A)]T . 
b) Adj(A−1 ) = [Adj(A)]−1
Demostración.
En efecto:
Adj(A−1 ) = |A−1 |(A−1 )−1 = |A|−1 (A−1 )−1 = (|A|A−1 )−1 = [Adj(A)]−1 . 
c) Adj(AB) = Adj B · Adj A
Demostración.
En efecto:
Adj(AB) = |AB|(AB)−1 = |A||B|B −1 A−1 = [|B|B −1 ][|A|A−1 ] = Adj B ·Adj A.

d) Adj(An ) = [Adj(A)]n
Walter Arriaga Delgado Algebra Lineal 65

Demostración.
En efecto: Adj(An ) = |An |(An )−1 = |A|n (A−1 )n = (|A|A−1 )n = [Adj(A)]n . 
e) Adj(λA) = λn−1 Adj(A)
Demostración.
En efecto:
Adj(λA) = |λA|(λA)−1 = λn |A|λ−1 A−1 = λn−1 (|A|A−1 ) = λn−1 Adj(A). 

III. Rango de una matriz


 
1 3 −2 0 2 0
 
2 6 −5 −2 4 −3
 
1. Hallar el rango de la matriz A =  
0 0 5 10 0 15 
 
2 6 0 8 4 8
Solución: Realizando sucesivamente las transformaciones elementales tendremos:
   
1 3 −2 0 2 0 1 3 −2 0 2 0
   
2 6 −5 −2 4 −3 0 0 −1 −2 0 −3
   
A= ≈ ≈
0 0 5 10 0 15  0 0 5 10 0 15 
   
2 6 0 8 4 8 0 0 4 8 0 8
   
1 3 −2 0 2 0 1 3 −2 0 2 0
   
0 0 −1 −2 0 −3 0 0 −1 −2 0 −3
   
 ≈ =B
0 0 0 
0 0 0  0 0 0  0 0 −4
 
0 0 0 0 0 −4 0 0 0 0 0 0

La última matriz escalonada B tiene 3 filas no nulas, luego:

ρ(B) = ρ(A) = 3

IV. Aplicaciones

Problema 1.1. En la sala de un hospital dedicado al tratamiento de diabéticos se


administra insulina de tres clases: semilenta, lenta y ultralenta. El número de unidades
diarias que se aplica a los pacientes de los cinco ingresados viene dado por la siguiente
tabla:

Pac. 1 Pac. 2 Pac. 3 Pac. 4 Pac. 5


Semilenta 15 15 20 30 10
Lenta 20 20 15 5 20
Ultralenta 10 5 10 10 15

El número de dı́as que ha estado internado cada paciente es:


66 Algebra Lineal Walter Arriaga Delgado

Pac. 1 Pac. 2 Pac. 3 Pac. 4 Pac. 5


No de dı́as 3 7 5 12 20

Calcula, con ayuda del producto de matrices, las unidades de cada clase que le fue
administrada a los pacientes.

Solución:  
15 15 20 30 10
 
La matriz de necesidades diarias es: A = 
20 20 15 5 20
.
10 5
10 10 15
 
3
 
7
 
 
La matriz columna que expresa el número de dı́as es: D =  5 .
 
12
 
20
Para hallar el número de unidades de cada clase administradas a los pacientes calculemos:

 
3
    
7
15 15 20 30 10 810
   
 
AD = 20 20 15 5 20  5  = 735
  

 

10 5 10 10 15 12  535
20

Problema 1.2. En un hospital oncológico se aplica a un grupo de cuatro pacientes


un tratamiento de quimioterapia mediante un protocolo CMF (C = ciclofosfamida, M
= metrotexate, F = 5–fluoracilo). Las cantidades diarias que necesita cada paciente de
cada uno de los compuestos varı́an según la superficie total corporal, del siguiente modo:
Paciente 1: 1200 mg de C, 80 mg de M y 1200 mg de F.
Paciente 2: 900 mg de C, 60 mg de M y 950 mg de F.
Paciente 3: 1100 mg de C, 70 mg de M y 1000 mg de F.
Paciente 4: 1150 mg de C, 80 mg de M y 1100 mg de F.
Teniendo en cuenta que el tratamiento se va a aplicar durante tres semanas a los pacientes
1, 3 y 4 y dos semanas al paciente 2, hallar la matriz de necesidades diarias y las cantidades
de cada compuesto necesarias para poder atender correctamente los tratamientos de los
cuatro pacientes.

Solución:
La matriz de necesidades diarias es:
Walter Arriaga Delgado Algebra Lineal 67

Pac. 1 Pac. 2 Pac. 3 Pac. 4


Ciclofosfamida 1200 900 1100 1150
Metrotexate 80 60 70 80
5-fluoracilo 1200 950 1000 1100

 
1200 900 1100 1150
 
A=
 80 60 80 
70 
1200 950 1000 1100
Si representamos por D el vector columna que expresa el número de dı́as que cada paciente
debe seguir el tratamiento, se tiene:
 
21
 
14
 
D= 
21
 
21

Las necesidades totales de cada compuesto se obtienen multiplicando la matriz A por la


D:  
    21
 
1200 900 1100 1150 85050
  
14  
AD = 
 80 60 70 80   
 21  =  5670 

1200 950 1000 1100   82600
21
Ası́ pues, se necesitan: 85.050 mg de ciclofosfamida, 5.670 de metrotexate y 82.600 mg
de 5-fluoracilo.
68 Algebra Lineal Walter Arriaga Delgado

✍ EJERCICIOS PROPUESTOS 1.

I. Matrices
(
i + j , si i ≥ j
1) Dada la matriz A = (aij )2×3 donde: aij = . Hallar la suma de
i − j , si i < j
los elementos de A


 ij , si i > j


2) Dada la matriz M = (mij )3×3 , donde: mij = i2 + j 2 , si i = j . Hallar la suma de



 2
2i − j , si i < j
los elementos de la segunda columna de M
! !
1 3 5 a
3) Dadas las matrices A = ;B= . Calcule ab, si AB = BA.
2 0 −2 b
 
5 a+b 3
 
4) Si la matriz W =   7 −2 c − 1  es simétrica, hallar: a + b + c

a−b 2 10
 
5 8 4
 
5) Dada la matriz A =   3 2 5 , hallar la traza de la matriz B, que sumada con la

7 6 0
matriz A origine la matriz identidad.
 2  
2 −2 −4 x ∗ ∗
   
6) Si 
−1 3 4  
 =  ∗ y ∗ . Calcular: x + y + z
1 −2 −3 ∗ ∗ −z
! !
4 −3 −1 0
7) Si A es una matriz que cumple: (A + I)2 = ; (A − I)2 = .
3 2 0 −1
Hallar la traza de la matriz A
!
2
0 2
8) Sea f (x) = x + x + 2 y A = . Hallar la traza de f (A).
1 4
9) Sea la matriz A = (aij )n×n , definida por aij = |i − j| + j − i, hallar la traza de A.
" #
1 1
10) Dada la matriz A = , hallar: traz(A + A2 + A3 + · · · + An ).
0 1
11) Si A = (aij )2×2 /iaij + jaji = i2 + j 2 . Calcule a11 a12 + a21 a22
 
1 −1 1
 
12) Si A = 
 −1 0 0 ; hallar la traza de la matriz 2−98 .A100

0 −1 1
Walter Arriaga Delgado Algebra Lineal 69

!
1 1
13) Dado el polinomio P (x) = x19 + 2x − 1 y la matriz A = . Hallar la traza de
0 1
P (A)
" #
1 2
14) Dada la matriz A = , ella se puede expresar como la suma de una matriz
3 4
simétrica B y otra antisimétrica C; hallar el determinante de la matriz C.
15) Sean las matrices: A = (aik )23×2 : aik = i + k; B = (bkj )2×41 : bkj = 2k + 3j. Si
C = AB de elementos de cij . Halle el elemento c34
 
λ1 0 . . . 0
 
 0 λ2 . . . 0 
 
16) Sea D =  . .. . . ..  una matriz diagonal n × n, esto es, los elementos que
 .. . . . 
 
0 0 . . . λn
 
a11 a12 . . . a1n
 
 a21 a22 . . . a2n 
 
están fuera de la diagonal son iguales a cero. Sea A =  . .. .. .. 
 .. . . . 
 
an1 an2 . . . ann
Muestre que el producto AD es obtenido de la matriz A multiplicando
  cada
a1j
 
h i  a2j 
 
columna j por λj , o sea, si A = A1 A2 . . . An donde Aj =  .  es la
 .. 
 
anj
h i
columna j de A, entonces AD = λ1 A1 λ2 A2 . . . λn An .
Muestre que el productoDAes obtenido de la matriz A multiplicando cada fila
A1
 
 A2  h i
  ..
i por λi , o sea, si A =  .  donde Ai = a1j a2j . anj es la fila i de A,
 .. 
 
A
  n
λ A
 1 1
λ A 
 2 2
entonces DA =  .
 ... 
 
λn An
17) Sean A y B matrices de orden m × p y p × n, respectivamente.
Muestre que a j-ésima columna del producto AB es igual al producto ABj , donde
 
b1j
 .  h i
Bj =  
..  es a j−ésima columna de B, o sea, si B = B1 B2 . . . Bn ,
bpj
70 Algebra Lineal Walter Arriaga Delgado

h i h i
entonces AB = A B1 B2 . . . Bn = AB1 AB2 . . . ABn
Muestre que la i−ésima fila del producto AB es igual al producto
 A i B, donde
A1
 
h i  A2 
 
Ai = ai1 ai2 . . . aip es a i−ésima fila de A, o sea, si A =  . , entonces
 .. 
 
Am
   
A1 A1 B
   
 A2   A2 B 
   
AB =  .  B =  . .
 ..   .. 
   
Am Am B
18) Se D1 y D2 son matrices diagonales de orden n × n, entonces D1 D2 = D2 D1 .

19) Se A es uma matriz de orden n × n y B = a0 In + a1 A + a2 A2 + · · · + ak Ak , donde


a0 , · · · , ak son escalares, entonces AB = BA.
" # " #
a b c d
20) Demuestre que las matrices y son conmutables para todos los
b a d c
valores de a, b, c, d.
 
2 −2 −4
 
21) Demuestre que  −1 3 4 es una matriz idempotente.
1 −2 −3
22) Demuestre que si AB = A y BA = B, entonces las matrices A y B son idempo-
tentes.
 
1 1 3
 
23) Demuestre que A=
5 2 6
 es una matriz nilpotente de orden 3.
−2 −1 −3
24) Demuestre que si A es una matriz nilpotente de ı́ndice 2, entonces A(I ± A)n = A,
n un entero positivo cualquiera.

25) Demuestre que A es involutiva sı́ y sólo si (I − A)(I + A) = 0.

26) Dadas las matrices cuadradas simétricas A y B. Demuestre que la matriz AB es


simétrica sı́ y sólo si A y B son matrices conmutables.

27) Dadas las matrices cuadradas A y B. Demuestre que A y B son conmutables sı́ y sólo
si A − kI y B − kI son conmutables para cualquier valor real k.

28) Demuestre que la suma y el producto de dos matrices triangulares superiores es otra
matriz triangular superior.

29) Demuestre que la suma y el producto de dos matrices triangulares inferiores es otra
matriz triangular inferior.
Walter Arriaga Delgado Algebra Lineal 71

30) Demuestre que la suma y el producto de dos matrices diagonales es otra matriz diag-
onal.
31) Demuestre que la suma y el producto de dos matrices escalares es otra matriz escalar.
32) Demuestre que si A es una matriz cuadrada, entonces Ap · Aq = Aq · Ap , donde p y
q son números enteros positivos.
   
2 −3 −5 −1 3 5
   
33) Dadas las matrices A =  −1 4 5 y B=
 1 −3 −5

1 −3 −4 −1 3 5
a) Verifique que A y B son idempotentes.
b) Verifique que A y B no cumple con el recı́proco del problema 3.
34) Demuestre que si A es una matriz idempotente, entonces B = I − A es también
idempotente además AB = BA = 0.
35) Demuestre que si H es una matriz hermitiana y A una matriz conforme respecto de
la multiplicación, se verifica que (A) t HA es hermı́tica.
36) Demuestre que toda matriz hermı́tica A se puede expresar por B + iC, siendo B una
matriz real y simétrica y C otra matriz real pero hemisimétrica.
37) Demuestre que:
a) Toda matriz hermı́tica A se puede representar por A = B + iC, siendo B una
matriz real y hemisimétrica y C otra matriz real pero simétrica.
t
b) A A es una matriz real si, y solo si, B y C son anticonmutativas.
38) Demuestre que si A y B son dos matrices permutables, también lo son A−1 y B −1 ,
t t
A t y B t, y A y B .
39) Demuestre que, siendo m y n enteros positivos, Am y B n son matrices permutables
si lo son A y B.
40) Demuestre que:
" #n " #
λ 1 λn nλn−1
a) =
0 λ 0 λn
 n  1 
λ 1 0 λn nλn−1 n(n − 1)λn−2
   2 
b)  
0 λ 1  =  0

λn nλn−1


0 0 λ 0 0 λn
41) Demuestre que si A es una matriz simétrica o hemisimétrica, tanto AA t = A t A como
A2 son matrices simétricas.
42) Demuestre que si A es una matriz simétrica también lo es aAp + bAp−1 + · · · + gI, en
donde a, b, . . . , g son escalares y p un número entero y positivo.
72 Algebra Lineal Walter Arriaga Delgado

43) Demuestre que toda matriz cuadrada A se puede escribir en la forma A = B + C,


siendo B una matriz hermı́tica y C hemihermı́tica.

44) Demostrar que si A es una matriz real y hemisimétrica, o bien compleja y hemi-
hermı́tica, las matrices ±iA son hermı́ticas.

45) Demostrar que el teorema del problema 30 se puede enunciar en los siguientes térmi-
nos:
Toda matriz cuadrada A se puede escribir en la forma A = B + iC, siendo B y C dos
matrices hermı́ticas.

46) Demostrar que si A y B son dos matrices tales que AB = A y BA = B, se verifica:

a) B t A t = A t y A tB t = B t,
b) A t y B t son idempotentes,
c) A = B = I siempre que A posea inversa.
1 1
47) Si A es una matriz involutiva, demostrar que (I + A) y (I − A) son matrices
2 2
1 1
idempotentes, y que (I + A) · (I − A) = 0.
2 2
−1
48) Si A es una matriz inversa de la matriz cuadrada A, demostrar que:

a) (A−1 ) t = (A t )−1 ,
b) (A)−1 = A−1 ,
t
c) (A )−1 = (A−1 ) t .

49) Hallar todas las matrices permutables con

a) diag(1, 1, 2, 3),
b) diag(1, 1, 2, 2).

50) Si A1 , A2 , . . . , As son matrices escalares de órdenes m1 , m2 , . . . , ms , respectivamente,


hallar todas las matrices permutables con diag(A1 , A2 , . . . , As ).

51) Si A =diag(A1 , A2 , . . . , As ) y B =diag(B1 , B2 , . . . , Bs ), siendo Ai y Bi del mismo


orden, (i = 1, 2, . . . , s), demostrar que

a) A + B =diag(A1 + B1 , A2 + B2 , . . . , As + Bs )
b) AB =diag(A1 B1 , A2 B2 , . . . , As Bs )
c) Traza de AB =traza de A1 B1 + traza de A2 B2 + . . . traza de As Bs .

52) Demostrar que si A y B son matrices cuadradas hemisimétricas de orden n, la condi-


ción necesaria y suficiente para que la matriz AB sea simétrica es que A y B conmuten.

53) Demostrar que si A es una matriz cuadrada de orden n y B = rA + sI, siendo r y s


escalares, A y B conmutan.
Walter Arriaga Delgado Algebra Lineal 73

54) Sean A y B dos matrices cuadradas de orden n y r1 , r2 , s1 , s2 escalares de forma que


r1 s2 6= r2 s1 . Demostrar que las matrices C1 = r1 A + s1 B y C2 = r2 A + s2 B son
permutables si, y solo si, A y B conmutan.
55) En los incisos siguientes se dan matrices A y B en las que se ha efectuado cierta
partición. Calcule en cada caso el producto de AB atendiendo a la partición dada.
Verifique su respuesta.
   
3 1 | 0 5 8 | 24
   
 2 1 | 0   2 
  3 1 | 
a) A =   B= 
−− −− | −− −− −− | −−
   
0 0 | 4 1 1 | −1
   
3 1 4 | 7 1 0 0 | 3
   
 2 1 3 | 6   0 1 0 | 2 
   
   
b) A =  3 4 8 | 5  B =  0 0 1 | 4 
   
−− −− −− | −− −− −− −− | −−
   
0 7 1 | 2 3 1 2 | 5
   
3 8 | 1 0 5 2 | 4 5
   
 4 5 | 0 1   −1 1 | 2 3 
   
   
c) A = −− −− | −− −− B = −− −− | −− −−
   
 1 0 | 1 −1   3 7 | 1 0 
   
0 1 | 3 2 2 3 | 0 1
56) Dos marcas de material deportivo, “Keni” y “Didasa”, patrocinan a cuatro equipos
de basket: A, B, C y D. “Keni” ofrece 150.000 pts por partido ganado y 90.000 pts
por partido empatado. “Didasa” ofrece 130.000 pts por partido ganado y 100.000 pts
por empatado. Los partidos ganados o empatados por los cuatro equipos al finalizar
la temporada, se recogen en la tabla siguiente:

A B C D
Ganados 15 12 14 20
Empatados 10 13 11 5

Obtén una matriz que refleje, para cada equipo, el capital recibido de cada pa-
trocinador.
Idem las contribuciones totales para cada equipo.
57) Si I − A es una matriz regular y A es antisimétrica, demostrar que I + A es también
regular.

II. Determinantes
Calcular los determinantes de las siguientes matrices:
74 Algebra Lineal Walter Arriaga Delgado

   
1 2 3 1 1 1 1
   
1) 4 5 6 a2 b2 c2 d2 
   
9)  
7 8 9 a3 b3 c3 d3 
 
Rpta. 0 a4 b4 c4 d4
 
cos θ sen θ 0 Rpta.
 
2) − sen θ cos θ 0 (b − a)(c − a)(d − a)(c − b)(d − b)(d − c)
 
0 0 1  
Rpta. 1 a b c d
   
a2 b2 c2 d2 
1 2 3 4  
  10)  
2 3 1 a3 b3 c3 d3 
 2  
3)   a4 b4 c4 d4
1 1 1 −1
 
Rpta.
1 0 −2 −6
Rpta. −1 abcd(b−a)(c−a)(d−a)(c−b)(d−b)(d−c)
 
1 −2 −3 1  
  1 2 2 2 ··· 2
4 1 −2 2  
  2 2 2 2 · · · 2
4)    
0 2 −2 3   
  2 2 3 2 · · · 2
−2 1 1 0 11) 
2

 2 2 4 · · · 2 
Rpta. 1 . .. .. .. . . .. 
   .. . . . . .
 
1 1 1 1
  2 2 2 2 ··· n
1 1 + x 1 1 
 
5)    
1 1 1 + y 1 
  x a1 a2 · · · an−1 1
1 1 1 1+z  
a1 x a2 · · · an−1 1
 
Rpta. xyz  
  a1 a2 x · · · an−1 1
−4 1 1 1 1 12) 
 .. .. .. . . ..

.. 
  . . . . . .
 1 −4 1 1 1  
  a a2 a3 · · · x 1
   1 
6) 1 1 −4 1 1
  a1 a2 a3 · · · an 1
1 1 1 −4 1 
 
 
1 1 1 1 −4
15 16 17 18
Rpta. 0  
  15 15 19 20
 
0 1 4 3 13)  
  15 15 15 21
6 0 2 0  
  15 15 15 15
7)  
9 7 2 5
  Rpta. −360
0 1 0 3  
Rpta. 384 a2 2a + 1 2a + 3 2a + 5
   
m + 3a p + 7b q + 11b  b2 2b + 1 2b + 3 2b + 5 
 
  14)  
8) m + 5a p + 9b q + 13b  c2 2c + 1 2c + 3 2c + 5 
   
m + 7a p + 11b q + 15b d2 2d + 1 2d + 3 2d + 5
Rpta. 0 Rpta. 0
Walter Arriaga Delgado Algebra Lineal 75

   
0 0 0 0 2 x a a ... a
   
0 0 0 1 3 a x a . . . a 
   
   
15) 5 7 6 1

1
 19) a a x . . . a


. . . . 
4 1 1 1
 1  .. .. .. . . ... 
 
5 0 0 1 1 a a a ... x
Rpta. −10
 
 
1 1 1 1
  2 1 0 0 ... 0
2 3 5 7   
  1 2 1 0 . . . 0
16)    
4 9 25 49   
  20) 0 1 2 1 . . . 0


9 28 126 344  .. .. .. .. . . .. 
. . . . . .
Rpta. 240  
 
0 0 0 0 ... 2
1 2 3 ... n
 
−1 0 3 . . . n  
 
  2 1 0 ........
17) 
−1 −2 0 . . . n   
 . 1 2 1 0 ....... 
 .. .. .. .. .  
 . . . .. 
  
0 1 2 1 0 ..... 
−1 −2 −3 ... 0  
 
  . . . 0 1 2 1 ..... 
 
0 1 1 ... 1 1 
21)  . . . 0 1 2 1 ... 
  
1 0 x ... x x  
   .............. 
   
18)  x x  
1 x 0 ...   ...... 0 1 2 1 0
 .. .. .. .. .. ..   
. . . . . .  ....... 0 1 2 1
   
1 x x ... x 0 ......... 0 1 2

Ejercicios diversos:

1) Hallar |M |, donde M es matriz de orden 3, tal que mij = 2i − j Rpta. 0



2
x 2 4

2) Resolver: 4 3x 6x = x2 − 100 Rpta. ±10

−2 x 2x


1 3 x

3) Resolver: 5 −8 15 = x2 − 28 Rpta. 2 7

5 15 5x


a + x x x x

x b+x x x abcd

4) Resolver: =0 Rpta. −
x x c+x x abc + abd + acd + bcd


x x x d + x
v v
u u
u a + b 2b u a − b −2b
5) Calcular: E = t + t Rpta. 2a
2a a + b 2a a − b
76 Algebra Lineal Walter Arriaga Delgado


Pm m 2 2 P1 P2 P3 P1 P4

6) Si n = √ , hallar “k” si: 2 + 3 + 4 +2 0 = k 1 Rpta. 5
3 n 3


x − 1 x x


7) Resolver: x x+2 x = 0 Rpta. 4

x x x + 3


m n p

8) Si “m”, “n” y “p” son las raı́ces de la ecuación x + 4x + 3 = 0. Calcular: n p m
3

p m n
Rpta. 0
 
3 −1 −2
 
9) Si A =  
−2 2 −3. Hallar |A · A |
T Rpta. 49
4 −1 −2
h√ √ √ √ i
10) Dada la matriz A = 2 3 3 5 5 7 7 . Calcular |AT · A|. Rpta. 0
11) Sean las siguientes
matrices: A = (ai,j )4×4 / |A| = −2; B = (bi,j )5×5 / |B| = −1.
|3AT | | − B|

Calcular: W =
Rpta. −5176
|2A | | − 2B|
−1

!−1
3 2
12) Hallar la traza de la matriz A, si se cumple que: 2A = |A| . Rpta. 14
5 4
!
3 1
13) Hallar el determinante de A, si se cumple que: A = |A| . Rpta. −1/11
5 −2

5 ; si i < j
14) Calcular el determinante de la matriz A de orden 4, si: aij =
3 ; si i ≥ j

3 − aij ; si i 6= j
15) Dada la matriz A = (aij )3×3 definida por: aij = . Calcule |A|.
−a ; si i = j
ij

16) Sea A una matriz cuadrada de orden 2 cuyo determinante es igual a 4, la diferencia
entre la suma de los elementos de la diagonal principal y la suma de los elementos de
la diagonal secundaria es 8. Se suma x a cada elemento de la matriz A entonces el
valor de su determinante es igual a −4. Calcular el valor de x.
 
1 0 a
 
17) En un texto antiguo de Algebra se encuentra la matriz A =  0 b 0  y sólo se puede

0 c 0
 
3
 
leer la segunda columna  2 de la operación A2 −AT . Hallar AT + traz(AT ), siendo
 
6
a, b y c números naturales.
Walter Arriaga Delgado Algebra Lineal 77

 
a b c d
 
 −b a d −c 2det(BB T )
 
18) Dada la matriz:  . Calcular el valor de W = ,
 −c −d a b det(B) + det(B T )
 
−d c −b a
con {a; b; c; d} ⊂ R − {0}.
n
Y
19) Sea A = (aij ) ∈ Mn (k) una matriz triangular superior. Mostrar que det A = aii .
i=1
!
A C
20) Sean A ∈ Mn (k), B ∈ Mm (k) y C ∈ Mn,m (k), y sea M = la matriz de
0 B
bloques. Mostrar que det M = det A · det B.
21) Sea l ≥ 1, n1 , . . . , nl ≥ 1, y Ai ∈ Mni (k) si 1 ≤ i ≤ l. Mostrar que:
 
A1 0 0 ... 0
 
 0 A2 0 . . . 0 
  Yl
 
det  0 0 A3 . . . 0  = det Ai .
 
 ..........  i=1
 
0 0 0 . . . Al

22) Si A, B, C, D ∈ Mn (k) y A es inversible, muestre que:


!
A B
det = det(AD − ACA−1 B)
C D

23) Demuestre que si A ∈ Mn (k) es antisimetrica y n es impar, entonces det A = 0.


24) Demuestre que si A ∈ Mn (k) es ortogonal, entonces det A = ±1.

III. Rango de una matriz


Hallar el rango de cada una de las siguientes matrices:
   
−1 1 −2 12 3
   
1)   −1 1 1
1 1 0 
3) 


2 1 1  3 3 5
 
Rpta. 2 0 3 4
Rpta. 2
 
  0 4 12
−1 2 3 4 5  
  5 −4
2
 
2)  
 1 2 1 3 2 4)  
−1 −1 −1
 
0 4 4 7 7
2 3 5
Rpta. 2
78 Algebra Lineal Walter Arriaga Delgado

Rpta. 2 Rpta. 3
 
3 1 1  
 
1 2 1 1 3−1 5
   
5)   2 −1 −3 4 
2 −1 0  
  9)  
5 1 −1 7 
5 2 1  
7 7 9 1
Rpta. 3
 
1 1 2 Rpta. 3
   

6) 2 2 4
 24 19 36 72 −38
3 5 8  
49 40 73 147 −80 
 
Rpta. 2 10)  
  73 59 98 219 −118
 
2 0 2 0 2 47 36 71 141 −72
 
0 1 0 1 0
 
7)   Rpta. 3
2 1 0 2 1
   
0 1 0 1 0 17 −28 45 11 39
 
Rpta. 3 24 −37 61 13 50 
   
 
3 −1 3 2 5 11) 25 −7 32 −18 −11
   
5 −3 2 3 4  31 12 19 −43 −55
   
8)  
1 −3 −5 0 −7 42 13 29 −55 −68
 
7 −5 1 4 1 Rpta. 2

IV. Matriz Inversa


 
−1 1 0
 
1) Dada la matriz   −1
0 m 3 , averigua para qué valores del parámetro m existe A .
4 1 m
−1
Calcula A .

2) Calcular la inversa de las siguientes matrices:


   
3 0 0 1/3 0 0
   
➳ 0 −2 0  Rpta. 
 0 −1/2 0 

0 0 5 0 0 1/5
   
1 1 0 1 0 −1
   
➳ 1 0 1 Rpta.  0 0 1 

0 1 0 −1 1 1
   
1 7 −2 1 −7/2 16/3
   

➳ 0 2 4 Rpta.  0 1/2 −2/3 
  
0 0 3 0 0 1/3
Walter Arriaga Delgado Algebra Lineal 79

   
1 −2 3 4 −12 7
   
➳ 2 −3 1 Rpta.  
  3 −9 5
3 −4 0 1 −2 1
   
1 3 −2 −27 −19 22
   
➳ 2 5 4  Rpta.  −8
   10 7 
3 8 1 1 1 −1
   
1 2 3 −8/3 8/3 −1
   
➳ 4 5 6 Rpta.  
   10/3 −13/3 2 
7 8 8 −1 2 −1
   
3 2 1 0 −1 1
   
➳ 1 1 1 Rpta.  1 −2
  1 
2 1 1 −1 1 1
   
1 1 1 6 −1 −1
   
➳ 2 3 2 Rpta.  0
  −2 1 
3 3 4 −3 0 1
   
1 1 0 1/4 −1/4 1/2
   
➳ −1 1 2 Rpta.  1/4 −1/2
   3/4 
1 0 1 −1/4 1/4 1/2
   
1 2 −3 −4 3 −2
   
➳ 3 2 −4 Rpta.  −8 6 −5 
   
2 −1 0 −7 5 −4
   
2 3 5 2 −5/2 1/2
   
➳ 2 4 6  Rpta.  −1 0 1/2 
   
4 8 10 0 1 −1/2
   
2 1 3 1 0 −1
   
➳ −1 4 0 Rpta.  0 0 1 
   
1 1 0 −1 1 1
   
3 −1 2 1/28 1/4 −3/56
   
➳ 4 1 1 Rpta.  −11/28 1/4 5/56 
   
2 4 6 1/4 −1/4 1/8
   
2 3 4 −1 1 1
   
➳  4 2 2 Rpta.  5 −4 −6 
   
−1 1 2 −3 5/2 4
80 Algebra Lineal Walter Arriaga Delgado

   
2 0 4 −11/2 1 1
   
➳ 4 −2 6  Rpta.  1/2 
   −2 0 
8 2 16 3 −1/2 −1/2
   
3 6 −9 5/87 −1/29 8/29
   
➳ 0 2 1 Rpta.  
   1/29 11/29 −1/29
3 −1 2 −2/29 7/29 2/29
   
6 −1 −1 1 1 1
   
➳ −2 1 0 Rpta.  
  2 3 2
−3 0 1 3 3 4
   
5 3 −2 5 −13 −1
   
➳  2 1 −1 Rpta.  1
  −4 11 
−2 2 3 6 −16 −1
   
9 1 2 1 −4 3
   
➳ 2 1 −1 Rpta.  
  −4 18 −13
0 1 −2 −2 9 −7
   
cos θ sen θ 0 cos θ − sen θ 0
   
➳ − sen θ cos θ 0 Rpta.  
  sen θ cos θ 0
0 0 1 0 0 1
   
1 1 1 (x + y + xy)/xy −1/x −1/y
   
➳ 1 1 + x 1  Rpta.  −1/x 1/x 0 
   
1 1 1+y −1/y 0 1/y
   
1 1 1 1 17/6 −1 −1/2 −1/3
   
1 2 1 1  −1 1 0 0 
   
➳   Rpta.  
1 1 3 1 −1/2 0 1/2 0 
   
1 1 1 4 −1/3 0 0 1/3
   
1 2 3 4 22 −6 −26 17
   
2 3 1 2  −17 5 20 −13 
   
➳   Rpta.  
1 1 1 −1  −1 0 2 −1 
   
1 0 −2 −6 4 −1 −5 3
   
1 −2 −3 1 −1 −1 1 −3
   
4 1 −2 2  8 11 −10 26 
   
➳   Rpta.  
0 2 −2 3 −10 −13 12 −31
   
−2 1 1 0 −12 −16 15 −38
Walter Arriaga Delgado Algebra Lineal 81

 
1 7 −2
 

3) Dada la matriz A = 0 2 4 −1
, hallar: traz(A + A )
0 0 3
 
1 a+b 0
 

4) Sea la matriz: A = 2 a −1
5  simétrica. Hallar la traza de A
b x 3
5) Demostrar que la inversa de una matriz hermitiana es también hermitiana.

6) Resolver AX = B, donde:
     
1 −1 1 2 4 1 2 2 1
     
A= 0 0 1 
; B = 2 −1 0
 Rpta. X = 
2 −3 0

1 1 −1 2 0 1 2 −1 0
     
3 2 1 4 4 4 1 2 3
     
A=  
4 5 2; B = 6 3 −1
 Rpta. X = 
0 −1 −3

2 1 4 6 3 7 1 0 1
     
−1 1 1 −1 3 −1 1 −2 0
     
A=  
 5 −4 −6; B =  7 −16 2 
 Rpta. X = 
1 0 −2
−3 1 4 −6 10 2 −1 1 1
     
1 2 0 −3 0 1 1 −2 3
     
A=  2 5 2; B = −2 −1 3
   Rpta. X = 
 −2 1 −1 

0 2 3 5 −1 1 3 −1 1
     
1 2 3 5 1 3 1 2 −1
     
A=  3 2 1; B = 7 7 −3
   Rpta. X = 
 2 1 −1 

2 3 1 8 6 −3 0 −1 2

V. Criptografı́a
El mensaje M fue cifrado con la clave A y se obtuvo el mensaje cifrado C. Encontrar M .
! !
1 2 64 27 45 29
1) A = ; C=
0 −1 −22 −5 −13 −14
Rpta. SUPERMAN
! !
2 −3 −3 −10 −26 −39 −50 13
2) A = ; C=
1 −1 3 2 −7 −13 −15 11
Rpta. LIONEL–MESSI
! !
−1 0 −23 −23 0 −12 −17 −19
3) A = ; C=
2 −1 37 45 −5 24 29 16
Rpta. VIVA–EL–PERU
82 Algebra Lineal Walter Arriaga Delgado

! !
−2 1 12 11 −9 2 −29 2 −15
4) A = ; C=
−1 1 13 15 −4 2 −13 7 −3
Rpta. ANDREA–BOCELLI
! !
1 −2 −1 −23 −12 −24 12 −25 −10 7 −22 16
5) A = ; C=
3 −5 6 −55 −20 −60 41 −59 −25 30 −45 48
Rpta. PIENSO–LUEGO–EXISTO–
   
1 −2 3 57 29 −9
   
6) A =   
2 −3 1; C = 20 3 −9

3 −4 0 2 −11 −8
Rpta. BARCELONA
   
0 −1 1 −5 17 12 −9 −12
   
7) A = 
 1 1 −2 ; C = −1 −31 −23 13 13 
  
−1 1 1 18 16 11 10 11
Rpta. ALGEBRA–LINEAL–
   
1 0 −1 −14 −17 −18 −18 15
   
8) A = 
0 0 1 
; C =  17 22 21 19 1 

−2 −1 1 10 −7 6 17 −41
Rpta. CAPERUCITA–ROJA
   
1 0 −1 −4 19 −5 −25 −19 −4
   
9) A = 
 0 0 1 ; C =  5
  1 19 26 19 5 

−1 1 1 16 1 9 25 26 7
Rpta. ALESSANDRA–Y–GRACE
   
1 0 −1 12 0 0 0 12 7 19
   
10) A =   
 0 0 1 ; C =  0 9 1 0 0 9 1 
−1 1 1 −11 12 4 26 −11 −3 −14
Rpta. LA–ILIADA–Y–LA–ODISEA

VI. Sistemas de ecuaciones lineales

1) Aplicando el método de eliminación de Gauss-Jordan, resuelva los siguientes sistemas:


 

 x+y+z = 6 
 2x − 3y + z = 18
 
 x − y + 2z  4x + 2y − 2z = −8
 
= 5

 

x + 2y − 3z = −4 6x + y + 3z = 24
Rpta. x = 1, y = 2, z = 3 Rpta. x = 2, y = −3, z = 5
Walter Arriaga Delgado Algebra Lineal 83

 
 3x − z = 4 
 3x + 2y − z = 0

 

 6x + 4y + 5z
 



= −7 x + z = 2

 
−3x + 3y + 2z = −11 −x + y
 = 3




Rpta. x = 1, y = −2, z = −1 x − y + z = 4


 2x + 2y + 6z = 10 


 
2x + y − z + t
 = −1
 x + y + z
2x − y + 4z = 11 

 = 0


−y + z = 3 

−x + 2y − z = 1
Rpta.
 x = 8/5, y = −7/5, z = 8/5 
 
 x1 − x2 + x3 − 2x4 = 6

 x + 2y + z − w = 5 


 

 

 x2 + x3 + 2x4 + x5

2x − y − z + w = 2 = 5
 
 2x1 + 4x3 − 2x4 − 6x5 = 2

 x + 3y + 2z + 2w = −1 


 


 
−2x1 + 3x2 − x3 + 7x4 + 5x5 = 3
3x − 2y + 3z − 2w = 5

Rpta.
 x = 2, y = 1, z = −1, w = −2 
 3x + 3y + 2z + w = 10



 


 2x − 3y + 4z − w = 4 


 
 8x + 6y + 5z + 2w = 21

 

3x + 2y − 5z + 3w = 4
4x + 2y + 3z + w = 8
 

5x − y + 5z − 4w = 2
 


 
 3x + 5y + z + w = 15

 

7x − 6y + 5z − w = 6 

7x + 4y + 5z + 2w = 18
Rpta. x = 1, y = 2, z = 3, w = 4 
 
 
 x1 + x2 + 2x3 + x5 = 4

 −2x + y + z = 1 


 


−x1 + x2 − 3x3 + 5x4 = 4
x − 2y + z = −2



 
x1 + 3x2 + 2x3 + 5x4 + 3x5 = 13
x + y − 2z = 1 




−2x1 − 4x3 + 5x4
Rpta. x = t, y = t + 1, z = t = 1

2) Una compañı́a minera extrae mineral de dos minas, el cual contiene para la mina I
el 1 % de nı́quel y 2 % de cobre, para la mina II el 2 % de nı́quel y 5 % de cobre.
¿Qué cantidad de mineral se deberá extraer de cada mina para obtener 4 toneladas
de nı́quel y 9 toneladas de cobre?

3) En una fabrica de ropa se producen tres estilos de camisas que llamaremos 1, 2,


3. Cada prenda pasa por el proceso de cortado, cosido, planchado y empaquetado.
Las camisas se elaboran por lote. Para producir un lote de camisas del tipo 1 se
necesitan 30 min para cortarlas, 40 min para coserlas y 50 min para plancharlas y
empaquetarlas. Para el tipo 2, 50 min para cortar, 50 min para coser y 50 min para
planchar y empaquetar. Para el tipo 3, 65 min para cortar, 40 min para coser y 15
min para planchar y empaquetar. ¿Cuántos lotes se pueden producir si se trabajan 8
84 Algebra Lineal Walter Arriaga Delgado

horas en cortar, 8 horas en coser y 8 horas en planchar y empaquetar?


4) Tres compuestos se combinan para formar tres tipos de fertilizantes. Una unidad del
fertilizante del tipo I requiere 10 kg del compuesto A, 30 kg del compuesto B y 60 kg
del compuesto C. Una unidad del tipo II requiere 20 kg del A, 30 kg del B, y 50 kg
del C. Una unidad del tipo III requiere 50 kg del A y 50 kg del C. Si hay disponibles
1600 kg del A, 1200 kg del B y 3200 del C. ¿Cuántas unidades de los tres tipos de
fertilizantes se pueden producir si se usa todo el material quı́mico disponible?
5) Una compañı́a tiene 4 fabricas, cada una emplea administradores, supervisores y tra-
bajadores calificados en la forma siguiente:
Fábrica 1 Fábrica 2 Fábrica 3 Fábrica 4
Administradores 1 2 1 1
Supervisores 4 6 3 4
Trabajadores 80 96 67 75
si los trabajadores ganan 350 soles a la semana, los supervisores 275 soles y los tra-
bajadores 200 soles, ¿Cuál es la nómina de cada fábrica?
6) Una industria utiliza tres máquinas en la elaboración de cuatro productos diferentes.
Las máquinas se utilizan a pleno rendimiento 8 horas al dı́a. El número de horas que
cada máquina necesita para elaborar una unidad de cada producto es:
Producto 1 Producto 2 Producto 3 Producto 4
Máquina 1 1 2 1 2
Máquina 2 2 0 1 1
Máquina 3 1 2 3 0
¿Cuál es el número de unidades de cada producto que elaborará la industria en un
dı́a?
7) Tres productos X, Y y Z, tienen los siguientes porcentajes de F e, Zn y Cu:
Fe Zn Cu
X 50 30 20
Y 40 30 30
Z 30 70 0
¿Cuánto de cada producto debe combinarse para obtener un nuevo producto que
contenga 44 % de F e, 38 % de Zn y 18 % de Cu?.
8) Hallar la factorización LU de las siguientes matrices:
     
1 2 0 6 1 4 1 1 0 0
     
A= 0 1 0 
 B= 0 −1 0
 C= 
0 1 1 0
2 1 −1 2 0 2 1 0 0 1
Walter Arriaga Delgado Algebra Lineal 85

9) Calcular cuando sea posible, por el método de Gauss−Jordan, la inversa de las ma-
trices del ejercicio anterior.
10) Resolver mediante factorización LU el sistema


3x + y + z


=1
3x − y + 4z = 0




x+y+z = −2



 ax + by + z = 1


11) Dado el sistema de ecuaciones x + aby + z = b . Se pide:




x + by + az = 1
a) Discutirlo según los valores de a y b.
b) Para a = 2 y b = 1, hallar A−1 por el método de Gauss−Jordan donde A es la
matriz de los coeficientes.
c) ¿Para que valores de a y b admite descomposición LU la matriz de los coeficientes?
Calcular dicha descomposición para dichos valores.
2

VECTORES EN EL ESPACIO
BIDIMENSIONAL Y
TRIDIMENSIONAL

87
3

ESPACIOS VECTORIALES

Objetivos
z Identificar espacios y subespacios vectoriales, y analizar sus caracterı́sticas fundamentales.

z Determinar bases para espacios y subespacios vectoriales.

z Conocer y manejar los conceptos de combinación lineal, dependencia e independencia li-


neal de vectores.

z Transferir los conceptos básicos adquiridos de espacios vectoriales a situaciones problemá-


ticas de la vida real y de su especialidad interpretando los resultados.

En la mayorı́a de los modelos matemáticos usados en Economı́a aparecen sistemas de


ecuaciones algebraicas que es preciso resolver. Si las ecuaciones son lineales el estudio de estos
sistemas pertenece a la rama de las matemáticas denominada Algebra Lineal.

La parte más importante de la economı́a que usa los sistemas de ecuaciones lineales es el
análisis input–output que trabaja con modelos de Leontief. Para comprender y manejar estos
modelos es conveniente familiarizarse con una serie de conceptos como son los de matrices,
determinantes y vectores. No obstante, me gustarı́a recalcar que la utilidad del álgebra lineal
va más allá de su capacidad para resolver sistemas de ecuaciones lineales, ya que se usa
extensamente en muchas otras materias relacionadas con la ciencia y la técnica, además de la
economı́a. En particular, muchos de los métodos del álgebra lineal son útiles en la teorı́a de
optimización, la estadı́stica y la econometrı́a.

89
90 Algebra Lineal Walter Arriaga Delgado

3.1. Espacio Vectorial

Una de las tareas básicas del análisis matemático consiste en identificar estructuras fun-
damentales que aparecen con alguna regularidad en diferentes situaciones, desarrollarlas en
abstracto y aplicar después los resultados obtenidos a las diferentes situaciones particulares.
De este modo se pueden entender simultáneamente muchas situaciones diferentes investigando
las propiedades que rigen todas ellas. Las matrices parecen tener poco que ver con los poli-
nomios y éstos a su vez con los segmentos orientados, pero resulta que todos ellos comparten
caracterı́sticas fundamentales que, una vez desarrolladas, proporcionan un mejor entendimien-
to.

¿Cuáles son algunas de las propiedades fundamentales de las matrices, los segmentos ori-
entados, las n–uplas e incluso los polinomios? En primer lugar, se pueden sumar; ası́ tenemos
el concepto de clausura bajo suma: se tienen objetos definidos en un conjunto particular y se
establece una operación de suma sobre esos objetosde manera que el resultado es un nuevo
objeto del mismo conjunto. En segundo lugar, también se tiene el concepto de clausura bajo
multiplicación por un escalar. Además, estas operaciones tienen ciertas propiedades que ya
hemos visto en el caso de n–uplas y segmentos orientados.

Ası́ pues, hemos identificado rápidamente una serie de caracterı́sticas comunes. ¿Hay
otras?, y lo que es más interesante, ¿cuál es el número más pequeño de caracterı́sticas que
necesitamos identificar de modo que todas las demás se sigan a partir de éstas?.

Para empezar, creamos una nueva etiqueta, que aplicamos a cualquier conjunto de objetos
que tengan estas caracterı́sticas: espacio vectorial, y nos referimos a los objetos de este
conjunto como vectores. Después podemos mostrar que las matrices, los segmentos orientados,
las n–uplas, etc., son ejemplos particulares de espacios vectoriales, de manera que los podemos
denominar con el término más general de vectores.

Históricamente, las primeras ideas que condujeron a los espacios vectoriales modernos se
remontan al siglo XVII: geometrı́a analı́tica, matrices y sistemas de ecuaciones lineales. La
primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del siglo XIX.
Los siguientes avances en la teorı́a de espacios vectoriales provienen del análisis funcional,
principalmente de los espacios de funciones. Los problemas de análisis funcional requerı́an
resolver problemas sobre la convergencia. Esto se hizo dotando a los espacios vectoriales de
una adecuada topologı́a, permitiendo tener en cuenta cuestiones de proximidad y continuidad.
Walter Arriaga Delgado Algebra Lineal 91

Estos espacios vectoriales topológicos, en particular los espacios de Banach y los espacios de
Hilbert tienen una teorı́a más rica y complicada.
Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia y la
ingenierı́a. Se utilizan en métodos como las series de Fourier, que se utiliza en las rutinas mod-
ernas de compresión de imágenes y sonido, o proporcionan el marco para resolver ecuaciones
en derivadas parciales. Además, los espacios vectoriales proporcionan una forma abstracta
libre de coordenadas de tratar con objetos geométricos y fı́sicos, tales como tensores, que a su
vez permiten estudiar las propiedades locales de variedades mediante técnicas de linealización.

Definición 3.1.1. Un espacio vectorial V es un conjunto, cuyos elementos son llamados


vectores, en el que están definidas dos operaciones:

La adición, llamada ley de composición interna, que a cada par cualquiera de vectores
u, v ∈ V le hace corresponder un nuevo vector u + v ∈ V , esto se expresa de la siguiente
manera:
+: V ×V −→ V
(u, v) −→ +(u, v) = u + v

Se cumplen los siguientes axiomas:

A1 ) u + v ∈ V , ∀ u, v ∈ V (cerradura bajo la suma).

A2 ) u + v = v + u, ∀ u, v ∈ V (conmutatividad).

A3 ) (u + v) + w = u + (v + w), ∀ u, v, w ∈ V (asociatividad).

A4 ) ∀ u ∈ V , existe un único 0 ∈ V tal que u + 0 = 0 + u = u donde “0” representa el


vector nulo o el elemento neutro aditivo.

A5 ∀ u ∈ V , existe un único −u ∈ V tal que u + (−u) = (−u) + u = 0 donde “−u” se


denomina opuesto de u y representa el elemento inverso aditivo.

La multiplicación por un escalar, llamada ley de composición externa, que a cada


escalar cualquiera α que pertenece al cuerpo K y a cada vector cualquiera u ∈ V le hace
corresponder un vector αv, esto se expresa como:

·: K×V −→ V
(α, v) −→ ·(α, v) = α · v

Se cumplen los siguientes axiomas:


92 Algebra Lineal Walter Arriaga Delgado

M1 ) αu ∈ V , ∀ u ∈ V , α ∈ K (cerradura bajo la multiplicación por un escalar).

M2 ) α(βu) = (αβ)u, ∀ u ∈ V , ∀ α, β ∈ K (asociatividad).

M3 ) (α + β)u = αu + βu, ∀ u ∈ V , ∀ α, β ∈ K (primera ley distributiva).

M4 ) α(u + v) = αu + αv, ∀ u, v ∈ V , ∀ α ∈ K (segunda ley distributiva).

M5 ) ∀ u ∈ V , existe un único 1 ∈ K tal que 1.u = u, donde 1 representa el elemento


neutro multiplicativo.

Observación 3.1.1.

1. Denotaremos por (V, +, ·, K) un espacio vectorial o simplemente V .

2. Los elementos de V se llaman vectores y los elementos de K se llaman escalares.

3. Como V está definido sobre los elementos de K, se dice que V es un K espacio vectorial.

4. Si K = R, V se llama espacio vectorial real.

5. Si K = C, V se llama espacio vectorial complejo.

6. Un conjunto V 6= 0 es un espacio vectorial sobre un campo K si tiene definidas dos


operaciones suma y multiplicación por un escalar y cumpla los diez axiomas antes men-
cionados, pero si no cumple con al menos uno de los axiomas entonces no es un espacio
vectorial.

Ejemplos de espacios vectoriales

Ejemplo 3.1.1. Un espacio vectorial trivial. Sea V = {0}. Es decir, V consiste sólo del número
0. V cumple con todos los axiomas: 0 + 0 = 0 ∈ V ; 0 + 0 = 0 + 0; (0 + 0) + 0 = 0 + (0 + 0);
0 + 0 = 0; 0 + (−0) = 0; 1 · 0 = 0 ∈ V ; α(β0) = (αβ)0 = 0; (α + β)0 = α0 + β0 = 0;
α(0 + 0) = α0 + α0 = 0; 1 · 0 = 0. Por lo tanto V = {0} es un espacio vectorial trivial.

Ejemplo 3.1.2. Un conjunto que no es espacio vectorial. Sea V = {1}. Es decir, V consiste
sólo del número 1. Éste no es un espacio vectorial puesto que no cumple con la cerradura ya
que 1 + 1 = 2 6∈ V . Tampoco cumple otros axiomas, sin embargo, con sólo demostrar que no
cumple al menos uno de los axiomas queda probado que V no es espacio vectorial.

Observación 3.1.2. Verificar todos los axiomas puede ser tedioso. En adelante se verificarán
sólo aquellos axiomas que no son obvios.
Walter Arriaga Delgado Algebra Lineal 93

Ejemplo 3.1.3. El conjunto V = R, con las operaciones usuales de suma y producto de R es


un espacio vectorial sobre R.

Ejemplo 3.1.4. El conjunto V = R2 = {(x, y) ∈ R2 / x ∈ R ∧ y ∈ R} y K = R, con las


operaciones usuales de suma de pares ordenados (a, b) + (c, d) = (a + c, b + d) y el producto
por un escalar α(a, b) = (αa, αb), α ∈ R, constituye un espacio vectorial sobre R.
En efecto:
+: V ×V −→ V
((a, b), (c, d)) −→ (a, b) + (c, d) = (a + c, b + d)
·: R×V −→ V
(α, (a, b)) −→ α(a, b) = (αa, αb)

A1 Sea v1 = (a, b) ∈ V ⇒ a, b ∈ R; sea v2 = (c, d) ∈ V ⇒ c, d ∈ R. Luego:


v1 + v2 = (a, b) + (c, d) = (a + }c, |b {z
| {z + d}) ∈ V , cumple la cerradura.
∈R ∈R

A2 Sea v1 = (a, b) ∈ V ; sea v2 = (c, d) ∈ V entonces


v1 + v2 = (a, b) + (c, d) = (a + c, b + d) = (c + a, d + b) = (c, d) + (a, b) = v2 + v1

A3 Sea v1 = (a, b) ∈ V ; sea v2 = (c, d) ∈ V ; sea v3 = (e, f ) ∈ V entonces


(v1 + v2 ) + v3 = [(a, b) + (c, d)] + (e, f ) = (a + c, b + d) + (e, f ) = ((a + c) + e, (b + d) + f ) =
(a + (c + e), b + (d + f )) = (a, b) + (c + e, d + f ) = (a, b) + [(c, d) + (e, f )] = v1 + (v2 + v3 )

A4 ∀ v1 = (a, b) ∈ V , ∃!0 = (0, 0) ∈ V tal que v1 + 0 = (a, b) + (0, 0) = (a, b) = v1

A5 ∀ v1 = (a, b) ∈ V , ∃! − v1 = (−a, −b) ∈ V tal que v1 + (−v1 ) = (a, b) + (−a, −b) =


(0, 0) = 0

M1 Sea v1 = (a, b) ∈ V ⇒ a, b ∈ R; sea α ∈ R. Luego:


αv1 = α(a, b) = (|{z}
αa , |{z}
αb ) ∈ V , cumple la cerradura.
∈R ∈R

M2 Sea v1 = (a, b) ∈ V , sea α, β ∈ R, entonces:


α(βv1 ) = α(β(a, b)) = α(βa, βb) = (α(βa), α(βb)) = ((αβ)a, (αβ)b) = (αβ)(a, b) =
(αβ)v1

M3 Sea v1 = (a, b) ∈ V , sea α, β ∈ R, entonces:


(α+β)v1 = (α+β)(a, b) = ((α+β)a, (α+β)b) = (αa+βa, αb+βb) = (αa, αb)+(βa, βb) =
α(a, b) + β(a, b) = αv1 + βv1
94 Algebra Lineal Walter Arriaga Delgado

M4 Sea v1 = (a, b) ∈ V ; sea v2 = (c, d) ∈ V ; sea α ∈ R, entonces


α(v1 +v2 ) = α((a, b)+(c, d)) = α(a+c, b+d) = (α(a+c), α(b+d)) = (αa+αc, αb+αd) =
(αa, αb) + (αc, αd) = α(a, b) + α(c, d) = αv1 + αv2

M5 ∀ v1 = (a, b) ∈ V , ∃!1 ∈ R tal que 1v1 = 1(a, b) = (1a, 1b) = (a, b) = v1

Ejemplo 3.1.5. En R2 cualquier recta que pase por el origen, es un espacio vectorial sobre
R. Sea V = {(x, y) ∈ R2 / y = mx}, donde m es un número real fijo. Se puede verificar que se
cumple cada uno de los axiomas. Observe que los vectores en R2 se han escrito como filas en
lugar de columnas que en esencia es lo mismo.

Ejemplo 3.1.6. El conjunto de puntos en R2 que están sobre una recta que no pasa por el
origen no constituye un espacio vectorial. Sea V = {(x, y) ∈ R2 / y = 2x + 1}, V no es un
espacio vectorial sobre R.
En efecto:
Dada la operación

+: V ×V −→ V
((x1 , y1 ), (x2 , y2 )) −→ (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )

Definimos la operación:
Sea a = (x1 , y1 ) ∈ V entonces y1 = 2x1 + 1
Sea b = (x2 , y2 ) ∈ V entonces y2 = 2x2 + 1
puesto que y1 + y2 = 2(x1 + x2 ) + 2, decimos que:
a + b = (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) 6∈ V
esto quiere decir que no cumple con la cerradura. Por lo tanto V no es un espacio vectorial.

Ejemplo 3.1.7. En R3 cualquier plano que pase por el origen, es un espacio vectorial sobre
R. Sea V = {(x, y, z) ∈ R3 / ax + by + cz = 0}

Ejemplo 3.1.8. En R3 cualquier plano que no pase por el origen, no es un espacio vectorial
sobre R.

Ejemplo 3.1.9. El conjunto V = Rn = {(x1 , x2 , . . . , xn ) / xi ∈ R} es un espacio vectorial


Walter Arriaga Delgado Algebra Lineal 95

sobre R con las operaciones usuales de:

+: V ×V −→ V
((x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )) −→ (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
·: R×V −→ V
(α, (x1 , x2 , . . . , xn )) −→ α(x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn )

Ejemplo 3.1.10. Sea Pn [x] el conjunto de todos los polinomios de grado menor o igual que
n y de coeficientes reales:
Pn [x] = {p(x) = a0 + a1 x + a2 x2 + · · · + an xn , n ∈ N, a0 , a1 , . . . , an ∈ R}. El conjunto Pn [x]
es un espacio vectorial sobre R con las operaciones definidas como:

+ : Pn [x] × Pn [x] −→ Pn [x]


(p(x), q(x)) −→ +(p(x), q(x)) = p(x) + q(x)
·: R × Pn [x] −→ Pn [x]
(α, p(x)) −→ ·(α, p(x)) = αp(x)

Dados los polinomios:


p(x) = a0 + a1 x + a2 x2 + · · · + an xn ∈ Pn [x]
q(x) = b0 + b1 x + b2 x2 + · · · + bn xn ∈ Pn [x] entonces:

p(x) + q(x) = (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + · · · + (an + bn )xn

Sea α ∈ R, entonces:

αp(x) = αa0 + αa1 x + αa2 x2 + · · · + αan xn

Ejemplo 3.1.11. Sea F(X, R) el conjunto de todas las funciones f con dominio Dom(f ) =
X 6= φ y rango Ran(f ) = R. El conjunto F(X, R) es un espacio vectorial sobre R con las
operaciones definidas como:

+ : F(X, R) × F(X, R) −→ F(X, R)


(f, g) −→ +(f, g) = f + g : X −→ R
x −→ (f + g)(x) = f (x) + g(x)

· : R × F(X, R) −→ F(X, R)
(α, f ) −→ ·(α, f ) = αf : X −→ R
x −→ (αf )(x) = αf (x)
96 Algebra Lineal Walter Arriaga Delgado

Ejemplo 3.1.12. Sea C[a, b] el conjunto de todas las funciones continuas de valores reales
definidas en el intervalo [a, b]. El conjunto C[a, b] es un espacio vectorial sobre R con las
operaciones definidas en el ejemplo anterior.

Ejemplo 3.1.13. Sea Mm×n el conjunto de todas las matrices, cuyos elementos mi,j ∈ R,
donde 1 ≤ i ≤ m, 1 ≤ j ≤ n. Mm×n es un espacio vectorial con las operaciones definidas
como:
+ : Mm×n × Mm×n −→ Mm×n
(A, B) −→ +(A, B) = A + B
·: R × Mm×n −→ Mm×n
(α, A) −→ ·(α, A) = αA

3.1.1. Propiedades de los espacios vectoriales

Sea V un espacio vectorial, entonces:

a) α0 = 0 para todo escalar α.

b) 0 · x = 0 para todo x ∈ V .

c) Si αx = 0 entonces α = 0 o x = 0.

d) (−α)x = −(αx) para todo x ∈ V .

3.2. Subespacios

Para mostrar que un conjunto de objetos es un espacio vectorial, hemos de ver que se
cumplan los diez axiomas del espacio vectorial. Este proceso se puede hacer más corto si el
conjunto de objetos es un subconjunto de un espacio vectorial conocido V .
Dentro de un espacio vectorial V , hay subconjuntos que heredan la estructura de V , es
decir, que son también espacios vectoriales con la misma operación, el mismo elemento neutro
y la misma acción que V . En esta sección, comenzaremos el estudio de los subconjuntos con
esta propiedad.

Definición 3.2.1. Sea V un espacio vectorial y S un subconjunto de V , si S es en sı́ un


espacio vectorial bajo las operaciones de suma y multiplicación por un escalar definidas en V ,
entonces se dice que S es un subespacio de V .
Walter Arriaga Delgado Algebra Lineal 97

A continuación demostraremos un resultado que hace relativamente sencillo determinar si


un subconjunto de V es en realidad un subespacio de V .

Teorema 3.2.1. Un subconjunto no vacı́o S de un espacio vectorial V es un subespacio de


V si y solo si se cumplen las siguientes condiciones:

0∈S

Si x, y ∈ S, entonces x + y ∈ S

Si x ∈ S, entonces αx ∈ S para todo escalar α

Observación 3.2.1.

1. Todo subespacio de un espacio vectorial V contiene al 0.

2. Los subconjuntos {0} y V son subespacios de V llamados subespacios triviales.

3. Cualquier subespacio diferente de los triviales se denomina subespacio propio.

Ejemplo 3.2.1. Los subespacios de R son los triviales, es decir S1 = {0} y el propio S2 = R,
esto quiere decir que R no tiene subespacios propios.

Ejemplo 3.2.2. Los subespacios de R2 son los triviales: S1 = {(0, 0)}; S2 = R2 , y los
subespacios propios de la forma: S3 = {(x, y) ∈ R2 / y = mx} que constituyen el conjunto de
rectas en R2 que pasan por el origen.

Ejemplo 3.2.3. Los subespacios de R3 son los triviales: S1 = {(0, 0, 0)}; S2 = R3 ; los sube-
spacios propios de la forma: S3 = {(x, y, z) ∈ R3 / x = at, y = bt, z = ct; a, b, c, t ∈ R} que
constituyen el conjunto de rectas en R3 que pasan por el origen; y los subespacios propios de
la forma: S4 = {(x, y, z) ∈ R3 / ax + by + cz = 0; a, b, c ∈ R} que constituyen el conjunto de
planos en R3 que pasan por el origen.

3.2.1. Operaciones con subespacios

Dado que los subespacios vectoriales son subconjuntos de V , es lógico preguntarse cuáles
son las operaciones conjuntistas que proporcionan subconjuntos con la misma estructura.
98 Algebra Lineal Walter Arriaga Delgado

a) Intersección de subespacios

Dado el espacio vectorial V y dos subespacios S1 y S2 de V , el conjunto de los vectores


que pertenecen tanto a S1 como a S2 se conoce como el subespacio intersección S1 ∩ S2 .
Consideremos ahora una familia de subespacios {Si }i∈I del espacio vectorial V , denotare-
\
mos por S = Si a la intersección de esta familia.
i=1
Teorema 3.2.2. La intersección de toda familia {Si }i∈I de subespacios de un espacio vectorial
V , es un subespacio de V
\
Demostración. Sea S = Si la intersección de una familia de subespacios de V .
i=1
Debemos probar que S es un subespacio de V .
En efecto:
\
Como Si es un subespacio de V , entonces 0 ∈ Si para todo i ∈ I, luego 0 ∈ Si = S,
\ i=1
es decir S = Si siempre cuenta por lo menos con un elemento: el mencionado vector
i=1
nulo.
\ \
Sean x, y ∈ S = Si , debemos probar que x + y ∈ S = Si .
\ i=1 i=1
Si x ∈ S = Si , entonces x ∈ Si para todo i ∈ I.
i=1
\
Si y ∈ S = Si , entonces y ∈ Si para todo i ∈ I.
i=1
Ahora como x ∈ Si y y ∈ Si para todo i ∈ I, entonces x + y ∈ Si , por ser Si un
\
subespacio, luego x + y ∈ S = Si
i=1
\ \
Sean α ∈ R y x ∈ S = Si , debemos probar que αa ∈ S = Si .
\ i=1 i=1
Si x ∈ S = Si , entonces x ∈ Si para todo i ∈ I; y sea λ ∈ K, se tiene que λx ∈ Si
i=1 \
para todo i ∈ I, por ser Si un subespacio, luego λ ∈ S = Si
i=1
\
Por lo tanto S = Si es un subespacio de V . 
i=1

Ejemplo 3.2.4. Sea el espacio vectorial V = R2 , consideremos los subespacios:


T = {(x, y) ∈ R2 / y = 0} = eje X
H = {(x, y) ∈ R2 / x = 0} = eje Y
luego el conjunto formado por la intersección de T y H esta dado por:
S = T ∩ H = {(x, y) ∈ R2 / y = 0 ∧ x = 0} = (0, 0), que representa el subespacio trivial de R2
Walter Arriaga Delgado Algebra Lineal 99

0 T

Ejemplo 3.2.5. Sea el espacio vectorial V = R2 , se sabe que todas las rectas que pasan por
\
el origen son subespacios de R2 . Además S = Si = {0}, que constituye el subespacio trivial
i=1
de R2 . De esta manera, se tiene que la intersección de todos los subespacios propios de R2 , es
el subespacio trivial {0} de R2 .

S4
S5 S3
··
··
S2

S1
0

Ejemplo 3.2.6. Sea el espacio vectorial V = R3 , consideremos los subespacios:


T = {(x, y, z) ∈ R3 / z = 0} = plano XY
H = {(x, y, z) ∈ R3 / x = 0} = plano Y Z
luego el subespacio formado por la intersección de T y H esta dado por:
S = T ∩ H = {(x, y, z) ∈ R3 / x = 0 ∧ z = 0} = {(0, y, 0) ∈ R3 / y ∈ R} = eje Y .
100 Algebra Lineal Walter Arriaga Delgado

0 T ∩H
Y
T
X

Ejemplo 3.2.7. Sea el espacio vectorial V = R3 , consideremos los subespacios:


S1 = {(x, y, z) ∈ R3 / z = 0} = plano XY
S2 = {(x, y, z) ∈ R3 / y = 0} = plano XZ
S3 = {(x, y, z) ∈ R3 / x = 0} = plano Y Z
luego el subespacio formado por la intersección de S1 , S2 y S3 esta dado por:
S = S1 ∩ S2 ∩ S3 = {(x, y, z) ∈ R3 / x = 0 ∧ y = 0 ∧ z = 0} = (0, 0, 0), que corresponde al
subespacio trivial de R3 .

b) Unión de subespacios

La unión de subespacios de V no es, en general, subespacio de V

Ejemplo 3.2.8. Sea el espacio vectorial V = R2 , consideremos los subespacios:


T = {(x, y) ∈ R2 / y = 0} = eje X
H = {(x, y) ∈ R2 / x = 0} = eje Y
luego el conjunto formado por la unión de T y H esta dado por:
T ∪ H = {(x, y) ∈ R2 / y = 0 ∨ x = 0}, que representa la unión de los dos ejes X e Y .

1 (1, 1)
b
a 1 T
0
Walter Arriaga Delgado Algebra Lineal 101

ahora:
sea a = (1, 0) ∈ T ∪ H
sea b = (0, 1) ∈ T ∪ H
sin embargo, a + b = (1, 0) + (0, 1) = (1, 1) ∈
/ T ∪H
por lo tanto T ∪ H no es un subespacio de V .

Ejemplo 3.2.9. Sea el espacio vectorial V = R2 , ahora consideremos los subespacios:


T = {(x, y) ∈ R2 / y = x}
H = {(x, y) ∈ R2 / y = −x}
luego el conjunto formado por la unión de T y H esta dado por:
T ∪ H = {(x, y) ∈ R2 / y = 0 ∨ x = 0}, que representa la unión de los dos ejes X e Y .

(0, 2)
(−1, 1) 1 (1, 1)
b a
−1 0 1 T

ahora:
sea a = (1, 1) ∈ T ∪ H
sea b = (−1, 1) ∈ T ∪ H
sin embargo, a + b = (1, 1) + (−1, 1) = (0, 2) ∈
/ T ∪H
por lo tanto T ∪ H no es un subespacio de V .
Como en la unión de subespacios no se preserva la estructura de subespacio, se precisa una
operación “alternativa” que recoja de alguna manera la idea de agregación y que mantenga la
estructura de espacio vectorial. Esta operación es la suma de conjuntos.

c) Suma de subespacios

Definición 3.2.2. Sean S1 y S2 dos subespacios del espacio vectorial V , se llama suma de los
subespacios S1 y S2 al conjunto definido por:

S = S1 + S2 = {x ∈ V / x = x1 + x2 , x1 ∈ S1 , x2 ∈ S2 }
102 Algebra Lineal Walter Arriaga Delgado

Teorema 3.2.3. La suma de dos subespacios de V es un subespacio de V .

Demostración. Sean S1 y S2 dos subespacios de V , debemos probar que S = S1 + S2 es


un subespacio de V .

0 ∈ S, pues 0 = |{z}
0 + |{z}
0
∈S1 ∈S2

Sean x, y ∈ S = S1 + S2 , debemos probar que x + y ∈ S = S1 + S2 .


Si x ∈ S = S1 + S2 , entonces x = x1 + x2 con x1 ∈ S1 , x2 ∈ S2
Si y ∈ S = S1 + S2 , entonces y = y1 + y2 con y1 ∈ S1 , y2 ∈ S2
Además, x1 + y1 ∈ S1 y x2 + y2 ∈ S2 por ser S1 y S2 subespacios de V .
Ahora x + y = (x1 + x2 ) + (y1 + y2 ) = (x1 + y1 ) + (x2 + y2 ), luego x + y ∈ S = S1 + S2
| {z } | {z }
∈S1 ∈S2

Sean α ∈ R y x ∈ S = S1 + S2 , debemos probar que αa ∈ S = S1 + S2 .


Si x ∈ S = S1 + S2 , entonces x = x1 + x2 con x1 ∈ S1 , x2 ∈ S2
sea λ ∈ K, se tiene que: λx1 ∈ S1 y λx2 ∈ S2 por ser S1 y S2 subespacios de V .

Ahora λx = λ(x1 + x2 ) = λx1 + λx2 , luego x ∈ S = S1 + S2


|{z} |{z}
∈S1 ∈S2

Por lo tanto S = S1 + S2 es un subespacio de V . 

De manera general, dado {Si }i=1,n una familia de subespacios del espacio vectorial V ,
definimos la suma de estos subespacios como:

n
( n
)
X X
S= Si = x∈V /x= xi , xi ∈ Si , i = 1, n
i=1 i=1

Corolario 3.2.1. La suma de cualquier número finito de subespacios de V es un subespacio


de V .

Ejemplo 3.2.10. Sea el espacio vectorial V = R2 , consideremos los subespacios:


T = {(x, y) ∈ R2 / y = 0} = eje X
H = {(x, y) ∈ R2 / x = 0} = eje Y
luego el subespacio suma está dado por:
S = {(x, y) ∈ R2 / (x, y) = (x, 0) + (0, y)} = T + H = R2 , es decir S = T + H = R2
Walter Arriaga Delgado Algebra Lineal 103

0 T

Ejemplo 3.2.11. Sea el espacio vectorial V = R3 , consideremos los subespacios:


T = {(x, y, z) ∈ R3 / y = 0} = plano XZ
H = {(x, y, z) ∈ R3 / x = 0} = plano Y Z
luego el subespacio suma esta dado por:
S = {(x, y, z) ∈ R3 / (x, y, z) = (x1 , 0, z1 ) + (0, y2 , z2 )} = T + H = R3 .

Z
H
T

0
Y

Observación 3.2.2. La intersección S ∩T es un subespacio mas pequeño que S y T (está con-


tenido en S y también en T ). Por el contrario la suma S + T es un subespacio mas grande
que S y que T , pues contiene a ambos. De hecho S ∩ T es el mayor subespacio contenido en
ambos, y S + T es el menor subespacio que contiene a ambos.

Al contrario que la interseccion, la suma S + T se calcula mas facilmente usando la forma


paramétrica de S y de T . Esto nos permite tomar un vector genérico de cada uno de los
subespacios y sumarlos, obteniéndose una expresion paramétrica de S + T . No obstante la
forma paramétrica asi obtenida puede tener parámetros no independientes.
Más adelante, se dará otro método para calcular el subespacio suma.

Ejemplo 3.2.12. Consideremos los subespacios en R3 dados en forma paramétrica por:


H = {(α, α + β, β) : α, β ∈ R}
104 Algebra Lineal Walter Arriaga Delgado

K = {(0, 0, γ) : γ ∈ R}
Entonces los elementos de H +K se formaran sumando (α, α+β, β)+(0, 0, γ) = (α, α+β, β+γ),
es decir, H + K = {(α, α + β, β + γ) : α, β, γ ∈ R}

d) Suma Directa de subespacios

Definición 3.2.3. Sea V un espacio vectorial y S1 , S2 subespacios vectoriales de V . Se dice


que S es suma directa de S1 y S2 y se denotará por S = S1 ⊕ S2 si y sólo si verifica que:

S = S1 + S2

S1 ∩ S2 = {0}

De manera general, si la suma de un número finito de subespacios {Si }i=1,n de V

n
( n
)
X X
S= Si = x∈V /x= xi , xi ∈ Si , i = 1, n
i=1 i=1

donde tales subespacios son disjuntos dos a dos, es decir para i 6= j se tiene que Si ∩ Sj = {0},
entonces decimos que S es la suma directa de todos ellos y se expresará como:

S = S1 ⊕ S2 ⊕ S3 ⊕ · · · ⊕ Sn

Definición 3.2.4. Dos subespacios S1 y S2 de un mismo espacio vestorial V se dicen suple-


mentarios entre sı́, si V = S1 ⊕ S2 .

Observación 3.2.3. Dados dos subespacios suplementarios S1 y S2 de V , todo vector de V


se descompone de forma única como suma de un vector de S1 y otro de S2 .

Ejemplo 3.2.13. En el ejemplo (3.2.11) se tiene que S = H +T = R3 , sin embargo, T ∩H 6= 0,


en efecto, sea (x, y, z) ∈ T ∩ H entonces (x, y, z) ∈ T ∧ (x, y, z) ∈ H, si (x, y, z) ∈ T entonces
y = 0 y si (x, y, z) ∈ H entonces x = 0, luego se tiene que la intersección T ∩ H = {(0, 0, z)} =
eje Z. Por tanto R3 = S 6= T ⊕ H.

Ejemplo 3.2.14. Sea el espacio vectorial V = R3 , y considemos los subespacios:


S1 = {(x, y, z) ∈ R3 / z = 0} = plano XY
S2 = {(x, y, z) ∈ R3 / y = 0} = plano XZ
S3 = {(x, y, z) ∈ R3 / x = 0} = plano Y Z
es fácil observar que:
Walter Arriaga Delgado Algebra Lineal 105

S1 ∩ S2 = (x, 0, 0) = eje X, por tanto R3 6= S1 ⊕ S2


S1 ∩ S3 = (0, y, 0) = eje Y , por tanto R3 6= S1 ⊕ S3
S2 ∩ S3 = (0, 0, z) = eje Z, por tanto R3 6= S2 ⊕ S3
S1 ∩ S2 ∩ S3 = (0, 0, 0), por tanto R3 = S1 ⊕ S2 ⊕ S3

3.2.2. Combinaciones lineales

Definición 3.2.5. Sean v1 , v2 , . . . , vn , elementos del espacio vectorial V . Se dice que v ∈ V


es combinación lineal de estos vectores si existen escalares α1 , α2 , . . . , αn ∈ K, tales que:
n
X
v = α1 v1 + α2 v2 + · · · + αn vn = αi vi
i=1

Ası́, v es combinación lineal de vectores de A = {v1 , v2 , . . . , vn }, si podemos expresar v


como una suma de múltiplos de una cantidad finita de elementos de A.

Ejemplo 3.2.15. El vector v = (20, 12, 37) es una combinación lineal de los vectores v1 =
(1, 3, 5) y v2 = (6, 2, 9), puesto que:

(20, 12, 37) = 2(1, 3, 5) + 3(6, 2, 9)

Ejemplo 3.2.16. En la ecuación: 2x + 3y − 2z = 0, se dice que z es combinación lineal de x


3
y de y, porque podemos escribir z = x + y sin más que despejar z. De la misma manera,
2
despejando oportunamente, cada una de estas variables se podrı́a expresar como combinación
lineal de las otras dos.

El siguiente es el segundo resultado importante:


Si x1 , x2 , . . . , xn son las incógnitas de un sistema cuya matriz de coeficientes es A y cuyo vector
de constantes es b, siendo también a1 , a2 , . . . , an las columnas de A entonces:

Ax = b ⇐⇒ x1 a1 + x2 a2 + · · · + xn an = b

Es decir, el sistema tiene solución si y sólo si b es una combinación lineal de las columnas de
la matriz A. La solución del sistema es el vector formado por coeficientes de la combinación
lineal de las columnas de A que dan b.

3.2.3. Sistemas de generadores

Definición 3.2.6. Se dice que los vectores v1 , v2 , . . . , vn , de un espacio vectorial V , generan


a V si todo vector de V se puede escribir como una combinación lineal de ellos. Es decir, para
106 Algebra Lineal Walter Arriaga Delgado

todo v ∈ V , existen escalares α1 , α2 , . . . , αn , tales que:


n
X
v = α1 v1 + α2 v2 + · · · + αn vn = αi vi
i=1

Definición 3.2.7. Sean v1 , v2 , . . . , vk , k vectores de un espacio vectorial V . El espacio


generado por {v1 , v2 , . . . , vk } es el conjunto de combinaciones lineales de v1 , v2 , . . . , vk , es decir;

L{v1 , v2 , . . . , vk } = {v ∈ V / α1 v1 + α2 v2 + · · · + αk vk }

Observación 3.2.4. Para denotar un espacio generado por un conjunto de vectores v1 , v2 ,


. . . , vk , de un espacio vectorial V , usaremos cualquiera de las siguientes formas:

L{v1 , v2 , . . . , vk } = hv1 , v2 , . . . , vk i = gen{v1 , v2 , . . . , vk }

Teorema 3.2.4. Si v1 , v2 , . . . , vk son vectores de un espacio vectorial V , entonces L{v1 , v2 , . . . , vk }


es un subespacio de V .

3.2.4. Dependencia e independencia lineal

Los siguientes conceptos son fundamentales para el estudio de los espacios vectoriales, ya
que la idea de independencia lineal nos llevará a las definiciones de base, rango, dimensión, etc.,
de capital importancia para dicho estudio. A partir de estos conceptos podremos profundizar en
el análisis de estas estructuras algebraicas, encontrando formas alternativas de representación
y caracterizando los posibles subconjuntos del espacio vectorial que conservan las mismas
propiedades.

Definición 3.2.8. Sean v1 , v2 , . . . , vn , n vectores de un espacio vectorial V ; se dice que los


vectores son linealmente dependientes (LD) si existen n escalares α1 , α2 , . . . , αn no todos ceros
tales que:
n
X
αi vi = α1 v1 + α2 v2 + · · · + αn vn = 0
i=1

Nótese que el sı́mbolo a la derecha del signo igual no es cero, sino que simboliza al vector
nulo.

Definición 3.2.9. Sean v1 , v2 , . . . , vn , n vectores de un espacio vectorial V ; se dice que los


vectores son linealmente independientes (LI) si y sólo si:
n
X
αi vi = α1 v1 + α2 v2 + · · · + αn vn = 0 ⇒ αi = 0, ∀i = 1, 2, . . . , n
i=1
Walter Arriaga Delgado Algebra Lineal 107

Si los vectores no son linealmente dependientes, se dice que son linealmente independientes.
Un conjunto de vectores es linealmente independiente si ninguno de ellos puede ser escrito
como una combinación lineal de los restantes.
En R3 , si consideramos que todos los vectores salen del origen la dependencia lineal es fácil
de visualizar:

Dos vectores son linealmente dependientes si están en la misma recta.

Tres vectores son linealmente dependientes si están en el mismo plano.

3.2.5. Bases y Dimensión

Definición 3.2.10. Sea B = {v1 , v2 , . . . , vn } un subconjunto del espacio vectorial V . Se dice


que B es una base de V si y sólo si:

B es linealmente independiente.

B es un sistema de generadores de V .

Definición 3.2.11. Dado el espacio vectorial V .

Si V = {0}, entonces dim V = 0.

Si V tiene una base finita y tiene n vectores, entonces dim V = n. En este caso se dice
que V es un espacio vectorial de dimensión finita.

Si V es generado por una base infinita, entonces dim V = ∞. En este caso se dice que
V es un espacio vectorial de dimensión infinita.

Ejemplo 3.2.17.

Si V = {0}, entonces dim V = 0.

Si V = R, entonces dim V = 1.

Si V = R2 , entonces dim V = 2.
una base de R2 es: B = {(1, 0), (0, 1)} = {e1 , e2 }

Si V = R3 , entonces dim V = 3.

Si V = Rn , entonces dim V = n.
108 Algebra Lineal Walter Arriaga Delgado

Si V = Mm×n , entonces dim V = mn.

Si V = Mn×n , entonces dim V = n2 .

Si V = Pn [x], entonces dim V = n + 1.


una base de Pn [x] es: B = {1, x, x2 , . . . , xn }

Si V = (R, +, ·, Q), entonces dim V = ∞.


Walter Arriaga Delgado Algebra Lineal 109

✍ EJERCICIOS RESUELTOS 2.

I. Espacios Vectoriales
Verificar si el conjunto dado es un espacio vectorial.

1. En el conjunto V = R2 se definen las siguientes operaciones:

+: V ×V −→ V
((x1 , x2 ), (y1 , y2 )) −→ (x1 , x2 ) + (y1 , y2 ) = (x2 + y1 , x1 + y2 )
·: K×V −→ V
(α, (x1 , x2 )) −→ α(x1 , x2 ) = (αx1 , αx2 )

Verificar si (V, +, ·, R) es un espacio vectorial.


Demostración.
A1 Sea a = (x1 , x2 ) ∈ V ⇒ x1 , x2 ∈ R; sea b = (y1 , y2 ) ∈ V ⇒ y1 , y2 ∈ R
Luego: a+b = (x1 , x2 )+(y1 , y2 ) = (x2 + y1 , x1 + y2 ) ∈ V , cumple la cerradura.
| {z } | {z }
∈R ∈R
A2 Sea a = (x1 , x2 ) ∈ V , sea b = (y1 , y2 ) ∈ V , entonces:

a + b = (x1 , x2 ) + (y1 , y2 )
= (x2 + y1 , x1 + y2 )

b + a = (y1 , y2 ) + (x1 , x2 )
= (y2 + x1 , y1 + x2 )

Como a + b 6= b + a, entonces no cumple con el axioma de la conmutatividad, por


lo tanto V no es espacio vectorial. 
2. En el conjunto V = R2 se definen las siguientes operaciones:

+: V ×V −→ V
((x1 , x2 ), (y1 , y2 )) −→ (x1 , x2 ) + (y1 , y2 ) = (x2 + y2 , x1 + y1 )
·: K×V −→ V
(α, (x1 , x2 )) −→ α(x1 , x2 ) = (αx1 , αx2 )

Verificar si (V, +, ·, R) es un espacio vectorial.


Demostración.
A1 Sea a = (x1 , x2 ) ∈ V ⇒ x1 , x2 ∈ R; sea b = (y1 , y2 ) ∈ V ⇒ y1 , y2 ∈ R
Luego: a+b = (x1 , x2 )+(y1 , y2 ) = (x2 + y2 , x1 + y1 ) ∈ V , cumple la cerradura.
| {z } | {z }
∈R ∈R
110 Algebra Lineal Walter Arriaga Delgado

A2 Sea a = (x1 , x2 ) ∈ V , sea b = (y1 , y2 ) ∈ V , entonces:


a + b = (x1 , x2 ) + (y1 , y2 ) = (x2 + y2 , x1 + y1 ) = (y2 + x2 , y1 + x1 ) =
(y1 , y2 ) + (x1 , x2 ) = b + a
A3 Sea a = (x1 , x2 ) ∈ V , sea b = (y1 , y2 ) ∈ V , sea c = (z1 , z2 ) ∈ V , entonces:

(a + b) + c = [(x1 , x2 ) + (y1 , y2 )] + (z1 , z2 )


= (x2 + y2 , x1 + y1 ) + (z1 , z2 )
= ((x1 + y1 ) + z2 , (x2 + y2 ) + z1 )

a + (b + c) = (x1 , x2 ) + [(y1 , y2 ) + (z1 , z2 )]


= (x1 , x2 ) + (y2 + z2 , y1 + z1 )
= (x2 + (y1 + z1 ) , x1 + (y2 + z2 ))

Como (a+ b)+ c 6= a+ (b+ c), entonces no cumple con el axioma de la asociatividad,
por lo tanto V no es espacio vectorial. 

II. Subespacios
Verificar si los siguientes conjuntos son subespacios de V .

1. V = R2 ; S = {(x, y) ∈ R2 / y = x}
Demostración.

Y
S

0 X

(0, 0) ∈ S
Dados a, b ∈ S, debemos probar que a + b ∈ S.
si a = (x1 , y1 ) ∈ S, entonces x1 = y1
si b = (x2 , y2 ) ∈ S, entonces x2 = y2
luego se tiene que x1 + x2 = y1 + y2 , de donde:
a + b = (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) ∈ S
Dado α ∈ R y a ∈ S, debemos probar que αa ∈ S.
si a = (x1 , y1 ) ∈ S, entonces x1 = y1
Walter Arriaga Delgado Algebra Lineal 111

multiplicando por α ∈ R a ambos miembros se tiene: αx1 = αy1 , de donde:


αa = α(x1 , y1 ) = (αx1 , αy1 ) ∈ S

Por lo tanto S es un subespacio de V . 

2. V = R2 ; S = {(x, y) ∈ R2 / x + y = 1}
Demostración.

S Y

0 1 X

(0, 0) 6∈ S

Por lo tanto S no es un subespacio de V . 

3. V = R2 ; S = {(x, y) ∈ R2 / y = mx}
Demostración.

(0, 0) ∈ S

Dados a, b ∈ S, debemos probar que a + b ∈ S.


si a = (x1 , y1 ) ∈ S, entonces y1 = mx1
si b = (x2 , y2 ) ∈ S, entonces y2 = mx2
luego se tiene que y1 + y2 = m(x1 + x2 ), de donde:
a + b = (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) ∈ S

Dado α ∈ R y a ∈ S, debemos probar que αa ∈ S.


si a = (x1 , y1 ) ∈ S, entonces y1 = mx1
multiplicando por α ∈ R a ambos miembros se tiene: αy1 = αmx1 = m(αx1 ),
de donde:
αa = α(x1 , y1 ) = (αx1 , αy1 ) ∈ S

Por lo tanto S es un subespacio de V . 

4. V = R2 ; S = {(x, y) ∈ R2 / x ∈ Z}
Demostración.
112 Algebra Lineal Walter Arriaga Delgado

−5−4−3−2−1 0 1 2 3 4 5 X

(0, 0) ∈ S
Dados a, b ∈ S, debemos probar que a + b ∈ S.
si a = (x1 , y1 ) ∈ S, entonces x1 ∈ Z
si b = (x2 , y2 ) ∈ S, entonces x2 ∈ Z
luego se tiene que x1 + x2 ∈ Z, de donde:
a + b = (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) ∈ S
Dado α ∈ R y a ∈ S, debemos probar que αa ∈ S.
si a = (x1 , y1 ) ∈ S, entonces x1 ∈ Z
multiplicando por α ∈ R se tiene que: αx1 ∈ R y no a Z, de donde:
αa = α(x1 , y1 ) = (αx1 , αy1 ) ∈
/S
Por lo tanto S no es un subespacio de V . 
5. V = R2 ; S = {(x, y) ∈ R2 / y ≤ x}
Demostración.

(0, 0) ∈ S
Dados a, b ∈ S, debemos probar que a + b ∈ S.
si a = (x1 , y1 ) ∈ S, entonces y1 ≤ x1
si b = (x2 , y2 ) ∈ S, entonces y2 ≤ x2
luego se tiene que y1 + y2 ≤ x1 + x2 , de donde:
a + b = (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) ∈ S
Walter Arriaga Delgado Algebra Lineal 113

Dado α ∈ R y a ∈ S, debemos probar que αa ∈ S.


sin embargo, para a = (1, −1) ∈ S, y para α = −1, se tiene que:
αa = −1(1, −1) = (−1, 1) 6∈ S.

Por lo tanto S no es un subespacio de V . 

6. V = R3 ; S = {(x, y, z) ∈ R3 / 3x + 2y + z = 0}
Demostración.

(0, 0, 0) ∈ S
Dados a, b ∈ S, debemos probar que a + b ∈ S.
si a = (x1 , y1 , z1 ) ∈ S, entonces 3x1 + 2y1 + z1 = 0
si b = (x2 , y2 , z2 ) ∈ S, entonces 3x2 + 2y2 + z2 = 0
luego sumando miembro a miembro se tiene que:
3(x1 + x2 ) + 2(y1 + y2 ) + (z1 + z2 ) = 0, de donde:
a + b = (x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (x1 + x2 , y1 + y2 , z1 + z2 ) ∈ S
Dado α ∈ R y a ∈ S, debemos probar que αa ∈ S.
si a = (x1 , y1 , z1 ) ∈ S, entonces 3x1 + 2y1 + z1 = 0
multiplicando por α ∈ R a ambos miembros se tiene: α(3x1 + 2y1 + z1 ) = α0,
es decir, 3αx1 + 2αy1 + αz1 ) = 0, de donde:
αa = α(x1 , y1 , z1 ) = (αx1 , αy1 , αz1 ) ∈ S

Por lo tanto S es un subespacio de V . 

7. V = Rn ; S = {(x1 , x2 , x3 , . . . , xn ) ∈ Rn / x1 x2 = 0}
Demostración.

(0, 0, 0, . . . , 0) ∈ S
Dados a, b ∈ S, debemos probar que a + b ∈ S.
sin embargo, si consideramos: a = (1, 0, 0, . . . , 0) ∈ S, y b = (0, 1, 0, . . . , 0) ∈ S,
observamos que:
a + b = (1, 0, 0, . . . , 0) + (0, 1, 0, . . . , 0) = (1, 1, 0, . . . , 0), de donde: a + b 6∈ S

Por lo tanto S no es un subespacio de V . 

8. V = Mn×n ; S = {A ∈ Mn×n / Traz(A) = 0}


Demostración.

0 ∈ S, pues la matriz nula tiene traza nula.


Sean A y B dos matrices cualesquiera de S, debemos probar que A + B ∈ S.
n
X
si A ∈ S, entonces Traz(A) = aii = 0
i=1
Xn
si B ∈ S, entonces Traz(B) = bii = 0
i=1
114 Algebra Lineal Walter Arriaga Delgado

luego sumando miembro a miembro se tiene que:


Xn n
X n
X
0=0+0= aii + bii = (aii + bii ) = Traz(A + B),
i=1 i=1 i=1
de donde: A + B ∈ S
Dado α ∈ R y A ∈ S, debemos probar que αA ∈ S.
n
X
si A ∈ S, entonces Traz(A) = aii = 0
i=1
multiplicando por α ∈ R a ambos miembros se tiene que:
Xn n
X
0=α×0=α aii = (αaii ) = Traz(αA),
i=1 i=1
de donde: αA ∈ S
Por lo tanto S es un subespacio de V . 
9. V = Rn ; sea W un subespacio de Rn . El conjunto

W ⊥ = {v ∈ Rn / v · u = 0, ∀u ∈ W }

es un subespacio de Rn .
En efecto
Como v = (0, 0, 0, . . . , 0) ∈ Rn cumple con v · u = 0, ∀u ∈ W , entonces 0 ∈ W ⊥ .
Dados v1 , v2 ∈ W ⊥ , debemos probar que v1 + v2 ∈ W ⊥ .
Si v1 ∈ W ⊥ , entonces v1 · u = 0, ∀u ∈ W
Si v2 ∈ W ⊥ , entonces v2 · u = 0, ∀u ∈ W
luego (v1 + v2 ) · u = v1 · u + v2 · u = 0 + 0 = 0, por tanto v1 + v2 ∈ W ⊥ .
Dado α ∈ R y v ∈ W ⊥ , debemos probar que αv ∈ W ⊥ .
Si v1 ∈ W ⊥ , entonces v1 · u = 0, ∀u ∈ W
luego (αv) · u = α(v · u) = α 0 = 0, por tanto αv ∈ W ⊥ .
Por lo tanto W ⊥ es un subespacio denominado subespacio ortogonal de W .

III. Operaciones con subespacios

1. Dados los subespacios U , W , T de un espacio vectorial V . Demostrar que: (U ∩ T ) +


(U ∪ W ) ⊂ U ∩ (T + W )
Demostración. Sea x ∈ [(U ∩ T ) + (U ∪ W )], entonces por definición de suma de
conjuntos se tiene: x = x1 + x2 , donde x1 ∈ U ∩ T , x2 ∈ U ∪ W , luego:

x1 ∈ U ∧ x1 ∈ T
x1 ∈ T ∧ x2 ∈ W

ahora como x1 ∈ T , x2 ∈ W entonces x = x1 + x2 ∈ T + W , por se r T y W


subespacios de V . Además, como x1 ∈ U , x2 ∈ U entonces x = x1 +x2 ∈ U +U = U .
Walter Arriaga Delgado Algebra Lineal 115

Entonces se tiene que x ∈ U y x ∈ T + W , entonces x ∈ U ∩ (T + W ). Por lo tanto


se cumple que: (U ∩ T ) + (U ∪ W ) ⊂ U ∩ (T + W ) 
2. Sean W1 y W2 subespacios de V = R2 , donde:
W1 = {(x, y) ∈ R2 / y = 0}
W2 = {(x, y) ∈ R2 / x = 0}
Probar que: V = W1 ⊕ W2
Demostración.
Probemos que: R2 = W1 + W2
En efecto, todo elemento (x, y) ∈ R2 , puede ser expresado como:

(x, y) = (x, 0) + (0, y)


| {z } | {z }
∈W1 ∈W2

luego R2 = W1 + W2
Probemos que: W1 ∩ W2 = (0, 0)

Sea (x, y) ∈ W1 ∩ W2 =⇒ (x, y) ∈ W1 ∧ (x, y) ∈ W2


=⇒ y = 0 ∧ x=0
=⇒ (x, y) = (0, 0)

de donde: W1 ∩ W2 = (0, 0)
Por lo tanto V = R2 = W1 ⊕ W2 
3. Sean W1 y W2 subespacios de V = R2 , donde:
W1 = {(x, y) ∈ R2 / y = x}
W2 = {(x, y) ∈ R2 / y = −x}
Probar que: V = W1 ⊕ W2
Demostración.
Probemos que: R2 = W1 + W2
En efecto, todo elemento (x, y) ∈ R2 , puede ser expresado como:
   
x+y x+y x+y y−x
(x, y) = , + ,
2 2 2 2
| {z } | {z }
∈W1 ∈W2

luego R2 = W1 + W2
Probemos que: W1 ∩ W2 = (0, 0)

Sea (x, y) ∈ W1 ∩ W2 =⇒ (x, y) ∈ W1 ∧ (x, y) ∈ W2


=⇒ y = x ∧ y = −x
=⇒ x = −x, es decir, x = y = 0
=⇒ (x, y) = (0, 0)
116 Algebra Lineal Walter Arriaga Delgado

de donde: W1 ∩ W2 = (0, 0)

Por lo tanto V = R2 = W1 ⊕ W2 

4. Sean W1 y W2 subespacios de V = F(R, R), donde:


Wp = {f ∈ F(R, R) / f es par : f (−x) = f (x), ∀x ∈ R}
Wi = {f ∈ F(R, R) / f es impar : f (−x) = −f (x), ∀x ∈ R}
Probar que: V = Wp ⊕ Wi
Demostración.

Probemos que: V = Wp + Wi
En efecto, todo elemento f (x) ∈ V = F(R, R), puede ser expresado como:
   
1 1
f (x) = f (x) + f (−x) + f (x) − f (−x)
2 2
| {z } | {z }
∈Wp ∈Wi

luego V = Wp + Wi
Probemos que: Wp ∩ Wi = 0

Sea f (x) ∈ Wp ∩ Wi =⇒ (x, y) ∈ Wp ∧ (x, y) ∈ Wi


=⇒ f (−x) = f (x) ∧ f (−x) = −f (x)
=⇒ f (x) = −f (x), es decir, 2f (x) = 0
=⇒ f (x) = 0

de donde: Wp ∩ Wi = 0

Por lo tanto V = F(R, R) = Wp ⊕ Wi 

5. Sean W1 y W2 subespacios de V = Mn×n , donde:


W1 = {A ∈ Mn×n / A = At }
W2 = {A ∈ Mn×n / A = −At }
Probar que: V = W1 ⊕ W2
Demostración.

Probemos que: V = W1 + W2
En efecto, todo elemento A ∈ V = Mn×n , puede ser expresado como:
   
1 T 1 T
A= A+A + A−A
2 2
| {z } | {z }
∈W1 ∈W2

luego V = W1 + W2
Walter Arriaga Delgado Algebra Lineal 117

Probemos que: W1 ∩ W2 = 0

Sea A ∈ W1 ∩ W2 =⇒ A ∈ W1 ∧ A ∈ W2
=⇒ A = AT ∧ A = −AT
=⇒ A = −A, es decir, 2A = 0
=⇒ A = 0

de donde: W1 ∩ W2 = 0
Por lo tanto V = Mn×n = W1 ⊕ W2 

IV. Combinaciones lineales

1. Indique si el vector v es combinación lineal de los vectores v1 , v2 y v3 . Donde:

v = (6, 3), v1 = (6, 2), v2 = (24, 8), v3 = (−24, −8)

Solución: Debemos verificar si existen escalares α1 , α2 y α3 tales que:


3
X
v= αi vi = α1 v1 + α2 v2 + α3 v3 (3.1)
i=1

Sustituyendo los vectores, la relación anterior queda:

(6, 3) = α1 (6, 2) + α2 (24, 8) + α3 (−24, −8)

construı́mos la matriz aumentada y usamos la eliminación Gaussiana:


" # " #
6 24 −24 6 1 4 −4 0
=⇒
2 8 −8 3 0 0 0 1

como el sistema anterior es inconsistente, no existen α1 , α2 y α3 que cumpla la


igualdad (3.1), por lo tanto, el vector v no es combinación lineal de los vectores v1 ,
v2 y v3 .
2. Indique si el vector v es combinación lineal de los vectores v1 y v2 . Donde:

v = (38, 41, 29), v1 = (6, 5, 1), v2 = (2, 4, 6)

Solución: Debemos verificar si existen escalares α1 y α2 tales que:


2
X
v= αi vi = α1 v1 + α2 v2 (3.2)
i=1

Sustituyendo los vectores, la relación anterior queda:

(38, 41, 29) = α1 (6, 5, 1) + α2 (2, 4, 6)


118 Algebra Lineal Walter Arriaga Delgado

construı́mos la matriz aumentada y usamos la eliminación Gaussiana:


   
6 2 38 1 0 5
   
5 4 41 =⇒ 0 1 4
   
1 6 29 0 0 0

como el sistema anterior es consistente, entonces existen los escalares α1 y α2 , siendo


α1 = 5 y α2 = 4 tal que se cumple:

(38, 41, 29) = 5(6, 5, 1) + 4(2, 4, 6)

por lo tanto, el vector v es combinación lineal de los vectores v1 y v2 .

V. Dependencia e independencia lineal

1. Si el conjunto de vectores {u, v, w} son LI, determinar si el conjunto de vectores


{u + 2v − 3w, 2u + v − w, 3u + 5v − 6w} son LI o LD.
Solución:

α(u + 2v − 3w) + β(2u + v − w) + γ(3u + 5v − 6w) = 0

(α + 2β + 3γ)u + (2α + β + 5γ)v + (−3α − β − 6γ)w = 0

como {u, v, w} son LI entonces:




α + 2β + 3γ = 0


2α + β + 5γ = 0




−3α − β − 6γ = 0
       
1 2
0 31 2 3 0 1 2 3 0 1 2 3 0
       
2 1 5 0 ≈ 0 −3 −1 0 ≈ 0 −1 −1/3 0 ≈ 0 −1 −1/3 0
       
−3 −1 −6 0 0 5 3 0 0 5 3 0 0 0 4/3 0
de donde se obtiene que α = 0, β = 0 y γ = 0. Por lo tanto el conjunto de vectores
{u + 2v − 3w, 2u + v − w, 3u + 5v − 6w} son LI
2. Si los vectores {u + v , v + 2w , u − 3w} son LI, demostrar que {4u + 2v − 7w , 3v +
7w , w − u − v} son LI
Solución:
Sean x = u + v, y = v + 2w, z = u − 3w, luego:
4u + 2v − 7w = a(u + v) + b(v + 2w) + c(u − 3w) = (a + c)u + (a + b)v + (2b − 3c)w


a + c = 4


de donde: a + b = 2




2b − 3c = −7
Walter Arriaga Delgado Algebra Lineal 119

resolviendo el sistema se obtiene a = 1, b = 1, c = 3, luego:


4u + 2v − 7w = (u + v) + (v + 2w) + 3(u − 3w) = x + y + 3z
3v + 7w = a(u + v) + b(v + 2w) + c(u − 3w) = (a + c)u + (a + b)v + (2b − 3c)w


 a+c=0


de donde: a + b = 3




2b − 3c = 7
resolviendo el sistema se obtiene a = 1, b = 2, c = −1, luego:
3v + 7w = (u + v) + 2(v + 2w) − (u − 3w) = x + 2y − z
w − u − v = a(u + v) + b(v + 2w) + c(u − 3w) = (a + c)u + (a + b)v + (2b − 3c)w


 a + c = −1


de donde: a + b = −1




2b − 3c = 1
resolviendo el sistema se obtiene a = 0, b = −1, c = −1, luego:
3v + 7w = 0(u + v) − (v + 2w) − (u − 3w) = −y − z
luego el problema se traduce a lo siguiente:
Si x, y, z son LI, demostrar que x + y + 3z, x + 2y − z, −y − z son LI.
en efecto
α(x + y + 3z) + β(x + 2y − z) + γ(−y − z) = 0

(α + β)x + (α + 2β − γ)y + (3α − β − γ)z = 0




 α+β =0


como x, y, z son LI, entonces α + 2β − γ = 0




3α − β − γ = 0
     
1 1 0 0 1 1 0 0 1 1 0 0
     
1 2 −1 0    
  ≈ 0 1 −1 0 ≈ 0 1 −1 0
3 −1 −1 0 0 −4 −1 0 0 0 −5 0
de donde se obtiene que α = 0, β = 0 y γ = 0. Por lo tanto el conjunto de vectores
{x + y + 3z , x + 2y − z , −y − z} = {4u + 2v − 7w , 3v + 7w , w − u − v} son LI
120 Algebra Lineal Walter Arriaga Delgado

✍ EJERCICIOS PROPUESTOS 2.

I. Espacios Vectoriales:
Verificar si el conjunto dado es un espacio vectorial. Si no lo es, dé una lista de los axiomas
que no se cumplen.

1) V = {(x, y) ∈ R2 / x + y = 2}, con las operaciones usuales de R2 . Rpta. No


2) V = {(x, y) ∈ R2 / x ≤ y}, con las operaciones usuales de R2 . Rpta. No
3) V = {(x, y) ∈ R2 / x − y ∈ Z}, con las operaciones usuales de R2 . Rpta. No
4) V = {(x, y) ∈ R2 / y ≤ 5}, con las operaciones usuales de R2 . Rpta. No
5) V = {(x, y) ∈ R2 / xy = 0}, con las operaciones usuales de R2 . Rpta. Si
6) V = {(x, y) ∈ R2 / |x| + |y| ≤ 1}, con las operaciones usuales de R2 . Rpta. No
7) V = {(t, 2t, et ), t ∈ R}, con las operaciones usuales de R3 . Rpta. No
8) V = {(x, y, z) ∈ R3 / x + y = z}, con las operaciones usuales de R3 . Rpta. Si
9) En el conjunto V = R2 se definen las siguientes operaciones:

+: V ×V −→ V
((x1 , x2 ), (y1 , y2 )) −→ (x1 , x2 ) + (y1 , y2 ) = (x2 + y2 , x1 + y1 )
·: K×V −→ V
(α, (x1 , x2 )) −→ α(x1 , x2 ) = (αx1 , αx2 )

Verificar si (V, +, ·, R) es un espacio vectorial.


10) En el conjunto V = R2 se definen las siguientes operaciones:

+: V ×V −→ V
((x1 , x2 ), (y1 , y2 )) −→ (x1 , x2 ) + (y1 , y2 ) = (x1 y1 , x2 y2 )
·: K×V −→ V
(α, (x1 , x2 )) −→ α(x1 , x2 ) = (αx1 , αx2 )

Verificar si (V, +, ·, R) es un espacio vectorial.


11) En el conjunto V = R2 se definen las siguientes operaciones:

+: V ×V −→ V
x y 1 x2 y 2 
1
((x1 , x2 ), (y1 , y2 )) −→ (x1 , x2 ) + (y1 , y2 ) = + , +
2 2 2 2
·: K×V −→ V
(α, (x1 , x2 )) −→ α(x1 , x2 ) = (αx1 , αx2 )

Verificar si (V, +, ·, R) es un espacio vectorial.


Walter Arriaga Delgado Algebra Lineal 121

12) En el conjunto V = R2 se definen las siguientes operaciones:

+: V ×V −→ V
((x1 , x2 ), (y1 , y2 )) −→ (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 )
·: K×V −→ V
(α, (x1 , x2 )) −→ α(x1 , x2 ) = (αx1 , 0)

Verificar si (V, +, ·, R) es un espacio vectorial.

13) En el conjunto V = R2 se definen las siguientes operaciones:

+: V ×V −→ V
((x1 , x2 ), (y1 , y2 )) −→ (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 )
·: K×V −→ V
(α, (x1 , x2 )) −→ α(x1 , x2 ) = (αx1 , x2 )

Verificar si (V, +, ·, R) es un espacio vectorial.

14) En el conjunto V = R2 se definen las siguientes operaciones:

+: V ×V −→ V
((x1 , x2 ), (y1 , y2 )) −→ (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 + 1, x2 + y2 + 1)
·: K×V −→ V
(α, (x1 , x2 )) −→ α(x1 , x2 ) = (αx1 , αx2 )

Verificar si (V, +, ·, R) es un espacio vectorial.

15) En el conjunto V = R2 se definen las siguientes operaciones:

+: V ×V −→ V
((x1 , x2 ), (y1 , y2 )) −→ (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 )
·: K×V −→ V
(α, (x1 , x2 )) −→ α(x1 , x2 ) = (2αx1 , 3αx2 )

Verificar si (V, +, ·, R) es un espacio vectorial.

16) En el conjunto V = R2 se definen las siguientes operaciones:

+: V ×V −→ V
((x1 , x2 ), (y1 , y2 )) −→ (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 )
·: K×V −→ V
(α, (x1 , x2 )) −→ α(x1 , x2 ) = (α2 x1 , α2 x2 )

Verificar si (V, +, ·, R) es un espacio vectorial.


122 Algebra Lineal Walter Arriaga Delgado

17) En el conjunto V = R2 se definen las siguientes operaciones:

+: V ×V −→ V
((x1 , x2 ), (y1 , y2 )) −→ (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 )
·: K×V −→ V
(α, (x1 , x2 )) −→ α(x1 , x2 ) = (α1 x1 − α2 x2 , α2 x1 + α1 x2 )

Verificar si (V, +, ·, C) es un espacio vectorial, donde α = α1 + α2 i.


18) Verificar que V = {A ∈ R2×2 / Traz(A) = 0} es un espacio vectorial sobre R con las
operaciones de R2×2
19) Verificar que V = {A ∈ R2×2 / At = −A} es un espacio vectorial sobre R con las
operaciones de R2×2
20) En el conjunto V = R+ se definen las siguientes operaciones:

⊕ : R+ × R+ −→ R+
(x, y) −→ ⊕(x, y) = x ⊕ y = x · y
⊗: K× R+ −→ R+
(α, x) −→ ⊗(α, x) = α ⊗ x = xα

Verificar si (V, ⊕, ⊗, R) es un espacio vectorial, donde x · y y xα son el producto y la


potencia usuales en R+ .

II. Subespacios:

1) Encontrar un subconjunto no vacı́o de R2 que sea cerrado para la suma y para la


resta pero no para la multiplicación por escalares.
2) Encontrar un subconjunto no vacı́o de R2 que sea cerrado para la multiplicación por
escalares pero no para la suma.

Verificar si los siguientes conjuntos son subespacios de V .


3) Cuando el espacio vectorial es: V = R2
1.1) S = {(x, y) ∈ R2 / y = 5x} Rpta. Si
1.2) S = {(x, y) ∈ R2 / y ∈ Z} Rpta. No
1.3) S = {(x, y) ∈ R2 / y = 2x + 1} Rpta. No
1.4) S = {(x, y) ∈ R2 / x ≥ y} Rpta. No
1.5) S = {(x, y) ∈ R2 / (x + y)2 = (x − y)2 } Rpta. Si
x y
1.6) S = {(x, y) ∈ R2 / + y = x − } Rpta. Si
2 2
4) Cuando el espacio vectorial es: V = R3
2.1) S = {(x, y, z) ∈ R3 / x + z = 0}
Walter Arriaga Delgado Algebra Lineal 123

2.2) S = {(x, y, z) ∈ R3 / |x| = |y|}


2.3) S = {(x, y, z) ∈ R3 / z = x + 2}
2.4) S = {(x, y, z) ∈ R3 / x = z = 0}
2.5) S = {(x, y, z) ∈ R3 / x2 + y = 0}
2.6) S = {(x, y, z) ∈ R3 / xyz = 0}
2.7) S = {(x, y, z) ∈ R3 / z = x3 }
2.8) S = {(x, y, z) ∈ R3 / x ≤ y ≤ z}
2.9) S = {(x, y, z) ∈ R3 / x = y = z}
2.10) S = {(x, y, z) ∈ R3 / z = 3x + 2y}
2.11) S = {(x, y, z) ∈ R3 / x = y ∧ z = 2}
2.12) S = {(x, y, z) ∈ R3 / |x + y| = z}
2.13) S = {(x, y, z) ∈ R3 / x + y − z = 0 ∧ x + 2y + 3z = 0}
5) Cuando el espacio vectorial es: V = Rn
3.1) S = {(x1 , x2 , . . . , xn ) ∈ Rn / x1 > 0}
3.2) S = {(x1 , x2 , . . . , xn ) ∈ Rn / xn ∈ Z}
Xn
3.3) S = {(x1 , x2 , . . . , xn ) ∈ Rn / αi xi = 0 ∧ αi ∈ R}
i=1
6) Cuando el espacio vectorial es: V = Pn [x]
4.1) n = 2, S = {p(x) ∈ Pn [x] / p(0) = 0}
4.2) n = 2, S = {p(x) ∈ Pn [x] / p′ (0) = 0}
4.3) n = 3, S = {p(x) ∈ Pn [x] / p(0) = p(1) = p(−1) = 0}
4.4) n = 3, S = {p(x) ∈ Pn [x] / p(0) = 1}
4.5) n = 4, S = {p(x) ∈ Pn [x] / p(1) = p(2) = 1}
7) Cuando el espacio vectorial es: V = F(X, R)
5.1) S = {f ∈ F(X, R) / 2f (0) = f (1)}
5.2) S = {f ∈ F(X, R) / f (0) + f (1) = 0}
5.3) S = {f ∈ F(X, R) / f (x) ≥ 0}
5.4) S = {f ∈ F(X, R) / |f (x)| ≤ 1}
5.5) S = {f ∈ F(X, R) / f es par : f (−x) = f (x), ∀x ∈ X}
5.6) S = {f ∈ F(X, R) / f es impar : f (−x) = −f (x), ∀x ∈ X}
5.7) S = {f ∈ F(X, R) / f (x + y) = f (x) + f (y) ∧ f (αx) = αf (x)}
5.8) S = B(X, R) = {f ∈ F(X, R) / f es acotada}
5.9) S = C(X, R) = {f ∈ F(X, R) / f es continua}
5.10) S = D(X, R) = {f ∈ F(X, R) / f es derivable}
124 Algebra Lineal Walter Arriaga Delgado

5.11) S = I(X, R) = {f ∈ F(X, R) / f es integrable}

8) Cuando el espacio vectorial es: V = C[0, 1]


Z 1
6.1) S = {f ∈ C[0, 1] / f (t)dt = 0}
0
Z 1
6.2) S = {f ∈ C[0, 1] / f (t)dt = 1}
0
9) Cuando el espacio vectorial es: V = M2×2

7.1) S = {A = [ai,j ] ∈ M2×2 / a11 + a12 = 0}


7.2) S = {A = [ai,j ] ∈ M2×2 / det(A) = 0}
( " #)
a b
7.3) S = A = [ai,j ] ∈ M2×2 / A =
−b c
( " #)
0 a
7.4) S = A = [ai,j ] ∈ M2×2 / A =
b 0
( " #)
a a+1
7.5) S = A = [ai,j ] ∈ M2×2 / A =
0 0
10) Cuando el espacio vectorial es: V = Mn×n

8.1) S = {A = [ai,j ] ∈ Mn×n / A es escalar}


8.2) S = {A = [ai,j ] ∈ Mn×n / A es diagonal}
8.3) S = {A = [ai,j ] ∈ Mn×n / A es triangular superior}
8.4) S = {A = [ai,j ] ∈ Mn×n / A es simétrica}
8.5) S = {A = [ai,j ] ∈ Mn×n / A es antisimétrica}
8.6) S = {A = [ai,j ] ∈ Mn×n / A es singular}
8.7) S = {A = [ai,j ] ∈ Mn×n / A es no singular}

III. Operaciones con subespacios:

1. Dados S y T subespacios de un espacio vectorial V . Demostrar que: S ∪ T es un


subespacio de V si y sólo si S ⊆ T o T ⊆ S

2. Sean W1 y W2 subespacios de V = R3 , donde:


W1 = {(x, y, z) ∈ R3 / y = 0}
W2 = {(x, y, z) ∈ R3 / x = z = 0}
Probar que: V = W1 ⊕ W2

3. Sean W1 y W2 subespacios de V = R3 , donde:


W1 = {(x, y, z) ∈ R3 / x = 0}
W2 = {(x, y, z) ∈ R3 / y = 0}
Probar si: V = W1 ⊕ W2
Walter Arriaga Delgado Algebra Lineal 125

4. Sean W1 , W2 y W3 subespacios de V = R3 , donde:


W1 = {(x, y, z) ∈ R3 / x = 3y ∧ z = −y}
W2 = {(x, y, z) ∈ R3 / 2x + y + 5z = 0}
W3 = {(x, y, z) ∈ R3 / x − 4y − z = 0}
Determinar: W1 ∩ W2 , W2 ∩ W3 , W1 ∩ W3

5. Sean W1 , W2 y W3 subespacios de V = R3 , donde:


W1 = {(x, y, z) ∈ R3 / x + y + z = 0}
W2 = {(x, y, z) ∈ R3 / x = z}
W3 = {(0, 0, z) / z ∈ R}.
Calcular:

a) W1 + W2
b) W1 + W3
c) W2 + W3
d) Determinar si las sumas anteriores son sumas directas.

IV. Combinaciones lineales:

1. Determinar si (1, 2, 1) es combinación lineal de los vectores (−1, 2, 1), (1, 1, −2)
y (1, 1, −2) en R3 . Rpta. No

2. Determinar si (1, 2, 1) es combinación lineal de los vectores (−1, 2, 1), (1, 1, 2) y


(1, 1, −2) en R3 . Rpta. Si. α1 = 1/3, α2 = 5/6, α3 = 1/2.

3. Determinar si 1 + x + x2 es combinación lineal de los vectores −1 + x − 2x2 ,


1 + 3x + 2x2 y 1 − x + x2 en P2 [x]. Rpta. Si. α1 = 1/2, α2 = −1/2, α3 = 1.

4. Para que valor de a el vector (1, −2, a) ∈ R3 , será una combinacion lineal de los
vectores {(3, 0, −2); (2, −1, −5)}. Rpta. a = −8

5. Para que valor de a el vector (2, −3, −2, 3) ∈ R4 , será una combinacion lineal de los
vectores {(−1, 0, 4, 1); (3, −2, 0, 2); (2, a, −2, 0)}. Rpta. a = −3/5
!
3 1
6. Escriba la matriz E = , como combinación lineal de las matrices:
1 −1
! ! !
1 1 0 0 0 2
A= ,B= ,C= .
1 0 1 1 0 −1

V. Sistema de generadores:

1. Determinar los subespacios generados por los siguientes conjuntos:

 h(1, −1, 2); (0, −1, 1); (1, 1, 0)i


Rpta. S = {(x, y, z) ∈ R3 / x − y − z = 0}
126 Algebra Lineal Walter Arriaga Delgado

 h(1, 2, 1); (−1, 1, −3); (2, 1, 4)i


Rpta. S = {(x, y, z) ∈ R3 / 7x − 2y − 3z = 0}
 h(1, 1, 0, −1); (1, 2, 1, 0); (2, 3, 3, −1)i
Rpta. S = {(x, y, z, w) ∈ R4 / 2x − y + w = 0}
 h(1, 2, 2, −2); (2, 3, 2, −3); (1, 3, 5, −3)i
Rpta. S = {(x, y, z, w) ∈ R4 / y + w = 0}
 h(2, 5, −1, 1); (2, 1, 3, −1); (2, −1, 2, −2)i
Rpta. S = {(x, y, z, w) ∈ R4 / 3x − 2y + 4w = 0}
 h(3, 4, 1, −1); (3, 5, 1, −1); (1, 2, 1, −1)i
Rpta. S = {(x, y, z, w) ∈ R4 / z + w = 0}
 h(1, 2, 3, 4); (1, −2, −3, −2); (2, 1, 2, 3)i
Rpta. S = {(x, y, z, w) ∈ R4 / x + 3y − z − w = 0}
 h(1, 3, −2, −7); (2, −1, −3, −4); (3, 1, 1, 8)i
Rpta. S = {(x, y, z, w) ∈ R4 / 2x − y + 3z − w = 0}
2. Determinar si los siguientes conjuntos de vectores generan el mismo subespacio:
 A = {(1, 0, −1); (0, −2, 1)};
B = {(1, −2, 0); (2, −2, −1)}
Rpta. L(A) = L(B) = {(x, y, z) ∈ R3 / 2x + y + 2z = 0}
 A = {(1, −1, 1); (3, 0, 1)};
B = {(−2, −1, 0); (5, −2, 3)}
Rpta. L(A) = L(B) = {(x, y, z) ∈ R3 / x − 2y − 3z = 0}
 A = {(1, 1, −1); (2, 1, −2); (1, 2, −1)};
B = {(1, 0, −1); (3, 2, −3)}
Rpta. L(A) = L(B) = {(x, y, z) ∈ R3 / x + z = 0}
 A = {(1, 2, −1, 3); (2, 5, 1, −2); (3, 6, 3, −7)};
B = {(−1, −1, 1, −3); (2, 1, 1, −2); (−2, 2, −1, 2)}
Rpta. L(A) = L(B) = {(x, y, z, w) ∈ R4 / x − 8z − 3w = 0}
 A = {(1, 2, 4, 2); (2, −2, −4, 1); (3, 2, 2, 3)};
B = {(1, 4, 6, 2); (4, 5, −7, −2); (5, 3, 7, 7)}
Rpta. L(A) = L(B) = {(x, y, z, w) ∈ R4 / 2x − y + z − 2w = 0}
3. Determinar el valor de a para que el vector (1, a, 5) ∈ R3 pertenezca al subespacio
h(1, 2, 3); (1, 1, 1)i. Rpta. a = 3
4. Determinar el valor de a para que el vector (a, −3, 5) ∈ R3 pertenezca al subespacio
h(2, −1, 1); (3, 2, 5)i. Rpta. a = 8
5. Determinar el valor de a para que el vector (7, 7, 1/5, a) ∈ R4 pertenezca al subespacio
h(2, 3, 2, 5); (1, −2, 4, 0)i. Rpta. a = 5
Walter Arriaga Delgado Algebra Lineal 127

6. Determinar el valor de a para que el vector (1, 2, 3, 2a) ∈ R4 pertenezca al subespacio


h(1, −2, −1, 4); (2, 1, −3, −4); (2, 3, 4, 6)i. Rpta. a = 2
7. Determinar el valor de a y b para que el vector (1, 0, a, b) pertenezca al subespacio
generado por los vectores (1, 4, −5, 2) y (1, 2, 3, −1). Rpta. a = 11, b = −4
8. Dado los subespacios de R4 , L = h(1, 0, 0, 0); (1, 2, 1, 0)i y M = h(1, a, 1, −2); (0, 2, 1, −a)i,
para qué valores de a se tiene que L ⊕ M = R4 . Rpta. a = {0, 2}
9. Dado los subespacios de R4 , L = h(−1, 2, 0, 3); (0, 1, 2, 0)i y M = {x ∈ R4 / x =
(a, 0, 2a, b), a, b ∈ R}, calcular L ∩ M . Rpta. L ∩ M = {0}

VI. Dependencia e independencia lineal

1. Determinar si los siguientes conjuntos de vectores son LI o LD


 A = {(1, 1, 1); (1, 2, 1); (1, 3, 2)} Rpta. LI
 A = {(1, 2, 0, 1); (−1, −1, −1, 3); (4, 0, −2, 1); (2, 0, 0, 1)} Rpta. LI
 A = {(1, 2, 3, 0); (4, 3, 4, −16); (7, 3, 4, 5)} Rpta. LD
 A = {(1, 0, 0, −1); (2, 1, 1, −2); (0, 1, 1, 0); (1, 1, 1, −1)} Rpta. LD
 A = {(4, −5, 7); (3, 3, 4); (1, 1, −2); (2, −1, 1)} Rpta. LD
 A = {(1, 3, −5, 6); (2, 6, 2, −4); (3, −5, 9, 1); (3, 4, −2, −5)} Rpta. LI
 A = {(1, 2, 3, 1); (2, 3, 2, 3); (0, 1, 4, −1); (2, −3, 1, 1); (4, 1, 7, 3)} Rpta. LD
 A = {(2, 5, −6, −9); (4, −2, 1, 3); (8, 2, −3, 1); (6, −5, 4, 7)} Rpta. LI
 A = {(1, 1, 1, 1); (2, −1, 0, 0); (4, 3, 2, 1); (7, 3, 3, 2)} Rpta. LD
 A = {(1, 2, 0, 1); (−1, −1, −1, 3); (4, 0, −2, 1); (2, 0, 0, 1)} Rpta. LI
 A = {(1, 2, 0, 1); (2, −3, −3, 3); (−1, 12, 6, −3)} Rpta. LD
 A = {(2, 1, 1, 1); (1, 1, 1, 1); (3, 1, 1, 2); (0, 1, 2, 1); (2, −1, 1, −1)} Rpta. LD
 A = {e , e }t 2t Rpta. LI
 A = {e , e , e }
−t 3t 5t Rpta. LI
 A = {e , e , e , e }
−2t −3t t 2t Rpta. LI
 A = {1, x, x , x , . . . , x }
2 3 n Rpta. LI
 A = {x,
( !
2
x − x, x − x}
!
3
! !)
Rpta. LI

 A= 0 0 , 0 0 , 1 0 , 0 1
1 0 0 1 0 0 0 0
Rpta. LI
( ! ! !)
 A= 2 −1
4 0
,
0 −3
1 5
,
4
7 −5
1

2. Para que valores de k, los siguientes vectores son LD:


 A = {(−1, 0, −1); (2, 1, 2); (1, 1, k)} Rpta. k = 1
128 Algebra Lineal Walter Arriaga Delgado

 A = {(2, −3, 4); (4, −5, −1); (−2, 2, k)} Rpta. k = 5


3. Para que valores de a y b, los siguientes vectores son LD:
 A = {(3, 0, a, −1); (1, 1, 0, b); (2, 5, b, −4)} Rpta. a = −b
4. Para que valores de k, los siguientes vectores son LI:
 A = {(1, 2, k); (1, 1, 1); (0, 1, 1 − k)} Rpta. ∀ k 6= 1
 A = {(k, 1, 0); (3, −1, 2); (k, 2, −2)} Rpta. ∀ k ∈ R
 A = {(k, 1 − k, k); (2k, 2k − 1, k + 2); (−2k, k, −k)}
 A = {(1, 1, 0); (3, k, 2); (0, −1, k)}
 A = {(1, 2, 0, 3, k); (0, 1, k, 1, −2); (1, 4, 2k, 5, −1)}
5. Si el conjunto de vectores {u, v} son LI, determinar si los siguientes conjuntos de
vectores son LI o LD
 {u + v, v}
 {u + v, u − v}
6. Si el conjunto de vectores {u, v, w} son LI, determinar si los siguientes conjuntos de
vectores son LI o LD
 {u + v, u − v}
 {u + av + bw, v + cw, w}
 {u + v − w, v + w, 2u} son
 {u + 2v + 3w, 2u, u + 2v + 3w}
 {u + 2v − 3w, 2u + v − w, 3u + 5v − 6w}
 {u + 2v + 3w, v − 2u − w, −v − w}
 {u + v − 2w, u − v − w, u + w}
 {u + v − 3w, u + 3v − w, v + w}
7. Bases y dimensión
1. Determinar si los siguientes subconjuntos son bases del espacio vectorial V indicado
{(1, 3, 5); (2, −2, 3); (3, 2, −5)}; V = R3
{(2, 1, 1); (2, 2, 1); (2, 2, −1)}; V = R3
{(1, 2, 1); (1, 3, 1); (1, 4, 1); (1, 5, 1)}; V = R3
{(0, 1, 0, 1); (1, 2, 0, 1); (1, 2, 3, 1); (3, 5, 3, 2)}; V = R4
{(0, 1, 0, 1); (1, 2, 0, 1); (1, 2, 3, 1); (2, 3, 3, 2)}; V = R4
{(0, 1, 0, 1); (1, 2, 0, 1); (1, 2, 3, 1); (2, 3, 3, 2)}; V = R4
{(0, 1, 0, 1); (1, 2, 0, 1); (1, 2, 3, 1); (2, 3, 3, 2); (−3, 5, 2, 9)}; V = R4
{1, 1 + x, 1 + x2 , 1 + x3 }; V = P3 [x]
Walter Arriaga Delgado Algebra Lineal 129

( ! ! ! ! !)
−1 0 2 1 −6 1 7 −2 0 1
, , , , ; V = M2×2
3 1 1 4 5 8 1 0 0 0
2. Hallar una base y la dimensión de los siguientes subespacios:
S = {(x, y, z) ∈ R3 / 3x + 3y + z = 0}
S = {(x, y, z) ∈ R3 / x = 2y − 3z} Rpta. dim(S) = 2
S = {(x, y, z) ∈ R3 / 3x − 2y + 6z = 0}
S = {(x, y, z, w) ∈ R4 / x + 2y + 3z + 4w = 0}
S = {(x, y, z, t) ∈ R4 / x − y + z − t = 0 ∧ 2x + z + t = 0} Rpta. dim(S) = 2
S = {(x1 , x2 , x3 , x4 , x5 ) ∈ R5 / 2x1 − 3x2 + x3 + 4x4 − x5 = 0}
S = {(x1 , x2 , . . . , xn ) ∈ Rn / a1 x1 + a2 x2 + · · · + an xn = 0}
S = h(1, 2, 1, 1); (1, 1, 1, 2); (3, 2, 3, 2)i en R4
3. Dados los siguientes subespacios, hallar una base para S, T , S + T , S ∩ T y calcular
dim(S + T ):
 S = {(x, y, z) ∈ R 3 / x + y − z = 0}
T = {(x, y, z) ∈ R3 / x = z} Rpta. dim(S + T ) = 3
 S = {(x, y, z) ∈ R 3 / x = y + z}
T = {(x, y, z) ∈ R3 / 3x − 3y = −z} Rpta. dim(S + T ) = 3
 S = {(x, y, z) ∈ R 3 / 2x − y + z = 0}
T = {(x, y, z) ∈ R3 / x − 2y − z = 0}
 S = {(x, y, z, w) ∈ R 4 / x + y − z + w = 0}
T = {(x, y, z, w) ∈ R4 / x − y − z − w = 0} Rpta. dim(S + T ) = 4
 S = {(x, y, z, t) ∈ R 4 / x − y + z − t = 0}
T = {(x, y, z, t) ∈ R4 / 2x + y + 2z + t = 0}
 S = h(1, 0, 1, 0); (1, 0, 1, 1)i
T = h(3, 0, 2, 1)i Rpta. dim(S + T ) = 3
 S = {(x, y, z) ∈ R 3 / z = 0}
T = h(0, 1, 1); (2, 0, 1); (2, 1, 2)i
 S = {(x , x , x , x ) ∈ R
1 2 3 4
4 / x1 − x2 = 0}
T = h(1, 1, 2, 1); (2, 3, −1, 1)i
 S = {(x, y, z, w) ∈ R 4 / x − z − w = 0 , y + z = 0}
T = h(1, 0, 1, 1); (1, −1, −1, 0); (0, 1, 2, 1)i
 S = h(2, 5, −1, 1); (2, 1, 1, −1); (2, −1, 2, −2)i
T = h(3, 4, 1, −1); (3, 5, 1, −1); (1, 2, 1, −1)i
 S = h(1, 1, 1); (1, 2, 1)i
T = {(x, y, z) ∈ R3 / x = z}
130 Algebra Lineal Walter Arriaga Delgado

 S = h(1, 0, 2, 0); (−1, 2, 1, 1); (0, 0, 1, 0); (0, 0, 0, 1)i


T = {(x, y, z, t) ∈ R4 / x − y = 0}
4. Siendo F = {(x, y, z) ∈ R3 / x − 2y + 3z = 0}, ¿Con cual de los siguientes
subespacios se verifica que F ⊕ H = R3 ?
a) H = {(x, y, z) ∈ R3 / x − y + 3z = 0}
b) H = {(x, y, z) ∈ R3 / 2x + y + z = 0 ∧ y − z = 0}
c) H = {(x, y, z) ∈ R3 / x = 0}
d) H = {(x, y, z) ∈ R3 / x = y = z}
4

TRANSFORMACIONES
LINEALES

Objetivos
z Mostrar la dualidad entre el espacio de matrices y el espacio de las transformaciones li-
neales.

z Comprender los conceptos de dominio e imagen de una transformación.

z Determinar el núcleo, imagen, rango y nulidad de transformaciones lineales.

z Distinguir cuando una transformación lineal es inyectiva, suprayectiva, biyectiva, y utili-


zar las propiedades de los isomorfos.

z Realizar operaciones entre transformaciones lineales y encontrar la transformación lineal


inversa.

4.1. Introducción

Las transformaciones lineales desempeñan un papel muy importante en matemáticas, fı́sica,


ingenierı́a, procesamiento de imágenes, gráficas en computadora y muchas otras áreas de la
ciencia y la vida diaria.
Ası́ como cuando se estudian las funciones de números reales, con valores también reales,
interesan especialmente las funciones continuas, cuando estudiamos funciones de un espacio
vectorial con valores en otro, interesan aquellas que posean ciertas propiedades especiales.
Las funciones continuas son aquellas que preservan ciertas propiedades topológicas de

131
132 Algebra Lineal Walter Arriaga Delgado

los números reales. En los espacios vectoriales interesa, en cambio, conservar las estructuras
algebraicas, es decir, que conserve las dos operaciones fundamentales que definen la estructura
de espacio vectorial: la suma de vectores y la multiplicación de un vector por un escalar.
Al considerar este tipo de funciones, uno de los mejores ejemplo que disponemos es la
derivada como función de V en V ; siendo V el espacio vectorial real de todas las funciones
reales derivables. La función derivada respeta la suma y la multiplicación por escalar, esto es,
dados f ; g en V y α en R se tiene:

(f + g)′ (x) = f ′ (x) + g′ (x)

(αf )′ (x) = αf ′ (x)

ası́ también, la integral mirada como función desde el espacio vectorial real W ; de todas las
funciones integrables en el intervalo [a; b]; en el espacio vectorial real R también cumple estas
propiedades, es decir, dados f ; g en W y α en R se tiene:
Z b Z b Z b
(f + g)(x)dx = f (x)dx + g(x)dx
a a a
Z b Z b
(αf )(x)dx = α f (x)dx
a a

Definición 4.1.1. Sean V y W dos espacios vectoriales sobre un cuerpo K. A la correspon-


dencia T : V −→ W que a cada vector v ∈ V le asigna un vector T (v) ∈ W se le llama
Transformación Lineal o Mapeo Lineal si para cualesquiera u, v ∈ V y α ∈ K se verifica:

T (u + v) = T (u) + T (v).

T (αu) = αT (u).

A la transformación lineal T se le conoce también como Homomorfismo.


Las transformaciones lineales preservan las operaciones de suma de vectores y multipli-
cación por un escalar, es decir, T transforma un múltiplo de un vector en el múltiplo del
transformado y una suma de vectores en la suma de los transformados.
Se escribe indistintamente T u y T (u). Denotan lo mismo y las dos se leen “T de u”. Esto
es análogo a la notación funcional f (x), que se lee f de x.

Teorema 4.1.1. Sean V y W dos espacios vectoriales. T : V −→ W es una transformación


lineal si y sólo si:

T (αu + βv) = αT (u) + βT (v) ∀u, v ∈ V y ∀α, β ∈ K


Walter Arriaga Delgado Algebra Lineal 133

T
V W

u T (u)
v T (v)
u+v T (u + v) = T (u) + T (v)

αu T (αu) = αT (u)

Figura 4.1: La transformación lineal T

Demostración.

Si T : V −→ W es una transformación lineal, entonces ∀u, v ∈ V y ∀α, β ∈ K

T (αu + βv) = T (αu) + T (βv) = αT (u) + βT (v)

Si T (αu + βv) = αT (u) + βT (v), ∀u, v ∈ V y ∀α, β ∈ K, entonces:

• Para α = β = 1, se tiene que: T (u + v) = T (u) + T (v)

• Para β = 0, se tiene que: T (αu) = αT (u)

Por lo tanto T : V −→ W es una transformación lineal.


En general:

T (α1 u1 + α2 u2 + · · · + αn un ) = α1 T (u1 ) + α2 T (u2 ) + · · · + αn T (un )

expresado en series: !
n
X n
X
T αi ui = αi T (ui )
i=1 i=1

Se puede decir también que las transformaciones lineales preservan las combinaciones lineales.

4.2. Clasificación de las Transformaciones Lineales

Sean V y W dos espacios vectoriales y sea T : V −→ W una transformación lineal,


entonces:
134 Algebra Lineal Walter Arriaga Delgado

T es un monomorfismo si y sólo si T es inyectiva.

T es un epimorfismo si y sólo si T es sobreyectiva.

T es un isomorfismo si y sólo si T es biyectiva.

T es un homomorfismo si V 6= W .

T es un endomorfismo si V = W .

T es un automorfismo si V = W y T es biyectiva.

4.3. Núcleo e Imagen de una Transformación Lineal

Definición 4.3.1. Sean V y W dos espacios vectoriales y sea T : V −→ W una transformación


lineal, entonces el núcleo o kernel de T , denotado por N (T ) o Ker(T ), está dado por:

N (T ) = Ker(T ) = {v ∈ V / T (v) = 0w }

T
V W
N (T )

0v 0w

Figura 4.2: El núcleo de una transformación lineal T

Teorema 4.3.1. Sean V y W dos espacios vectoriales y sea T : V −→ W una transformación


lineal, entonces el núcleo de T es un subespacio de V .

Demostración.

Como T (0v ) = 0w , entonces 0v ∈ N (T )

Si x, y ∈ N (T ), entonces probaremos que x + y ∈ N (T )


En efecto:
Walter Arriaga Delgado Algebra Lineal 135

Si x ∈ N (T ) entonces T (x) = 0w
Si y ∈ N (T ) entonces T (y) = 0w
sumando miembro a miembro T (x) + T (y) = 0w , y como T es transformación lineal,
T (x + y) = T (x) + T (y) = 0w , de donde x + y ∈ N (T )

Si x ∈ N (T ) y α ∈ K, entonces probaremos que αx ∈ N (T )


En efecto:
Si x ∈ N (T ) entonces T (x) = 0w
multiplicando a miembro a miembro αT (x) = α0w = 0w , y como T es transformación
lineal, T (αx) = αT (x) = 0w , de donde αx ∈ N (T )

por lo tanto N (T ) es un subespacio de V . 

Definición 4.3.2. Sean V y W dos espacios vectoriales y sea T : V −→ W una transformación


lineal, entonces la imagen o recorrido de T , denotado por Im(T ), está dado por:

Im(T ) = {w ∈ W / w = T (v), para algún v ∈ V }

T
V W
Im(T )

0v 0w

Figura 4.3: La imagen de una transformación lineal T

Teorema 4.3.2. Sean V y W dos espacios vectoriales y sea T : V −→ W una transformación


lineal, entonces la imagen de T , es un subespacio de W .

Demostración.

Como T (0v ) = 0w , entonces 0w ∈ Im(T )

Si x, y ∈ Im(T ), entonces probaremos que x + y ∈ Im(T )


En efecto:
136 Algebra Lineal Walter Arriaga Delgado

Si x ∈ Im(T ) entonces existe un a ∈ V tal que T (x) = a


Si y ∈ Im(T ) entonces existe un b ∈ V tal que T (y) = b
sumando miembro a miembro T (x) + T (y) = a + b, y como T es transformación lineal,
T (x + y) = T (x) + T (y) = a + b, además V es un espacio vectorial entonces existe
a + b ∈ V tal que T (x + y) = a + b, de donde x + y ∈ Im(T )

Si x ∈ Im(T ) y α ∈ K, entonces probaremos que αx ∈ Im(T )


En efecto:
Si x ∈ Im(T ) entonces existe un a ∈ V tal que T (x) = a
multiplicando a miembro a miembro αT (x) = αa, y como T es transformación lineal,
T (αx) = αT (x) = αa, además V es un espacio vectorial entonces existe αa ∈ V tal que
T (αx) = αa, de donde αx ∈ Im(T )

por lo tanto Im(T ) es un subespacio de W . 

Definición 4.3.3. Sean V y W dos espacios vectoriales y sea T : V −→ W una transformación


lineal, entonces:
ν(T ) = dim(Ker(T ))

ρ(T ) = dim(Im(T ))

donde: ν(T ) es la nulidad de T y ρ(T ) es el rango de T .

Teorema 4.3.3. Sean V y W espacios vectoriales de dimensión finita y sea T : V −→ W una


transformación lineal, entonces:

dim V = ν(T ) + ρ(T )

Teorema 4.3.4. Sean V y W espacios vectoriales y sea T : V −→ W una transformación


lineal, entonces: T es inyectiva si y sólo si Ker(T ) = 0v

Nota 4.3.1. Dada la transformación lineal T : V −→ W

Para ver si un vector está en el núcleo de una transformación lineal se debe aplicar la
transformación. El vector x está en el núcleo de T si y sólo si T (x) = 0.

Para determinar el núcleo de una transformación, debe encontrar la matriz que define a
la transformación lineal y resolver [A|0]. Hay dos alternativas: el sistema tiene solución
única o el sistema tienen infinitas soluciones. En el caso de infinitas soluciones, la fórmula
Walter Arriaga Delgado Algebra Lineal 137

general muestra al núcleo como un espacio generado donde el número de columnas sin
pivote es la dimensión del núcleo como subespacio. En caso de tener solución única, el
núcleo de T es el conjunto formado por el vector cero.

Para determinar si una transformación lineal es inyectiva, todas las columnas de la


reducida de la matriz que define a la transformación lineal deben de tener pivote.

Para ver si un vector está en la imagen de una transformación lineal se debe ver si un
sistema es consistente.

Para determinar la imagen de una transformación lineal, se debe obtener un conjunto


generador de la imagen Im(T ), para ello se usa la base canónica de V con lo cual el
conjunto generador será: G = hT (v1 ), T (v2 ), . . . , T (vn )i, con esto se establece el espacio
generado, utilizando los vectores como filas de una matriz, luego se procede a escalonarla,
si toda fila tiene pivote la transformación es sobreyectiva. Es decir, todo vector del
codominio es imagen de un vector en el dominio.

Para determinar si una transformación lineal es suprayectiva, todos los renglones en la


reducida de A deben de tener pivotes.

ν(T ) = Número de columnas sin pivote en A reducida.

ρ(T ) = Número de columnas con pivote en A reducida.

Observación 4.3.1. Dada la transformación lineal T : V −→ W con dim(V ) = n y


dim(W ) = m

Si T es inyectiva, entonces Ker(T ) = 0; luego, ρ(T ) = n. Pero, puesto que Im(T ) ≤ m,


entonces n ≤ m. Esto significa que no puede existir un transformación lineal inyectiva
de V en W si la dimensión de V es mayor que la de W .
Por ejemplo la transformación lineal T : R4 −→ R3 no puede ser inyectiva pues

4 = dim(Ker(T )) + dim(Im(T )) ≤ dim(Ker(T )) + 3

por tanto, dim(Ker(T )) ≥ 1 probando que Ker(T ) 6= 0v .

Un razonamiento similar al anterior muestra que no puede existir una transformación


lineal sobreyectiva de V a W si la dimensión de W es mayor que la de V .
138 Algebra Lineal Walter Arriaga Delgado

Por ejemplo la transformación lineal T : R4 −→ R8 no puede ser sobreyectiva pues

4 = dim(Ker(T )) + dim(Im(T ))

por tanto, dim(Im(T )) ≤ 4 probando que Im(T ) 6= R8

Finalmente, de las dos observaciones previas se deduce que si T es un isomorfismo,


entonces dim(V ) = dim(W ), es decir: ν(T ) = ρ(T ).

4.4. Matriz asociada a una Transformación Lineal

Ya sabemos que una transformación lineal queda completamente determinada por la forma
como la transformación actúa en una base del dominio y que la función de Rn a Rm definida
por:
T (v) = Av

para una matriz m × n dada es una transformación lineal, la cual llamamos transformación
matricial. En esta sección, demostraremos que toda transformación lineal entre espacios vec-
toriales de dimensión finita puede ser representada como una transformación matricial.
Sea V un espacio vectorial de dimensión finita, es decir dim(V ) = n, y sea β = {v1 , v2 , . . . , vn }
una base de V , entonces cada vector v ∈ V se expresa como combinación lineal de elementos
de la base β, es decir, existen escalares α1 , α2 , . . . , αn tal que
n
X
v= αi vi = α1 v1 + α2 v2 + · · · + αn vn
i=1

entonces los coeficientes αi , i = 1, n se llaman coordenadas o componentes del vector v ∈ V


respecto de la base β, luego podemos expresar cada vector v ∈ V como una matriz columna,
cuyos elementos sean las coordenadas de v respecto de la base β, ası́
 
α1
 
 
 α2 
coordβ v = [v]β =  
 .. 
 . 
 
αn

4.4.1. Representación matricial de una transformación lineal

Sean los espacios vectoriales V y W de dimensión finita y sea T : V −→ W una transfor-


mación lineal donde B1 = {v1 , v2 , . . . , vn } es una base de V y B2 = {w1 , w2 , . . . , wm } una base
Walter Arriaga Delgado Algebra Lineal 139

de W .
Los vectores T (v1 ), T (v2 ), . . . , T (vn ) están en W y por lo tanto, cada uno de ellos se puede
expresar como una combinación lineal de los vectores de la base B2 , luego:

T (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm

T (v2 ) = a12 w1 + a22 w2 + · · · + am2 wm


.. .. .. ..
. . . .

T (vn ) = a1n w1 + a2n w2 + · · · + amn wm

en otras palabras
     
a11 a12 a1n
     
     
 a21   a22   a2n 
[T (v1 )]B2 =    
 ..  , [T (v2 )]B2 =  ..  , . . . , [T (vn )]B2 =  .. 

 .   .   . 
     
am1 am2 amn

Definición 4.4.1. Se llama representación matricial de T en las bases B1 y B2 o matriz


asociada a T en las bases B1 y B2 , a la matriz que representaremos por [AT ]B
B1 y cuya i–ésima
2

columna son las coordenadas del vector T (vi ) en la base B2 .

Esto es:
 
[AT ]B2
B1 = [T (v1 )]B2 , [T (v2 )]B2 , . . . , [T (vn )]B2
 
a11 a12 ··· a1n
 
 
 a21 a22 · · · a2n 

=  . 
.. .. 
 .. . . 
 
am1 am2 · · · amn

Si la base B del espacio de partida es igual al del espacio de llegada, la matriz asociada a
la transformación lineal se denota por [AT ]B

4.5. Operaciones con Transformaciones Lineales

Definición 4.5.1. Sean V y W dos espacios vectoriales, denotemos por:

L(V, W ) = {T : V −→ W / T es una transformación lineal}


140 Algebra Lineal Walter Arriaga Delgado

al conjunto de las transformaciones lineales de V en W , al cual podemos dotar de una es-


tructura de espacio vectorial definiendo una suma de transformaciones y un producto de una
transformación por un escalar en la forma usual; es decir:

Si f, g : V −→ W son transformaciones lineales, se define la suma de f y g como:

+ : L(V, W ) × L(V, W ) −→ L(V, W )


(f, g) −→ +(f, g) = f + g : V −→ W
v −→ (f + g)(v) = f (v) + g(v)

Si f : V −→ W es una transformaciones lineales, se define el producto de k y f como:

· : K × L(V, W ) −→ L(V, W )
(k, f ) −→ ·(k, f ) = k · f : V −→ W
v −→ (k · f )(v) = kf (v)

Teorema 4.5.1. Sean V y W dos espacios vectoriales sobre el cuerpo K y sean f y g trans-
formaciones lineales de V en W entonces f + g es una transformación lineal.

Teorema 4.5.2. Sean V y W dos espacios vectoriales sobre el cuerpo K y sea f una trans-
formación lineal de V en W entonces kf es una transformación lineal.

Teorema 4.5.3. Consideremos V y W dos espacios vectoriales sobre el cuerpo K y sea


L(V, W ) = {T : V −→ W / T es una transformación lineal} el conjunto de transformaciones
lineales de V en W entonces L(V, W ) es un espacio vectorial, llamado el espacio vectorial de
las transformaciones lineales.

La composición de funciones usual puede realizarse, en particular, entre dos transforma-


ciones lineales. El resultado es, en este caso, una nueva transformación lineal.

Teorema 4.5.4. Sean V , W y Z tres espacios vectoriales sobre K y sean f : V −→ W y


g : W −→ Z dos transformaciones lineales. Entonces g ◦ f : V −→ Z es una transformación
lineal.

Definición 4.5.2. Dada una transformación lineal f : V −→ V , si existe una transformación


g : V −→ V tal que para todo u ∈ V (f ◦ g)(u) = (g ◦ f )(u) = I(u) = u, entonces se dice que
g es la transformación inversa de f y se denota por g = f −1

Teorema 4.5.5. Sea f una transformación lineal de V en V , si existe su aplicación inversa


f −1 , entonces f −1 es única y además es lineal.
Walter Arriaga Delgado Algebra Lineal 141

Demostración.

Probemos primero que f −1 es lineal.


En efecto, para todo w1 , w2 ∈ V y α, β ∈ K, existen u1 , u2 ∈ V tales que f (u1 ) = w1 y
f (u2 ) = w2 , entonces:

f −1 (αw1 + βw2 ) = f −1 (αf (u1 ) + βf (u2 ))

= f −1 (f (αu1 + βu2 ))

= (f −1 ◦ f )(αu1 + βu2 )

= αu1 + βu2

= αf −1 (w1 ) + βf −1 (w2 )

Probemos ahora que f −1 es única.


En efecto, supongamos que f −1 no es única, es decir, existen g1 y g2 que son transfor-
maciones inversas de f , es decir, para todo u ∈ V

(f ◦ g1 )(u) = (g1 ◦ f )(u) = I(u) = u

(f ◦ g2 )(u) = (g2 ◦ f )(u) = I(u) = u

luego se tiene que:

g1 (u) = g1 (I(u))

= (g1 ◦ I)(u)

= (g1 ◦ (f ◦ g2 ))(u)

= ((g1 ◦ f ) ◦ g2 )(u)

= (I ◦ g2 )(u)

= I(g2 (u))

= g2 (u)

de donde g1 ≡ g2

Por lo tanto f −1 es única y además es lineal. 


142 Algebra Lineal Walter Arriaga Delgado

✍ EJERCICIOS RESUELTOS 3.

I. Transformaciones Lineales
Determinar cuales de las siguientes aplicaciones son transformaciones lineales. Considere
K = R.

1. T : R2 −→ R2 definido por: T (x, y) = (x + y , x − y)


Demostración.
Probaremos que T (u + v) = T (u) + T (v), ∀u, v ∈ R2
En efecto: Sea u = (x1 , y1 ) y v = (x2 , y2 ), entonces:

T (u + v) = T ((x1 , y1 ) + (x2 , y2 ))
= T (x1 + x2 , y1 + y2 )
= ((x1 + x2 ) + (y1 + y2 ) , (x1 + x2 ) − (y1 + y2 ))
= ((x1 + y1 ) + (x2 + y2 ) , (x1 − y1 ) − (x2 − y2 ))
= (x1 + y1 , x1 − y1 ) + (x2 + y2 , x2 − y2 )
= T (x1 , y1 ) + T (x2 , y2 )
= T (u) + T (v)

Probaremos que T (αu) = αT (u), ∀u ∈ R2 , α ∈ K


En efecto: Sea u = (x1 , y1 ) entonces:

T (αu) = T (α(x1 , y1 ))
= T (αx1 , αy1 )
= (αx1 + αy1 , αx1 − αy1 )
= α(x1 + y1 , x1 − y1 )
= αT (x1 , y1 )
= αT (u)

Por lo tanto T (x, y) = (x + y , x − y) es una transformación lineal. 


2. T : P2 [x] −→ R3 definido por: T (p(x)) = (p(0), p(1), p(2))
Demostración.
Probaremos que T (p(x) + q(x)) = T (p(x)) + T (q(x)), ∀p(x), q(x) ∈ P2 [x]
En efecto:

T (p(x) + q(x)) = (p(0) + q(0) , p(1) + q(1) , p(2) + q(2))


= (p(0), p(1), p(2)) + (q(0), q(1), q(2))
= T (p(x)) + T (q(x))
Walter Arriaga Delgado Algebra Lineal 143

Probaremos que T (αp(x)) = αT (p(x)), ∀p(x) ∈ P2 [x], α ∈ K


En efecto:

T (αp(x)) = (αp(0), αp(1), αp(2))


= α(p(0), p(1), p(2))
= αT (p(x))

Por lo tanto T (p(x)) = (p(0), p(1), p(2)) es una transformación lineal. 

3. T : P2 [x] −→ R3 definido por: T (ax2 + bx + c) = (a + b , a + c , b − c)


Demostración.

Probaremos que T (p(x) + q(x)) = T (p(x)) + T (q(x)), ∀p(x), q(x) ∈ P2 [x]


En efecto: Sea p(x) = a1 x2 + b1 x + c1 y q(x) = a2 x2 + b2 x + c2 , entonces:

T (p(x) + q(x)) = T ((a1 x2 + b1 x + c1 ) + (a2 x2 + b2 x + c2 ))


= T ((a1 + a2 )x2 + (b1 + b2 )x + (c1 + c2 ))
= ((a1 + a2 ) + (b1 + b2 ) , (a1 + a2 ) + (c1 + c2 ) ,
(b1 + b2 ) − (c1 + c2 ))
= ((a1 + b1 ) + (a2 + b2 ) , (a1 + c1 ) + (a2 + c2 ) ,
(b1 + c1 ) − (b2 + c2 ))
= (a1 + b1 , a1 + c1 , b1 − c1 ) + (a2 + b2 , a2 + c2 , b2 − c2 )
= T (a1 x2 + b1 x + c1 ) + T (a2 x2 + b2 x + c2 )
= T (p(x)) + T (q(x))

Probaremos que T (αp(x)) = αT (p(x)), ∀p(x) ∈ P2 [x], α ∈ K


En efecto: Sea p(x) = ax2 + bx + c entonces:

T (αp(x)) = T (α(ax2 + bx + c))


= T (αax2 + αbx + αc)
= (αa + αb , αa + αc , αb − αc)
= α(a + b , a + c , b − c)
= αT (ax2 + bx + c)
= αT (p(x))

Por lo tanto T (ax2 + bx + c) = (a + b , a + c , b − c) es una transformación lineal. 

4. T : P2 [x] −→ P3 [x] definido por: T (p(x)) = xp(x)


Demostración.
144 Algebra Lineal Walter Arriaga Delgado

Probaremos que T (p(x) + q(x)) = T (p(x)) + T (q(x)), ∀p(x), q(x) ∈ P2 [x]


En efecto: Sea p(x) = a1 x2 + b1 x + c1 y q(x) = a2 x2 + b2 x + c2 , entonces:

T (p(x) + q(x)) = T ((a1 x2 + b1 x + c1 ) + (a2 x2 + b2 x + c2 ))


= T ((a1 + a2 )x2 + (b1 + b2 )x + (c1 + c2 ))
= x((a1 + a2 )x2 + (b1 + b2 )x + (c1 + c2 ))
= x(a1 x2 + b1 x + c1 ) + x(a2 x2 + b2 x + c2 )
= T (a1 x2 + b1 x + c1 ) + T (a2 x2 + b2 x + c2 )
= T (p(x)) + T (q(x))

Probaremos que T (αp(x)) = αT (p(x)), ∀p(x) ∈ P2 [x], α ∈ K


En efecto: Sea p(x) = ax2 + bx + c entonces:

T (αp(x)) = T (α(ax2 + bx + c))


= T (αax2 + αbx + αc)
= x(αax2 + αbx + αc)
= αx(ax2 + bx + c)
= αT (ax2 + bx + c)
= αT (p(x))

Por lo tanto T (p(x)) = xp(x) es una transformación lineal. 

II. Núcleo e imagen de una transformación lineal


En los siguientes ejercicios, determinar:

a) La transformación lineal T .
b) El núcleo Ker(T )
c) La imagen Im(T )
d) La nulidad ν(T )
e) El rango ρ(T )

1. T : R3 −→ R2 tal que:
T (1, 2, −3) = (−3, −1), T (2, −1, 1) = (4, 0), T (−1, 2, 1) = (−5, 3)
Solución
a) Transformación Lineal T
se sabe que todo vector (x, y, z) ∈ R3 puede expresarse como combinación lineal
de los vectores: (1, 2, −3), (2, −1, 1), (−1, 2, 1)

(x, y, z) = α(1, 2, −3) + β(2, −1, 1) + γ(−1, 2, 1)


Walter Arriaga Delgado Algebra Lineal 145

obteniéndose el sistema:


α + 2β − γ = x


2α − β + 2γ = y




−3α + β + γ = z

luego por transformaciones elementales se tiene:


   
1 2 −1 x 1 0 0 (x + y − z)/6
   
 2 −1 2 y  ≡ 0 1 0 (4x + y + 2z)/9 
   
−3 1 1 z 0 0 1 (x + 7y + 5z)/18

x+y−z 4x + y + 2z x + 7y + 5z
de donde: α= ; β= ; γ=
6 9 18
aplicando la transformación lineal:

T (x, y, z) = T [α(1, 2, −3) + β(2, −1, 1) + γ(−1, 2, 1)]


= αT (1, 2, −3) + βT (2, −1, 1) + γT (−1, 2, 1)
= α(−3, −1) + β(4, 0) + γ(−5, 3)
= (−3α + 4β − 5γ, −α + 3γ)
= (x − 2y , y + z)

∴ T (x, y, z) = (x − 2y , y + z)

b) Núcleo Ker(T )

Ker(T ) = {(x, y, z) ∈ R3 / T (x, y, z) = (0, 0)}

es decir:
T (x, y, z) = (x − 2y , y + z) = (0, 0)
generándose el sistema de ecuaciones lineales:

x − 2y = 0
y + z = 0

obteniéndose: y = −z y x = −2z

∴ Ker(T ) = {(−2z, −z, z) / z ∈ R}

c) Imagen Im(T )
Al transformar una base del dominio, se obtendrá un conjunto generador de la
imagen Im(T ), se usará la base canónica:
146 Algebra Lineal Walter Arriaga Delgado

T (1, 0, 0) = (1, 0), T (0, 1, 0) = (−2, 1), T (0, 0, 1) = (0, 1)


por lo que el conjunto generador será: G = h(1, 0); (−2, 1); (0, 1)i, con esto es-
tablecemos el espacio generado, utilizando los vectores como filas de una matriz
y escalonándola se tiene:   
1 0 1 0
   
−2 1 ≡ 0 1
   
0 1 0 0
por lo que la base canónica del subespacio es h(1, 0); (0, 1)i y este genera al
subespacio Im(T )
∴ Im(T ) = h(1, 0); (0, 1)i

d) Nulidad ν(T )
Como Ker(T ) = {(−2z, −z, z) / z ∈ R} entonces:
(x, y, z) = (−2z, −z, z) = −z(2, 1, −1)

Ker(T ) = h(2, 1, −1)i

∴ ν(T ) = 1

e) Rango ρ(T )
Por lo anterior se tiene que Im(T ) = h(1, 0); (0, 1)i

∴ ρ(T ) = 2

2. T : R4 −→ R3 tal que:
T (1, 1, 2, −2) = (−2, 3, 1), T (1, −1, −2, 1) = (1, −6, −5),
T (1, −3, 1, 1) = (9, 4, 13), T (1, 2, −1, −2) = (−9, −8, −17)
Solución
a) Transformación Lineal T
se sabe que todo vector (x, y, z, w) ∈ R4 puede expresarse como combinación
lineal de los vectores:
(1, 1, 2, −2), (1, −1, −2, 1), (1, −3, 1, 1) y (1, 2, −1, −2)

(x, y, z, w) = α(1, 1, 2, −2) + β(1, −1, −2, 1) + γ(1, −3, 1, 1) + δ(1, 2, −1, −2)

obteniéndose el sistema:


α+β+γ+δ =x





α − β − 3γ + 2δ = y

2α − 2β + γ − δ = z





−2α + β + γ − 2δ = w
Walter Arriaga Delgado Algebra Lineal 147

luego por transformaciones elementales se tiene:


   
1 1 1 1 x 1 0 0 0 (10x + 9y + 6z + 11w)/9
   
 1 −1 −3 2 y  0 1 0 0 (11x + 9y + 3z + 13w)/9 
   
 ≡ 
 2 −2 1 −1 z  0 0 1 0 (−5x − 9y − 3z − 10w)/9
   
−2 1 1 −2 w 0 0 0 1 (−7x − 9y − 6z − 14w)/9

10x + 9y + 6z + 11w 11x + 9y + 3z + 13w


de donde: α= ; β= ;
9 9
−5x − 9y − 3z − 10w −7x − 9y − 6z − 14w
γ= ; δ=
9 9
aplicando la transformación lineal:

T (x, y, z, w) = αT (1, 1, 2, −2)+βT (1, −1, −2, 1)+γT (1, −3, 1, 1)+δT (1, 2, −1, −2)

T (x, y, z, w) = α(−2, 3, 1) + β(1, −6, −5) + γ(9, 4, 13) + δ(−9, −8, −17)
= (−2α + β + 9γ − 9δ, 3α − 6β + 4γ − 8δ, α − 5β + 13γ − 17δ)
= (x − y + 2z + 3w , y + 4z + 3w , x + 6z + 6w)

∴ T (x, y, z, w) = (x − y + 2z + 3w , y + 4z + 3w , x + 6z + 6w)

b) Núcleo Ker(T )

Ker(T ) = {(x, y, z, w) ∈ R4 / T (x, y, z, w) = (0, 0, 0)}

es decir:
T (x, y, z, w) = (x − y + 2z + 3w , y + 4z + 3w , x + 6z + 6w) = (0, 0, 0)
generándose el sistema de ecuaciones lineales:


x − y + 2z + 3w = 0


y + 4z + 3w = 0




x + 6z + 6w = 0

   
1 −1 2 3 0 1 0 6 6 0
   
0 1 4 3 0 ≡ 0 1 4 3 0
   
1 0 6 6 0 0 0 0 0 0

obteniéndose: x = −6z − 6w, y = −4z − 3w

∴ Ker(T ) = {(−6z − 6w, −4z − 3w, z, w) / z, w ∈ R}


148 Algebra Lineal Walter Arriaga Delgado

c) Imagen Im(T )
Al transformar una base del dominio, se obtendrá un conjunto generador de la
imagen Im(T ), se usará la base canónica:
T (1, 0, 0, 0) = (1, 0, 1), T (0, 1, 0, 0) = (−1, 1, 0),
T (0, 0, 1, 0) = (2, 4, 6), T (0, 0, 0, 1) = (3, 3, 6)
por lo que el conjunto generador será: G = h(1, 0, 1); (−1, 1, 0); (2, 4, 6); (3, 3, 6)i,
con esto establecemos el espacio generado, utilizando los vectores como filas de
una matriz y escalonándola se tiene:
   
1 0 11 0 1
   
−1 1 0 0 1 1
   
 ≡ 
 2 4 6 0 0 0
   
3 3 6 0 0 0

por lo que la base canónica del subespacio es h(1, 0, 1); (0, 1, 1)i y este genera al
subespacio Im(T ), entonces

Im(T ) = h(1, 0, 1); (0, 1, 1)i

además (x, y, z) = α(1, 0, 1) + β(0, 1, 1), de donde x = α, y = β, z = α + β,


obteniéndose x + y = z

∴ Im(T ) = {(x, y, z) ∈ R3 / x + y − z = 0}

d) Nulidad ν(T )
Como Ker(T ) = {(−6z − 6w, −4z − 3w, z, w) / z, w ∈ R} entonces:
(x, y, z, w) = (−6z − 6w, −4z − 3w, z, w) = z(−6, −4, 1, 0) + w(−6, −3, 0, 1)

Ker(T ) = h(−6, −4, 1, 0); (−6, −3, 0, 1)i

∴ ν(T ) = 2

e) Rango ρ(T )
Por lo anterior se tiene que Im(T ) = h(1, 0, 1); (0, 1, 1)i

∴ ρ(T ) = 2

3. T : P2 [x] −→ R3 tal que:


T (x2 + x + 1) = (2, 2, 0), T (x2 − x + 2) = (0, 3, −3), T (x2 − 2x − 1) = (−1, 0, −1)
Solución
Walter Arriaga Delgado Algebra Lineal 149

a) Transformación Lineal T
se sabe que todo polinomio p(x) = ax2 + bx + c ∈ P2 [x] puede expresarse como
combinación lineal de los vectores: x2 + x + 1, x2 − x + 2, x2 − 2x − 1

ax2 + bx + c = α(x2 + x + 1) + β(x2 − x + 2) + γ(x2 − 2x − 1)

obteniéndose el sistema: 

 α+β+γ =a


α − β − 2γ = b




α + 2β − γ = c
luego por transformaciones elementales se tiene:
   
1 1 1 a 1 0 0 (5a + 3b − c)/7
   
1 −1 −2  
b  ≡ 0 1 0 (−a − 2b + 3c)/7
 
1 2 −1 c 0 0 1 (3a − b − 2c)/7

5a + 3b − c −a − 2b + 3c 3a − b − 2c
de donde: α= ; β= ; γ=
7 7 7
aplicando la transformación lineal:

T (ax2 + bx + c) = T [α(x2 + x + 1) + β(x2 − x + 2) + γ(x2 − 2x − 1)]


= αT (x2 + x + 1) + βT (x2 − x + 2) + γT (x2 − 2x − 1)
= α(2, 2, 0) + β(0, 3, −3) + γ(−1, 0, −1)
= (2α − γ, 2α + 3β, −3β − γ)
= (a + b , a + c , b − c)

∴ T (ax2 + bx + c) = (a + b , a + c , b − c)

b) Núcleo Ker(T )

Ker(T ) = {p(x) = ax2 + bx + c ∈ R3 / T (ax2 + bx + c) = (0, 0, 0)}

es decir:
T (ax2 + bx + c) = (a + b , a + c , b − c) = (0, 0, 0)
generándose el sistema de ecuaciones lineales:


 a+b = 0


a+c = 0




b−c = 0

obteniéndose: b = −a, y c = −a

∴ Ker(T ) = {ax2 − ax − a / a ∈ R}
150 Algebra Lineal Walter Arriaga Delgado

c) Imagen Im(T )
Al transformar una base del dominio, se obtendrá un conjunto generador de la
imagen Im(T ), se usará la base canónica:
T (x2 ) = (1, 1, 0), T (x) = (1, 0, 1), T (1) = (0, 1, −1)
por lo que el conjunto generador será: G = h(1, 1, 0); (1, 0, 1); (0, 1, −1)i, con
esto establecemos el espacio generado, utilizando los vectores como filas de una
matriz y escalonándola se tiene:
   
1 1 0 1 1 0
   
1 0 1  ≡ 0 1 −1
   
0 1 −1 0 0 0

por lo que la base canónica del subespacio es h(1, 1, 0); (0, 1, −1)i y este genera
al subespacio Im(T ) entonces:

Im(T ) = h(1, 1, 0); (0, 1, −1)i

además (x, y, z) = α(1, 1, 0) + β(0, 1, −1), de donde x = α, y = α + β, z = −β,


obteniéndose x = y + z

∴ Im(T ) = {(x, y, z) ∈ R3 / x − y − z = 0}

d) Nulidad ν(T )
Como Ker(T ) = {ax2 − ax − a / a ∈ R} entonces: ax2 − ax − a = a(x2 − x − 1)

Ker(T ) = hx2 − x − 1i

∴ ν(T ) = 1

e) Rango ρ(T )
Por lo anterior se tiene que Im(T ) = h(1, 1, 0); (0, 1, −1)i

∴ ρ(T ) = 2

III. Matriz asociada a una transformación lineal

1. En R4 , sea la base ordenada B = {(1, 1, −1, −1), (1, 1, −1, 0), (1, 1, 0, 0), (1, 0, 0, 0)}.
Determinar el vector de coordenadas de (1, 4, −1, 3) en esa base.
Solución
Debemos determinar los coeficientes de la combinación lineal del vector dado en
términos de la base B:

(1, 4, −1, 3) = α(1, 1, −1, −1) + β(1, 1, −1, 0) + γ(1, 1, 0, 0) + δ(1, 0, 0, 0)


Walter Arriaga Delgado Algebra Lineal 151

Desarrollando el lado derecho e igualando componentes obtenemos:

1 = α+β+γ+δ
4 = α+β+γ
−1 = −α − β
3 = −α

Resolviendo este sistema obtenemos que α = −3, β = 4, γ = 3 y δ = −3.


 
−3
 
4
 
∴ [(1, 4, −1, 3)]B =  
3
 
−3

2. En R2 se da la base ordenada B = {(1, 1), (2, −1)}. Determinar el vector de coor-


denadas de cualquier (a, b) ∈ R2 .
Solución
Hacemos (a, b) = α(1, 1) + β(2, −1). De aquı́, a = α + 2β, b = α − β, luego,
1 1
α= 3 (a + 2b), β = 3 (a − b)
!
(a + 2b)/3
∴ [(a, b)]B =
(a − b)/3

3. En P2 [x] se da la base ordenada B = {x2 − 1 , x + 1 , 3}. Determinar el vector de


coordenadas de cualquier polinomio p(x) = ax2 + bx + c ∈ P2 [x].
Solución
Hacemos ax2 + bx + c = α(x2 − 1) + β(x + 1) + γ(3). Luego,

ax2 + bx + c = αx2 + βx − α + β + 3γ

Igualando coeficientes se tiene: α = a, β = b, γ = (a − b + c)/3


 
a
 
∴ [ax2 + bx + c]B =   b 

(a − b + c)/3

4. Dados los espacios vectoriales V = R4 y W = R4 , y sea la transformación lineal


T : V −→ W , definida por

T (x, y, z, w) = (x + 2y , 2x + y − z − w , 3x − 2z + 3w , 2y + 3z + 4w)

Hallar la matriz asociada a T respecto de las bases


B1 = (1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0), (1, 1, 1, 1)} de V y
152 Algebra Lineal Walter Arriaga Delgado

B2 = (1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0), (1, 1, 1, 1)} de W .


Solución
Calculamos las imágenes de los elementos de B1 y las escribimos como combinación
lineal de los elementos de B2 :
T (1, 0, 0, 0) = (1, 2, 3, 0) = α1 (1, 0, 0, 0) + α2 (1, 1, 0, 0) + α3 (1, 1, 1, 0) + α4 (1, 1, 1, 1)
T (1, 1, 0, 0) = (3, 3, 3, 2) = β1 (1, 0, 0, 0) + β2 (1, 1, 0, 0) + β3 (1, 1, 1, 0) + β4 (1, 1, 1, 1)
T (1, 1, 1, 0) = (3, 2, 1, 5) = γ1 (1, 0, 0, 0) + γ2 (1, 1, 0, 0) + γ3 (1, 1, 1, 0) + γ4 (1, 1, 1, 1)
T (1, 1, 1, 1) = (3, 1, 4, 9) = δ1 (1, 0, 0, 0) + δ2 (1, 1, 0, 0) + δ3 (1, 1, 1, 0) + δ4 (1, 1, 1, 1)
luego se procede a encontrar los valores de los αi , βi , γi y δi
   
α β1 γ1 δ1 −1 0 1 2
 1   
α β2 γ2 δ2  −1 0 1 −3
 2   
∴ [AT ]BB1 = 
2
= 
α3 β3 γ3 δ3   3 1 −4 −5
 
 
α4 β4 γ4 δ4 0 2 5 9

5. Dados los espacios vectoriales V = P3 [x] = {ax3 + bx2 + cx + d / a, b, c, d ∈ R} y


W = P2 [x] = {ax2 +bx+c / a, b, c ∈ R}, y sea la transformación lineal T : V −→ W ,
definida por
d
T (ax3 + bx2 + cx + d) =(ax3 + bx2 + cx + d)
dx
Hallar la matriz asociada a T respecto de las bases
B1 = {x3 − x , x2 + 1 , −x3 − 1 , x2 + x} de V y
B2 = {2x2 − 2 , −x − 1 , −2x2 + x + 1} de W .
Utilice la matriz para obtener la transformación de q(x) = −x3 + 2x2 − x + 3 y
compruebe mediante la regla de correspondencia.
Solución
Calculamos las imágenes de los elementos de B1 y las escribimos como combinación
lineal de los elementos de B2 :

T (x3 − x) = 3x2 − 1 = α1 (2x2 − 2) + α2 (−x − 1) + α3 (−2x2 + x + 1)


T (x2 + 1) = 2x = β1 (2x2 − 2) + β2 (−x − 1) + β3 (−2x2 + x + 1)
T (−x3 − 1) = −3x2 = γ1 (2x2 − 2) + γ2 (−x − 1) + γ3 (−2x2 + x + 1)
T (x2 + x) = 2x + 1 = δ1 (2x2 − 2) + δ2 (−x − 1) + δ3 (−2x2 + x + 1)

luego se procede a encontrar los valores de los αi , βi , γi y δi


   
α1 β1 γ1 δ1 1/2 1 0 1/2
   
B2  
∴ [AT ]B1 = α2 β2 γ2 δ2  =  −1  −1 3/2 −3/2

α3 β3 γ3 δ3 −1 1 3/2 1/2
Walter Arriaga Delgado Algebra Lineal 153

ahora para obtener la transformación del polinomio q(x) = −x3 + 2x2 − x + 3


usaremos la ecuación
[T (q(x))]B2 = [AT ]B
B1 [q(x)]B1
2

luego

−x3 + 2x2 − x + 3 = ω1 (x3 − x) + ω2 (x2 + 1) + ω3 (−x3 − 1) + ω4 (x2 + x)

hallando los valores de los ωi se obtiene [q(x)]B1 = (−1/2, 7/2, 1/2, −3/2) de donde
 
  −1/2  
1/2 1 0 1/2   5/2
  7/2   
[T (q(x))]B2 =  −1 −1 3/2 −3/2    =  0 
   1/2   
−1 1 3/2 1/2   4
−3/2

finalmente para obtener la imagen buscada se realiza una combinación lineal con
[T (q(x))]B2 y los vectores de la base B2
5
(2x2 − 2) + 0(−x − 1) + 4(−2x2 + x + 1) = −3x2 + 4x − 1
2
al aplicar directamente la regla de asignación sobre el polinomio se tiene
d
(−x3 + 2x2 − x + 3) = −3x2 + 4x − 1
dx
que es el mismo resultado obtenido anteriormente.
6. Dados los espacios vectoriales V = R2  yW R3 , hallar la transformación lineal
=
2 1
 
T : V −→ W asociada a la matriz A =  −1 0
, con bases B1 = {(1, 1), (2, 0)} de
−1 1
V y B2 = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} de W
Solución
Sea v = (x, y) ∈ V , podemos expresarlo como combinación lineal de elementos de
la base B1
(x, y) = α(1, 1) + β(2, 0)

de donde α = y y β = (x − y)/2, es decir (x, y)B1 = (y , (x − y)/2) ó también


" # " #
x y
=
y (x − y)/2
B1

ahora usaremos la ecuación

[T (v)]B2 = [AT ]B
B1 [v]B1
2
154 Algebra Lineal Walter Arriaga Delgado

   
2
1 ! (x + 3y)/2
  y  
[T (v)]B2 =  
−1 0 (x − y)/2 =  −y 

−1 1 (x − 3y)/2
luego para obtener la transformación lineal se realiza una combinación lineal con
[T (v)]B2 y los vectores de la base B2
x + 3y x − 3y
T (x, y) = (1, 0, 0) − y(1, 1, 0) + (1, 1, 1)
2 2
x − 5y x − 3y
∴ T (x, y) = (x − y , , )
2 2
Walter Arriaga Delgado Algebra Lineal 155

✍ EJERCICIOS PROPUESTOS 3.

I. Transformaciones Lineales

1) Determinar cuales de las siguientes aplicaciones son transformaciones lineales. Con-


sidere K = R.
1.1) T : R −→ R definido por:
T (x) = mx Rpta. Si
T (x) = |x| Rpta. No
T (x) = x + 1 Rpta. No
T (x) = sen x Rpta. No
T (x) = ex Rpta. No
1.2) T : R −→ R2 definido por:
T (x) = (x, 3x) Rpta. Si
T (x) = (x, x2 ) Rpta. No
1.3) T : R2 −→ R definido por:
T (x, y) = 2x − 3y Rpta. Si
T (x, y) = xy Rpta. No
1.4) T : R2 −→ R2 definido por:
T (x, y) = (2x, y) Rpta. Si
T (x, y) = (x + 2y, x + 3y) Rpta. Si
√ √
T (x, y) = ( 3 x, 3 y) Rpta. No
1.5) T : R2 −→ R3 definido por:
T (x, y) = (x + y, x − y, −x) Rpta. Si
T (x, y) = (x + 3y, 1, y − x) Rpta. No
1.6) T : R3 −→ R2 definido por:
T (x, y, z) = (x + y, x + z) Rpta. Si
T (x, y, z) = (2x + 3y, x + y + 1) Rpta. No
1.7) T : R3 −→ R3 definido por:
T (x, y, z) = (x + y + z, 2y − 3z, x + 2z) Rpta. Si
T (x, y, z) = (x + 1, y + 2, z + 3) Rpta. No
T (x, y, z) = (x, y 2 , z 3 ) Rpta. No
1.8) T : R4 −→ R2 definido por:
T (x, y, z, w) = (xz, yw) Rpta. No
156 Algebra Lineal Walter Arriaga Delgado

T (x, y, z, w) = (ex+y , ln(z + w)) Rpta. No


1.9) T : R −→ Rn definido por:
T (x) = (x, x, . . . , x) Rpta. Si
T (x) = (x, 2x, . . . , nx) Rpta. Si
1.10) T : Rn −→ R definido por:
T (x1 , x2 , . . . , xn ) = πi (x1 , x2 , . . . , xn ) = xi
(Proyección a la i–ésima coordenada) Rpta. Si
n
X
T (x1 , x2 , . . . , xn ) = x1 + x2 + · · · + xn = xi Rpta. Si
i=1
Xn
T (x1 , x2 , . . . , xn ) = x21 + x22 + · · · + x2n = x2i Rpta. No
i=1
1.11) T : Rn −→ Rm definido por:
T (X) = AX, donde A es una matriz de orden m × n
1.12) T : M2×2 −→ R definido por:
" #!
a b
T = a+b+c+d Rpta. Si
c d
" #!
a b
T = a2 + d2
c d
T (A) = Traz(A) Rpta. Si
T (A) = det(A) Rpta. No
1.13) T : R2 −→ M2×2 definido por:
" #
x y+1
T (x, y) =
x 0
" #
x−y 0
T (x, y) =
0 x+y
1.14) T : M2×2 −→ M2×3 definido por:
T (A) = AB, donde B es una matriz fija de orden 2 × 3
1.15) T : Mn×n −→ R definido por:
T (A) = traz(A)
1.16) T : Mn×n −→ Mn×n definido por:
T (A) = A + I
T (A) = AB, donde B es una matriz fija de orden n × n
T (A) = AB + BA, donde B es una matriz fija de orden n × n
T (A) = AT A
1.17) T : Mm×n −→ Mn×m definido por:
Walter Arriaga Delgado Algebra Lineal 157

T (A) = AT
1.18) T : C[0, 1] −→ R definido por:
Z 1
T (f ) = f (x)dx
0
Z 1
T (f ) = f (x)g(x)dx, donde g es una función fija en C[0, 1]
0
1.19) T : P2 [x] −→ P2 [x] definido por:
T (a + bx + cx2 ) = (a − b) + (b + c)x + (a − c)x2
T (a0 + a1 x + a2 x2 ) = a0 + (a1 + a2 )x + (a2 − a0 )x2
1.20) D : Pn [x] −→ Pn−1 [x] definido por:
D(a0 + a1 x + a2 x2 + · · · + an xn ) = a1 + 2a2 x + 3a3 x2 + · · · + nan xn−1
1.21) I : Pn [x] −→ Pn+1 [x] definido por:
a1 2 a2 3 an
I(a0 + a1 x + a2 x2 + · · · + an xn ) = a0 x + x + x + ··· + xn+1
2 3 n+1
1.22) T : D(R, R) −→ D(R, R) definido por:
d
T (f (x)) = (f (x))
dx
1.23) T : I(R, R) −→Z I(R, R) definido por:
T (f (x)) = f (x)dx

2) Hallar la transformación lineal T en los siguientes ejercicios:

2.1) T : R2 −→ R
T (1, 1) = 2, T (0, 1) = 1
Rpta. T (x, y) = x + y
2.2) T : R2 −→ R2
T (1, 1) = (2, 0),  T (0, 2) = (3, 1)
3y + x y − x
Rpta. T (x, y) = ,
2 2
T (1, 0) = (3, 4), T (0, 1) = (−1, 2)
Rpta. T (x, y) = (3x − y , 4x + 2y)
2.3) T : R2 −→ R3
T (1, 1) = (1, 2, 0), T (1, 2) = (1, 0, −1)
Rpta. T (x, y) = (x , 4x − 2y , x − y)
T (1, 2) = (1, 0, 2),
 T (2, 1) = (0, 2, −1) 
2y − x 4x − 2y 5y − 4x
Rpta. T (x, y) = , ,
3 3 3
T (1, 2) = (1, 0, −1),
 T (2, 1) = (2,1, −2)
2x − y
Rpta. T (x, y) = x , , −x
3
2.4) T : R3 −→ R
158 Algebra Lineal Walter Arriaga Delgado

T (1, 1, 1) = 3, T (0, 1, −1) = 1, T (0, 0, 1) = −2


Rpta. T (x, y, z) = 6x − y − 2z
2.5) T : R3 −→ R2
T (1, −1, −1) = (1, 2), T (1, −1, 0) = (3, 4), T (1, 0, 0) = (5, 6)
Rpta. T (x, y, z) = (5x + 2y + 2z , 6x + 2y + 2z)
T (1, −1, −1) = (1, 2), T (1, −1, 0) = (3, 4), T (1, 0, 0) = (−1, −1)
Rpta. T (x, y, z) = (2z − x − 4y , 2z − x − 5y)
T (1, 0, 2) = (1, 3), T (2, −1, 1) = (1, 3), T (3, 2, 1) = (5, 4)
Rpta. T (x, y, z) = (x + y , x + z)
2.6) T : R3 −→ R3
T (1, 0, 2) = (1, 3, 2), T (2, 3, −1) = (5, 1, 2), T (−2, −1, 1) = (−3, −1, 0)
Rpta. T (x, y, z) = (x + y , x + z , y + z)
T (1, −1, 2) = (2, 4, 0), T (2, −2, 3) = (3, 7, 1), T (5, 3, 1) = (9, 3, 1)
Rpta. T (x, y, z) = (x + y + z , x − y + z , x − y − z)
T (1, 1, 1) = (2, 2, 2), T (1, 2, 3) = (3, 6, 2), T (1, 0, 0) = (2, −1, 1)
Rpta. T (x, y, z) = (2x − y + z , −x + 2y + z , x + 2y − z)
T (1, 3, −2) = (2, 1, 5), T (2, 3, 1) = (−1, 3, 4), T (−4, 2, 1) = (5, 2, −2)
 
30y − 54x − 31z 2x + 37y + 32z 41x + 48y − 30z
Rpta. T (x, y, z) = , ,
49 49 49
T (1, 2, 3) = (0, 2, 1), T (4, 5, 6) = (0, 1, 1), T (7, 8, 1) = (1, 1, 1)
 
2y − x − z −67x + 62y − 3z
Rpta. T (x, y, z) = , , −x + y
8 24
II. Clasificación de las transformaciones lineales

1) En la lista de ejercicios (I) determinar si las transformaciones lineales son monomor-


fismos, epimorfismos, isomorfismos, automorfismos o endomorfismos.
2) Sean T : V −→ W y S : W −→ Z transformaciones lineales.
Probar que si T y S son suryectivas, entonces ST es suryectiva.
Probar que si T y S son inyectivas, entonces ST es inyectiva.
Probar que si S no es suryectiva, entonces ST no es suryectiva.
Probar que si T no es inyectiva, entonces ST no es inyectiva.
Puede ser S suryectiva y ST no?
Puede ser T inyectiva y ST no?

III. Núcleo e imagen de una transformación lineal

1) Dadas las siguientes transformaciones lineales, determinar el núcleo Ker(T ), la imagen


Im(T ), la nulidad ν(T ) y el rango ρ(T )
Walter Arriaga Delgado Algebra Lineal 159

4.1) T : R2 −→ R
T (x, y) = x − 2y Rpta. ν(T ) = 1, ρ(T ) = 1
4.2) T : R2 −→ R2
T (x, y) = (x − y, y) Rpta. ν(T ) = 0, ρ(T ) = 2
T (x, y) = (x − 2y, −x + y) Rpta. ν(T ) = 0, ρ(T ) = 2
4.3) T : R2 −→ R3
T (x, y) = (x + y, x − y, x + 2y)
T (x, y) = (x − 2y, 2x − y, x + y)
T (x, y) = (x − y, x + y, 2x + 3y)
4.4) T : R3 −→ R2
T (x, y, z) = (x + y, x − y)
T (x, y, z) = (x, y − z)
T (x, y, z) = (x + y + z, y + z)
T (x, y, z) = (x − y − z, 2x − y − z)
T (x, y, z) = (x − y + z, 2x − y + 2z)
4.5) T : R3 −→ R3
T (x, y, z) = (x − y, 2z − y, x − 2z)
T (x, y, z) = (x + 3y + 4z, 3x + 4y + 7z, −2x + 2y)
T (x, y, z) = (x + 2y − z, y + z, x + y − 2z)
T (x, y, z) = (x − y + z, x + z, 2x − y + 2z)
T (x, y, z) = (x − 2y + z, 2x + y − z, x + 3y − 2z)
4.6) T : R4 −→ R2
T (x, y, z, w) = (x + y − z, x − z + w)
4.7) T : R4 −→ R3
T (x, y, z, w) = (x − y + 2z + 3w, y + 4z + 3w, x + 6z + 6w)
4.8) T : R4 −→ R4
T (x, y, z, w) = (z + w − y, 2x − 2z, x + 3y − 2z + 3w, y − x + z + 2w)
T (x, y, z, w) = (x − y + 2z + w, −x + z + 2w, x − 2y + 5z + 4w, 2x − y + z − w)
4.9) T : R5 −→ R4
T (x, y, z, u, w) = (x + 2y + u + 3w, y + z + w, x + 3y + z + u + 4w, −2x − 3y +
z − 2u − 5w)
T (x, y, z, u, w) = (x − y + z + w, 2x − y + 2z − w, x + z − 2w, u + x)
4.10) T : R2 −→ M2×2
160 Algebra Lineal Walter Arriaga Delgado

!
x+y 0
T (x, y) =
0 x+y
4.11) T : Mn×n −→ Mn×n
T (A) = A − At
4.12) T : P3 [x] −→ P2 [x]
T (a0 + a1 x + a2 x2 + a3 x3 ) = a1 + a2 x2
2) Determinar la transformación lineal T : Rm −→ Rn , tal que:
a) m = 4, n = 3, Ker(T ) = h(2, 1, −1, 2); (3, 0, 1, −1)i
b) m = 4, n = 3, Ker(T ) = h(2, −1, 0, 1); (3, 1, 1, −2)i
c) m = 3, n = 2, Ker(T ) = h(1, 2, 3)i
d) m = 3, n = 2, Ker(T ) = h(0, 1, −1); (2, 1, 3)i
e) m = 4, n = 4, Ker(T ) = h(1, 0, 1, 1); (0, 1, 1, 1)i,
T (1, 1, 0, 1) = (1, 0, 0, 1), T (1, 1, 1, 0) = (0, 1, 1, 0)
3) Para cada una de las siguientes transformaciones lineales calcular el núcleo y la ima-
gen; describir ambos subespacios implı́cita y paramétricamente.
1) D : P3 [x] −→ P3 [x], D(p(x)) = p′ (x)
2) T : M2×2 −→ R, T (A) = traz(A)
!
a b+c
3) L : P2 [x] −→ M2×2 , L(ax2 + bx + c) =
b+c a
4) Q : P3 [x] −→ P4 [x], Q(p(x)) = (x + 1)p(x)

IV. Matriz asociada a una transformación lineal


Dados los espacios vectoriales V y W , hallar la matriz asociada a la transformación lineal
T : V −→ W , con bases B1 de V y B2 de W , donde:

1) V = R2 , W = R2
T (x, y) = (x + y , x − y)
B1 = {(1, −1); (−3, 2)}, B2 = {(1, −1); (−3, 2)}
" #
B2 −6 17
Rpta. [AT ]B1 =
−2 6
2) V = R2 , W = R3
T (x, y) = (x + y , x − y , x + 2y)
B1 = {(1, 2); (2, 0)}, B2 = {(1, 0, 0); (0, 2, 0); (0, 0, 3)}
 
3 2
 
Rpta. [AT ]B2
= −1/2 1 
B1  
5/3 2/3
Walter Arriaga Delgado Algebra Lineal 161

T (x, y) = (x + y , x − y , 2x)
B1 = {(1, 1); (0, 2)}, B2 = {(1, 1, 1); (1, 1, 0); (1, 0, 0)}
 
2 0
 
Rpta. [AT ]B2
= −2 −2
B1  
2 4

3) V = R3 , W = R2

T (x, y, z) = (x − 2z , y + z)
B1 = {(1, 1, 1); (2, 2, 0); (3, 0, 0)}, B2 = {(2, 0); (0, 2)}
" #
−1/2 1 3/2
Rpta. [AT ]B
B1 =
2

1 1 0
T (x, y, z) = (2x + y − z , x − 3z)
B1 = {(1, 1, 1); (1, 1, −1); (1, −1, −1)}, B2 = {(1, 1); (1, 0)}
" #
B2 −2 5 4
Rpta. [AT ]B1 =
4 1 −2
T (x, y, z) = (2x + y + z , y − 3z)
B1 = {(1, 0, 1); (1, 1, 0); (1, 1, 1)}, B2 = {(1, −1); (2, 3)}
" #
B2 3 7/5 16/5
Rpta. [AT ]B1 =
0 4/5 2/5
T (x, y, z) = (2x − 3y + 4z , 5x − y + 2z)
B1 = {(1, 1, 1); (1, 1, −1); (1, 2, 0)}, B2 = {(1, −1); (1, 0)}
" #
−6 −2 −3
Rpta. [AT ]B
B1 =
2

9 −3 −1
T (1, 1, 0) = (1, 2), T (0, 0, 1/2) = (2, 0), T (3, 0, 0) = (6, 9)
B1 = {(1, 1, 0); (0, 0, 1/2), (3, 0, 0)}, B2 = {(2, 3); (1, 0)}
" #
B2 2/3 0 3
Rpta. [AT ]B1 =
−1/3 2 0

4) V = R3 , W = R3

T (x, y, z) = (−z , x + y , y)
B1 = {(1, 0, 0); (2, 1, 0); (3, 1, 2)}, B2 = {(2, 1, 0); (1, 0, 2); (0, 0, 1)}
 
1 3 4
 
Rpta. [AT ]B 2
= −2 −6 −10
B1  
4 13 21
T (x, y, z) = (y − z , x + y , x − y + z)
B1 = {(1, 0, 0); (2, 1, 0); (3, 1, 2)}, B2 = {(2, 1, 0); (1, 0, 2); (0, 0, 1)}
162 Algebra Lineal Walter Arriaga Delgado

 
1 3 4
 
Rpta. [AT ]B  
B1 = −2 −5 −9
2

5 11 22

5) V = R3 , W = R4

T (x, y, z) = (x + y , y − 2z , 2x + y , 2x + 3z)
B1 = {(1, 0, 2); (0, 1, 3); (1, 2, 3)},
B2 = {(1, 1, 1, 1); (1, −1, 1, 1); (1, −1, −1, 1); (1, −1, −1, −1)}
 
−3/2 −2 −1/2
 
 3 3 4 
 
Rpta. [AT ]B
B1
2
=  
 3 4 7/2 
 
−7/2 −4 −4

6) V = R4 , W = R3

T (x, y, z, w) = (x + 2y , 3y + 4z , −2x + 5w)


B1 = {(1, 0, 0, 0); (1, 1, 0, 0); (1, 1, 1, 0); (1, 1, 1, 1)},
B2 = {(1, 0, 0); (0, 1, 0); (0, 1, 1)}
 
1 3 3 3
 
B2 
Rpta. [AT ]B1 =  2 5 9 4

−2 −2 −2 3

7) V = R4 , W = R4

T (1, 0, 0, 0) = (2, 3, 4, 5), T (0, 2, 9, 0) = (1, 4, 0, 6), T (0, 0, 1, 1) = (0, 3, 2, 0),


T (0, 0, 1, 0) = (3, 0, 2, 4)
B1 = {(1, 0, 0, 0); (0, 2, 9, 0); (0, 0, 1, 1); (0, 0, 1, 0)},
B2 = {(1, 0, 0, 0); (0, 2, 9, 0); (0, 0, 1, 1); (0, 0, 1, 0)}
 
2 1 0 3
 
 3/2 2 3/2 0 
 
Rpta. [AT ]B
B1
2
=  
 5 6 0 4 
 
−29/2 −24 −23/2 −2

8) V = R3 , W = M2×2
!
x y
T (x, y, z) =
x−z x+z
B1 = {(0, 2, 1); (2, 0, 1); (0, 1, 1)},
( ! ! ! !)
1 1 1 0 0 0 0 1
B2 = ; ; ;
1 1 1 1 0 1 1 1
Walter Arriaga Delgado Algebra Lineal 163

 
3 1 2
 
−3 −2
1
 
Rpta. [AT ]B2
B1 = 
2 2 2
 
−1 −1 −1

9) V = M2×2 , W = R3
!
x y
T = (x + y − z , x + y + w , y + z + w)
z w
( ! ! ! !)
1 1 1 0 0 0 0 1
B1 = ; ; ; ,
1 1 1 1 0 1 1 1
B2 = {(0, 2, 1); (2, 0, 1); (0, 1, 1)}
 
3 1/2 0 2
 
Rpta. [AT ]B  0
B1 = 1/2 1/2 0
2

−2 −1 0 −3

10) T : P2 [x] −→ R3

T (p) = (p(0), p(1), p′ (1))


B1 = {x2 , x , 1}, B2 = {(1, 0, 0) , (0, 1, 0) , (0, 0, 1)}
 
0 0 1
 
Rpta. [AT ]B1 = 
B2
1 1 1
2 1 0

11) V = P3 [x], W = P2 [x]

T (ax3 + bx2 + cx + d) = bx2 + c


B1 = {x3 , x2 , x , 1}, B2 = {x2 , x , 1}
 
0 1 0 0
 
Rpta. [AT ]B  
B1 = 0 0 0 0
2

0 0 1 0

Dados los espacios vectoriales V y W , hallar la transformación lineal T : V −→ W


asociada a la matriz A, con bases B1 de V y B2 de W , donde:
 
2
1
 
1) A = 
−1 0

−1 1
V = R2 , W = R3 , B1 = {(1, 1), (2, 0)}, B2 = {(1, 0, 0), (1, 1, 0), (1, 1, 1)}
x − 5y x − 3y
Rpta. T (x, y) = (x − y , , )
2 2
164 Algebra Lineal Walter Arriaga Delgado

 
1
3
 
2) A = 
 0 2

−2 1
V = R2 , W = R3 , B1 = {(2, 1), (1, 1)}, B2 = {(0, 1, 1), (1, 1, 1), (−1, −2, 0)}
Rpta. T (x, y) = (−x , y − 3x , 9y − 5x)
!
3 1 2
3) A =
−1 1 0
V = R3 , W = R2 , B1 = {(1, 0, 1), (0, 0, 1), (2, 1, 0)}, B2 = {(1, 1), (0, 1)}
Rpta. T (x, y, z) = (2x − 2y + z , 2y + 2z)
!
1 1 −2
4) A =
−1 −1 2
V = R3 , W = R2 , B1 = {(2, 1, 0), (−1, 0, 1), (0, 1, 1)}, B2 = {(1, −2), (0, 3)}
Rpta. T (x, y, z) = (4x − 7y + 5z , 35y − 25z − 20x)

V. Operaciones con transformaciones lineales


Dados los espacios vectoriales V y W y sean las transformaciones lineales f : V −→ W
y g : V −→ W con bases B1 de V y B2 de W , donde:

1) V = R2 , W = R2
f (x, y) = (x + y , x − y)
g(x, y) = (2x + 3y , 3x − 2y)
B1 = {(1, −1); (−3, 2)}
B2 = {(1, −1); (−3, 2)}
Hallar: Af , Ag , Af +g , Af −g , A2f +3g , Af 2 , Ag2 , Af g , Agf , Af −1 , Ag−1 .

Dados los espacios vectoriales V y W y sean las transformaciones lineales f : V −→ W


y g : W −→ V con bases B1 de V y B2 de W , donde:

1) V = R3 , W = R2
f (x, y, z) = (x − y , y + z)
g(x, y) = (x + y , x − y , 2x + 3y)
B1 y B2 son las bases canónicas
Hallar: f ◦ g, g ◦ f .
5

VALORES Y VECTORES
PROPIOS. DIAGONALIZACIÓN

Objetivos
z Determinar los valores propios y los vectores propios de una matriz cuadrada asociada
a un endomorfismo.

z Interpretar geométricamente el significado de un autovalor y de los autovectores asocia-


dos a él.

z Aplicar la diagonalización de matrices en el cálculo de la potencia n−ésima de una ma-


triz diagonalizable.

5.1. Valores y vectores propios

El cálculo de los valores propios y de los vectores propios de una matriz simétrica tiene
gran importancia en las matemáticas y en la ingenierı́a, entre los que cabe destacar, el proble-
ma de la diagonalización de una matriz, ecuaciones diferenciales, sistemas dinámicos discretos
y continuos, el cálculo de los momentos de inercia y de los ejes principales de inercia de un
sólido rı́gido, o de las frecuencias propias de oscilación de un sistema oscilante, estabilidad de
sistemas lineales, diseño de sistemas electrónicos, análisis de sistemas eléctricos de generación,
transporte y demanda de energı́a eléctrica, análisis de estructuras y ceros de funciones trans-
ferencia, etc.

165
166 Algebra Lineal Walter Arriaga Delgado

Un poco de historia

Los valores y vectores propios pertenecen a los temas de mayor utilidad del álgebra lineal.
Se usan en varias áreas de la matemática, fı́sica, mecánica, ingenierı́a eléctrica y nuclear,
hidrodinámica, aerodinámica, etc. De hecho, es raro encontrar un área de la ciencia aplicada
donde nunca se hayan usado.
Puede parecer muy extraño, pero los valores propios de las matrices aparecieron publicados
antes que las matrices. Esto se debe al hecho insólito de que parafraseando a Cailey, la teorı́a
de las matrices estaba bien desarrollada (a través de la teorı́a de los determinantes) antes de
que siquiera se definieran las matrices. Según Morris Kline, los valores propios se originaron
en el contexto de formas cuadráticas y en la mecánica celeste (el movimiento de los planetas),
conociéndose como raı́ces caracterı́sticas de la ecuación escalar. Desde aproximadamente 1740,
Euler usaba de manera implı́cita los valores propios para describir geométricamente las formas
cuadráticas en tres variables.
En la década de 1760, Lagrange estudió un sistema de seis ecuaciones diferenciales del
movimiento de los planetas (sólo se conocı́an seis) y de ahı́ dedujo una ecuación polinomial
de sexto grado, cuyas raı́ces eran los valores propios de una matriz 6 × 6. En 1820, Cauchy
se dio cuenta de la importancia de los valores propios para determinar los “ejes principales”
de una forma cuadrática con n variables. También aplicó sus descubrimientos a la teorı́a
del movimiento planetario. Fue Cauchy quien, en 1840, usó por primera vez los términos
valores caracterı́sticos y ecuación caracterı́stica para indicar los valores propios y la ecuación
polinomial básica que satisfacen.

Definición 5.1.1. Sea V un K− espacio vectorial y T : V −→ V un endomorfismo, un


número λ ∈ K es un valor propio de T , si existe un vector no nulo en V , tal que:

T (v) = λv

Como a cada transformación lineal T se le asocia una matriz A, podemos definir también
el valor propio de la siguiente manera: Un número λ ∈ K es un valor propio de la matriz
An×n , si existe un vector no nulo en V , tal que:

Av = λv (5.1)

El vector v 6= 0 correspondiente al valor propio λ, se llama vector propio.


Walter Arriaga Delgado Algebra Lineal 167

Nota 5.1.1. La palabra “eigen” es la palabra alemana para “propio”. Los eigenvalores tam-
bién se llaman autovalores, valores propios o valores caracterı́sticos. Los eigenvectores
reciben el nombre de autovectores, vectores propios o vectores caracterı́sticos.

Observación 5.1.1.

Observemos que mientras un vector propio debe ser no nulo (el vector 0 no se considera
vector propio) un valor propio sı́ puede ser nulo (el escalar 0 sı́ puede ser valor propio).

Todo vector propio va asociado a un único valor propio (se dirá que es el valor propio
asociado a ese vector propio).

Evidentemente, si tenemos un autovalor para una matriz A, el autovector asociado no es


único (todos los proporcionales también lo son), de hecho, es fácil ver que forman un conjunto
particular tal y como señalamos en la siguiente definición.

Definición 5.1.2. (Subespacio propio) Al conjunto de todos los autovectores asociados a


un autovalor λ junto con el vector 0, es decir Aλ = {x / Av = λv} ∪ {0}, se le llama
subespacio propio asociado al autovalor λ (de hecho, es un subespacio vectorial, es decir,
suma de autovectores asociados a un mismo autovalor también es autovector, y lo mismo
cabe esperar del producto de un escalar por un autovector; también se suele expresar como
subespacio invariante del endomorfismo).

Ahora, en la ecuación (5.1) podemos escribir Av − λv = 0, o sacando factor común,


(A − λI)v = 0 lo cual significa que v ∈ Ker(A − λI). Esta última relación representa un sis-
tema homogéneo. Recordemos que para que un sistema homogéneo admita solución distinta
de la trivial, debe ocurrir que el rango no sea máximo, o dicho de otro modo, que tras aplicar
el método de reducción de Gauss obtengamos al menos una fila completa de ceros, o equiva-
lentemente (y lo que más se suele usar para calcularlo), que el determinante de la matriz del
sistema sea cero. Por tanto, tenemos el siguiente teorema:

Teorema 5.1.1. Sea A una matriz de orden n × n, entonces λ es un valor propio de A si y


sólo si

P (λ) = det(λI − A) = 0 (5.2)


168 Algebra Lineal Walter Arriaga Delgado

La ecuacion (5.2) se llama ecuación caracterı́stica de A, donde:




λ − a11 −a12 −a13 ··· −a1n


−a21 λ − a22 −a23 ··· −a2n


|λI − A| = −a31 −a32 λ − a33 ··· −a3n = 0

.. ... ... .. ..
. . .


−an1 −an2 −an3 ··· λ − ann

Al determinante, que desarrollado es simplemente un polinomio en λ de grado menor o igual


que n, se le llama polinomio caracterı́stico de A:

P (λ) = |λI − A| = cn λn + cn−1 λn−1 + · · · + c1 λ + c0

Nota 5.1.2.

Contando multiplicidades, toda matriz n × n tiene exactamente n valores propios.

Si el cero es autovalor, eso es que P (λ) = |λI − A| se anula cuando λ = 0, entonces


P (0) = |A| = 0. Recı́procamente, si el determinante de una matriz es no nulo, el cero no
es autovalor.

Propiedades:

Sean A y B matrices cuadradas de orden n, se cumple:

La suma de los n valores propios de la matriz A es igual a su traza.


n
X
Traz(A) = λ1 + λ2 + λ3 + · · · + λn = λi
i=1

El producto de los n valores propios de la matriz A es igual a su determinante.


n
Y
det(A) = λ1 λ2 λ3 . . . λn = λi
i=1

Los valores propios de una matriz triangular (superior o inferior) son los valores de su
diagonal.

Autovalores distintos, λ1 6= λ2 , no tienen autovectores comunes: Aλ1 ∩ Aλ2 = {0}. Es


decir, un autovector v admite sólo un autovalor. (El recı́proco, en general, no es cierto.)
Walter Arriaga Delgado Algebra Lineal 169

A y At tienen los mismos autovalores.


En efecto, |λI − At | = |λI t − At | = |(λI − A)t | = |λI − A|, por tanto A y At tienen los
mismos autovalores.

AB y BA tienen los mismos autovalores.


En efecto, |λI − AB| = |λIAA−1 − ABAA−1 | = |A(λI)A−1 − A(BA)A−1 | = |A(λI −
BA)A−1 | = |A||λI − BA||A−1 | = |λI − BA|, por tanto AB y BA tienen los mismos
autovalores.

Si λ es autovalor de A, kλ es un autovalor de kA.


En efecto, si λ es autovalor de A entonces: Av = λv, con v autovector respecto de λ,
ahora, (kA)v = k(Av) = k(λv) = (kλ)v, por lo tanto kλ es un autovalor de kA y con v
autovector respecto de kλ.

Si λ es autovalor de A, λ − k es un autovalor de A − kIn .


En efecto, si λ es autovalor de A entonces: Av = λv, con v autovector respecto de λ,
ahora, (A − kIn )v = Av − kIn v = λv − kv = (λ − k)v, por lo tanto λ − k es un autovalor
de A − kIn .

Si λ es autovalor de A, y A es regular, λ−1 es un autovalor de A−1 .


En efecto, si λ es autovalor de A entonces: Av = λv, con v autovector respecto de
λ, ahora como A es regular entonces A−1 (Av) = A−1 (λv), luego v = λA−1 v, es decir
λ−1 v = A−1 v, de donde A−1 v = λ−1 v, por lo tanto λ−1 es un autovalor de A−1 .

Si λ es autovalor de A, λk es un autovalor de Ak .
En efecto, por inducción tenemos:

• Para h = 2, se verifica A2 v = A(Av) = A(λv) = λAv = λ(λv) = λ2 v, luego λ2 es


autovalor de A2 .

• Para h = k − 1, se supone que se cumple Ak−1 v = λk−1 v, luego λk−1 es autovalor


de Ak−1 .

• Para h = k, se prueba que: Ak v = A(Ak−1 v) = A(λk−1 v) = λk−1 (Av) = λk−1 (λv) =


λk v, luego λk es autovalor de Ak .

Por lo tanto para cualquier valor de k se cumple que λk es un autovalor de Ak .


170 Algebra Lineal Walter Arriaga Delgado

Los autovalores de un endomorfismo idempotente (T 2 = T , por tanto su matriz asociada


verifica que A2 = A) de un espacio vectorial son λ = 0 y λ = 1.

A manera de resumen, podemos esquematizar lo siguiente:

Matriz autovalor autovector


A λ v
kA kλ v
A − kIn λ−k v
A−1 λ−1 v
Ak λk v
In + A 1+λ v

En las siguientes propiedades estaremos refiriéndonos a valores o vectores propios indistin-


tamente para matrices o endomorfismos.

Definición 5.1.3. Si λ0 es una raı́z del polinomio caracterı́stico de A de multiplicidad α, se


dice que λ0 es un autovalor de orden α de A, a α se le llama multiplicidad algebraica de λ y
se denota ma (λ).

Definición 5.1.4. Se llama multiplicidad geométrica de λ, y se denota mg (λ), al número de


autovectores linealmente independientes asociados a λ.

En general, se cumple que: mg (λ) ≤ ma (λ)

Procedimiento para calcular valores y vectores propios

Se encuentra el polinomio caracterı́stico P (λ) = det(λI − A)

Se encuentran las raı́ces λ1 , λ2 , . . ., λm , de la ecuación caracterı́stica P (λ) = 0

Una vez resuelta la ecuación caracterı́stica y obtenidos los autovalores de A, para calcular
los autovectores se debe resolver el sistema homogéneo (λi I − A)v = 0, correspondiente
a cada valor propio λi

5.2. Diagonalización de una matriz

En general, hacer aritmética con matrices es costoso, sobre todo si hay que realizar multi-
plicaciones entre ellas. Sin embargo, los cálculos se facilitan si las matrices son triangulares y
Walter Arriaga Delgado Algebra Lineal 171

aún más si las matrices son diagonales. De otro lado, el cálculo de los valores propios de una
matriz triangular y en especial si es diagonal es trivial; por ello, serı́a conveniente encontrar
un procedimiento que nos permitiera relacionar los valores propios de una matriz con los de
una matriz triangular o diagonal.
Por ahora, veamos que si dos matrices son semejantes, algunas de sus caracterı́sticas o
propiedades son iguales; entre otras, sus valores propios son los mismos y los vectores propios
de una se pueden calcular a partir de los de la otra.

5.2.1. Matrices semejantes

Definición 5.2.1. Sean A y B dos matrices cuadradas de orden n. Decimos que A es semejante
a B si existe una matriz cuadrada P invertible tal que B = P −1 AP ó también P B = AP . La
matriz P es conocida como matriz de paso.

Teorema 5.2.1. Sean A y B dos matrices cuadradas de orden n y semejantes, entonces


|A| = |B|.

Demostración. Como A y B son semejantes entonces existe una matriz invertible P tal
que B = P −1 AP , luego: |B| = |P −1 AP | = |P −1 ||A||P | = |A|, por lo tanto |A| = |B|. 

Teorema 5.2.2. Sean A y B dos matrices cuadradas de orden n y semejantes, entonces A y


B tienen el mismo polinomio caracterı́stico y, por lo tanto, los mismos autovalores.

Demostración. Como A y B son semejantes entonces existe una matriz invertible P tal
que B = P −1 AP , luego:

|λI − B| = |P −1 λIP − P −1 AP | = |P −1 (λI − A)P | = |P −1 ||λI − A||P | = |λI − A|

por lo tanto, A y B tienen el mismo polinomio caracterı́stico y los mismos autovalores. 


172 Algebra Lineal Walter Arriaga Delgado

✍ EJERCICIOS PROPUESTOS 4.

I. Valores y vectores propios

1. Determinar los autovalores y autovectores correspondientes a la matriz:


 
4 −5
A= 
2 −3

Solución

Encontremos primero los autovalores, para ello


   

1 0 4 −5 λ−4 5

det(λI − A) = λ   −   =0
=
0 1 2 −3 −2 λ + 3

de donde: (λ − 4)(λ + 3) + 10 = 0, obteniéndose la ecuación caracterı́stica:

λ2 − λ − 2 = 0

resolviendo la ecuación se obtienen los dos valores propios:

λ1 = −1 λ2 = 2

encontremos ahora los correspondientes vectores propios:


Para λ1 = −1:
      
  
1 0 4 −5
x1 5 −5 x1
(λ1 I − A)v = (−1)  −    =    = 0
0 1 2 −3 x2 2 −2 x2

resolviendo el sistema se obtiene x1 = x2 , de donde


v = (x1 , x2 ) = (x1 , x1 ) = x1 (1, 1)
luego v1 = (1, 1) es un vector propio correspondiente a λ1 = −1
Para λ2 = 2:
         
1 0 4 −5 x1 2 −5 x
(λ2 I − A)v = 2  −    =    1 = 0
0 1 2 −3 x2 2 −5 x2

2
resolviendo el sistema se obtiene x2 = x1 , de donde
5
v = (x1 , x2 ) = (x1 , 25 x1 ) = 15 x1 (5, 2)
luego v2 = (5, 2) es un vector propio correspondiente a λ2 = 2
Walter Arriaga Delgado Algebra Lineal 173

2. Determinar los autovalores y autovectores correspondientes a la matriz:


 
−1 4 −2
 
 
A = −3 4 0 
 
−3 1 3

Solución

Encontremos primero los autovalores, para ello




λ + 1 −4 2


det(λI − A) = 3 λ−4 0 =0


3 −1 λ − 3

al efectuar el determinante se obtiene la ecuación caracterı́stica:

λ3 − 6λ2 + 11λ − 6 = 0

resolviendo la ecuación se obtienen los valores propios:

λ1 = 1 λ2 = 2 λ3 = 3

encontremos ahora los correspondientes vectores propios:


Para λ1 = 1:   
2 −4 2 x1
  
  
(λ1 I − A)v = 3 −3 0  x2  = 0
  
3 −1 −2 x3



2x1 − 4x2 + 2x3 = 0



 3x1 − 3x2 = 0




3x1 − x2 − 2x3 = 0

resolviendo el sistema se obtiene x1 = x2 = x3 , de donde


v = (x1 , x2 , x3 ) = (x1 , x1 , x1 ) = x1 (1, 1, 1)
luego v1 = (1, 1, 1) es un vector propio correspondiente a λ1 = 1
Para λ2 = 2:   
3 −4 2 x1
  
  
(λ2 I − A)v = 3 −2 0  x2  = 0
  
3 −1 −1 x3
174 Algebra Lineal Walter Arriaga Delgado





 3x1 − 4x2 + 2x3 = 0


 3x1 − 2x2 = 0




3x1 − x2 − x3 = 0

3 3
resolviendo el sistema se obtiene x2 = x1 , x3 = x1 , de donde
 2 2
3 3 x1
v = (x1 , x2 , x3 ) = x1 , x1 , x1 = (2, 3, 3)
2 2 2
luego v2 = (2, 3, 3) es un vector propio correspondiente a λ2 = 2
Para λ3 = 3:   
4 −4 2 x1
  
  
(λ3 I − A)v = 3 −1 0 x2  = 0
  
3 −1 0 x3


4x1 − 4x2 + 2x3 = 0




 3x1 − x2 = 0




3x1 − x2 = 0

resolviendo el sistema se obtiene x2 = 3x1 , x3 = 4x1 , de donde


v = (x1 , x2 , x3 ) = (x1 , 3x1 , 4x1 ) = x1 (1, 3, 4)
luego v3 = (1, 3, 4) es un vector propio correspondiente a λ3 = 3
Walter Arriaga Delgado Algebra Lineal 175

✍ EJERCICIOS PROPUESTOS 5.

I. Valores y vectores propios

Determinar los autovalores y autovectores correspondientes a las siguientes matrices:


  

 λ1 = −1; vp1 = (−1, 1)
1 2
1)   Rpta.
2 1 
 λ = 3;
2 vp2 = (1, 1)
  

 λ1 = 1; vp1 = (1, −2)
1 0
2)   Rpta.
2 2 
 λ = 2; v = (0, 1)
2 p2
 

1 1
3)   Rpta. λ1 = 1; vp1 = (1, 0)
0 1
  

 λ1 = 1; vp1 = (1, −2)
5 2
4)   Rpta.
2 2 
 λ = 6; v = (2, 1)
2 p2
  

 λ1 = 1; vp1 = (3, 4)
5 −3
5)   Rpta.
4 −2 
 λ = 2; v = (1, 1)
2 p2
  
 √ √
9 −3  λ1 = 4 − 13; vp1 = (5 − 13 , 4)
6)   Rpta.
4 −1  λ = 4 + √13; v = (5 + √13 , 4)

2 p2
  

 λ1 = 1/2; vp1 = (1, 1)
9/16 −1/16
7)   Rpta.
−3/16 11/16 
 λ = 3/4; v = (1, −3)
2 p2
 
 
1 0 0  
    vp1 = (1, 0, 0)
 
8) 1 1 1 Rpta. λ1 = 1;
  
 
 v = (0, 0, 1)
p2
0 0 1

  

 λ1 = −1; vp1 = (2, −1, 1)
0 1 −1 

  
 
9)  1 1 0  Rpta. λ2 = 1; vp2 = (0, 1, 1)
  



−1 0 1 
 λ3 = 2; vp3 = (−1, −1, 1)

  

 λ1 = 0; vp1 = (1, 1, 1)
1 −1 0 

  
 
10) −1 2 −1 Rpta. λ2 = 1; vp2 = (1, 0, −1)
  



0 −1 1 
 λ3 = 3; vp3 = (1, −2, 1)
176 Algebra Lineal Walter Arriaga Delgado


  

 λ1 = 1; vp1 = (−1, 1, 2)
1 2 −1 

  
 
11) 1 0 1 Rpta. λ2 = 2; vp2 = (−2, 1, 4)
  



4 −4 5 
 λ3 = 3; vp3 = (−1, 1, 4)
 
1 0 0
 
 
12) −3 1 0 Rpta. λ1 = −1; vp1 = (2, −1, 1)
 
4 −7 1
 

3 1 −1 
   λ1 = 1; vp1 = (1, 0, 2)
 
13) 2 2 −1 Rpta.
  
 λ = 2; v = (1, 1, 2)
2 p2
2 2 0
 
   
1 
  vp1 = (0, 0, 1)
1 4 0 

   λ1 = 1;
 1  
 v = (1, 0, 0)
14) 0 0 Rpta. p2
 2  



 λ2 = 1 ;
1 
0 4 1 vp3 = (1, −2, 1)
 2 
   

  vp1 = (−1, 0, 1)
2 1 1 

   λ1 = 1;
  
 v = (−1, 1, 0)
15) 2 3 2 Rpta. p2
  



3 3 4 
 λ2 = 7; vp3 = (1, 2, 3)

  

 λ1 = 2; vp1 = (1, 1, 0)
2 0 3 

  
 
16) −1 3 1 Rpta. λ2 = 3; vp2 = (0, 1, 0)
  



0 0 5 
 λ3 = 5; vp3 = (1, 0, 1)

  

 λ1 = 1; vp1 = (−1, 1, 0)
2 1 3 

  
 
17) 1 2 3  Rpta. λ2 = 2; vp2 = (−3, −3, 1)
  



3 3 20 
 λ3 = 21; vp3 = (1, 1, 6)

  

 λ1 = 1; vp1 = (−3, 1, −3)
5 −6 −6 

   
  
18) −1 4 2 Rpta.  vp2 = (2, 0, 1)
  
 λ = 2;

 2
3 −6 −4 
 
 v = (2, 1, 0)
p2
 
   

  vp1 = (−1, 0, 1)
1 −3 3 

   λ1 = −2;
  
 v = (1, 1, 0)
19) 3 −5 3 Rpta. p2
  



6 −6 4 
 λ2 = 4; vp3 = (1, 1, 2)
Walter Arriaga Delgado Algebra Lineal 177

 

−3 1 −1 
   λ1 = −2; vp1 = (1, 1, 0)
 
20) −7 5 −1 Rpta.
  
 λ = 4;
2 vp2 = (0, 1, 1)
−6 6 −2

  

 λ1 = 0; vp1 = (1, 1, 4)
3 1 −1 

  
 
21) 1 3 −1 Rpta. λ2 = 2; vp2 = (1, 0, 1)
  



3 1 −1 
 λ3 = 3; vp3 = (1, 1, 1)

  

 λ1 = 1; vp1 = (−2, 1, 0)
6 −28 10 

  
 
22) −2 −3 4  Rpta. λ2 = −2; vp2 = (1, 2, 1)
  



1 2 −7 
 λ3 = −3; vp3 = (2, 1, 1)
 

2 1 0 
   λ1 = 2; vp1 = (1, 0, 0)
 
23) 0 1 −1 Rpta.
  
 λ = 3; v = (1, 1, −2)
2 p2
0 2 4
  
−1 0 0 −2 

  
 λ1 = −3; vp1 = (0, 3, 2, 0)
  

 0 −3 0 −4

24)   Rpta. λ2 = −1; vp2 = (1, 0, 1, 0)
 
−1 −2 0 0  

  

 λ3 = 0; vp3 = (0, 0, 1, 0)
0 0 0 −1

  


 λ1 = −3; vp1 = (0, 0, 1, −2)
2 4 0 0 

  

  
 λ2 = −2; vp2 = (−1, 1, 0, 0)
5 3 0 0
25) 


 Rpta.
0 0 1 2 

  
 λ3 = 2; vp3 = (0, 0, 2, 1)


0 0 2 −2 


 λ4 = 7; vp4 = (4, 5, 0, 0)

  


 λ1 = 2; vp1 = (0, 0, 1, 1)
0 2 0 0 

  

  
 λ2 = 3; vp2 = (0, 0, 1, 2)
2 1 0 0
26) 


 Rpta. √

0 0 1 1 
 1 − 17
  
 λ3 = ; vp3 = (4, 1 − 17, 0, 0)

 2√
0 0 −2 4 
 1 + 17 √

 λ4 = ; vp4 = (4, 1 + 17, 0, 0)
2
Determinar los autovalores y autovectores correspondientes a las siguientes trans-
formaciones lineales T : V −→ W , donde:

a) V = R2 , W = R2
178 Algebra Lineal Walter Arriaga Delgado



 λ1 = 0; vp1 = (−1, 1)
1) T (x, y) = (x + y , x + y) Rpta.

 λ = 2; v = (1, 1)
2 p2


 λ1 = 2; vp1 = (1, 0)
2) T (x, y) = (2x + y , 3y) Rpta.

 λ = 3; v = (1, 1)
2 p2


 λ1 = 2; vp1 = (−1, 1)
3) T (x, y) = (x − y , 3x + 5y) Rpta.

 λ = 4; v = (1, −3)
2 p2

4) T (x, y) = (10x − 9y , 4x − 2y) Rpta. λ1 = 4; vp1 = (3, 2)
b) V = R3 , W = R3

1) T (x, y, z)
= (x + y +z , x + y + z , x + y + z)

 


 vp1 = (−1, 1, 0)

 λ1 = 0;
Rpta. 

 vp2 = (−1, 0, 1)




 λ2 = 3; vp3 = (1, 1, 1)
2) T (x, y, z)
= (z , y , x)



 λ1 = −1; vp1 = (−1, 0, 1)

 
Rpta. 
 vp2 = (0, 1, 0)

 λ = 1;

 2

 
 v = (1, 0, 1)
p3

3) T (x, y, z)
= (2x + y + z , 2x + 3y + 4z , −x − y − 2z)



 λ = −1; vp1 = (0, −1, 1)
 1

Rpta. λ2 = 1; vp2 = (−1, 1, 0)





 λ3 = 3; vp3 = (−2, −3, 1)
4) T (x, y, z)
= (−x − 3z , 2y , −3x − z)



 λ1 = −4; vp1 = (1, 0, 1)

 
Rpta. 
 vp2 = (1, 0, −1)

 λ = 2;

 2

 
 v = (0, 1, 0)
p3

5) T (x, y, z)
= (4x + y , 2y , y + 4z)



 λ1 = 2; vp1 = (1, −2, 1)

 
Rpta. 
 vp2 = (0, 0, 1)

 λ = 4;
 2


 
 v = (1, 0, 0)
p3
Walter Arriaga Delgado Algebra Lineal 179

6) T (x, y, z)
= (10x + 2z, 6y , 2x + 7z)

 


 vp1 = (0, 1, 0)

 λ1 = 6;
Rpta. 

 vp2 = (1, 0, −2)




 λ2 = 11; vp3 = (2, 0, 1)
7) T (x, y, z)
= (4x + z , −2x + y , −2x + z)



 λ1 = 1; vp1 = (0, 1, 0)


Rpta. λ2 = 2; vp2 = (1, −2, −2)





 λ3 = 3; vp3 = (−1, 1, 1)
8) T (x, y, z) = (5x − 6y − 6z , −x + 4y + 2z , 3x − 6y − 4z)
Rpta. λ1 = 1; λ2 = 2

9) T (x, y, z) = (x − 4y + 2z , −4x + y − 2z , 2x − 2y − 2z)


Rpta. λ1 = −3; λ2 = 6

10) T (x, y, z)
= (x + y + 2z , x + 2y + z , 2x + y + z)



 λ = −1; vp1 = (−1, 0, 1)
 1

Rpta. λ2 = 1; vp2 = (1, −2, 1)





 λ3 = 4; vp3 = (1, 1, 1)
11) T (x, y, z) = (5x + 4y + 2z , 4x + 5y + 2z , 2x + 2y + 2z)
Rpta. λ1 = 1; λ2 = 10

c) V = R4 , W = R4

1) T (x, y, z, w) = (x + y + z + w , x + y + z + w , x + y + z + w , x + y + z + w)
Rpta. λ1 = 0; λ2 = 4

d) V = P2 [x], W = P2 [x]

1) T (ax2 + bx + c) = (2b − c)x2 + (−a + 3b − c)x + (−a + b + c)

Ejercicios diversos:
 
2 a
1) Dada la matriz  , determinar los valores reales de a y b para que el vector
3 b
(1, 3) sea un autovector del autovalor asociado λ = 2. Rpta. a = 0, b = 1

II. Diagonalización de una matriz

Determinar los autovalores y autovectores correspondientes a las siguientes trans-


formaciones lineales T : V −→ W , además determine si la matriz A asociada a la
180 Algebra Lineal Walter Arriaga Delgado

transformación lineal T es diagonalizable, si lo es encuentre la matriz P tal que


D = P −1 AP

a) V = R2 , W = R2

1) T (x, y) = (x + y , 4x − 2y)

2) T (x, y) = (4x − 2y , 3x − y)

3) T (x, y) = (4x + 2y , 3x + 3y)

4) T (x, y) = (−2x − 2y , −5x + y)

5) T (x, y) = (3x − y , −2x + 4y)

6) T (x, y) = (2x − y , 5x − 2y)

7) T (x, y) = (3x − 5y , x − y)

8) T (x, y) = (3x + 2y , −5x + y)

b) V = R3 , W = R3

1) T (x, y, z) = (x + y + 2z , 2x + 2y + 4z , 3x + 3y)

2) T (x, y, z) = (x + y + 2z , 2x + 2y + 4z , 3x + 3y + 6z)

3) T (x, y, z) = (x + 2y − z , x + z , 4x − 4y + 5z)

4) T (x, y, z) = (2x + y + z , 2x + 3y + 2z , 3x + 3y + 4z)

5) T (x, y, z) = (x + 2z , −x − y − z , −z)

6) T (x, y, z) = (x − y + 4z , 3x + 2y − z , 2x + y − z)

7) T (x, y, z) = (3x + 2y + 4z , 2x + 2z , 4x + 2y + 3z)

8) T (x, y, z) = (x + y − 2z , −x + 2y + z , y − z)

9) T (x, y, z) = (x − y , −x + 2y − z , −y + z)

10) T (x, y, z) = (3x , z , 2z)

11) T (x, y, z) = (7x − 2y − 4z , 3x − 2z , 6x − 2y − 3z)

c) V = R4 , W = R4

1) T (x, y, z, w) = (x − 2y , −y , −x + y + 2z , −2x + 2y + 3w)

2) T (x, y, z, w) = (x , y , −x + y + 2z , −2x + 3w)

3) T (x, y, z, w) = (4x + y + w , 2x + 3y + w , −2x + y + 2z − 3w , 2x − y + 5w)

4) T (x, y, z, w) = (−2x − 2y , −5x + y , 2z − w , 5z − 2w)


Bibliografı́a

[1] Anton, H. Introducción al Álgebra Lineal. Limusa, 2003.

[2] Arvesu, J.; Marcellán, F.; Sánchez, J. Problemas resueltos de Álgebra Lineal. Paso a paso.
Thomson, 2005.

[3] Barbolla, R.; Sanz, P. Álgebra Lineal y teorı́a de matrices. Prentice Hall, Madrid, 1998.

[4] Burgos, J. Álgebra lineal y geometrı́a cartesiana. McGraw-Hill, 1993.

[5] Burgos, J. Álgebra lineal. McGraw-Hill, 2000.

[6] Diego, B. Problemas de Álgebra lineal. Deimos, 2◦ edition, 1986.

[7] Griffel, D. Linear Algebra and its applications, volume 1 and 2. Ellis Horwood, 1989.

[8] Hernández, E. Algebra y Geometrı́a. Universidad Autónoma de Madrid, 1994.

[9] Lages Lima, Elon. Algebra Lineal. IMCA. Hozlo, Lima-Perú, 1999.

[10] Larson. Edwards. Introducción al Algebra Lineal. Limusa, 1995.

[11] Lay, David C. Álgebra Lineal y sus Aplicaciones. Prentice Hall, segunda edition, 2001.

[12] Merino, L.; Santos, E. Álgebra Lineal con métodos elementales. Thomson, 2006.

[13] Máltsev, A. I. Fundamentos de Algebra Lineal. Mir, Moscú, tercera edition, 1978.

[14] Pita Ruiz, Claudio. Algebra Lineal. Mc Graw Hill, México, 1991.

[15] Rojo, J. Álgebra Lineal. Vector Ediciones, Madrid, 1989.

[16] Rojo, J.; Martin, I. Ejercicios y problemas de Álgebra Lineal. Editorial AC, Madrid,
1989.

[17] Stanley I. Grossman. Algebra Lineal. Mc Graw Hill, México, quinta edition, 1996.

[18] Strang, Gilbert. Álgebra Lineal y sus aplicaciones. Addison-Wesley Iberoamericana,


México, primera edition, 1990.

[19] Villa, A. Problemas de Algebra. CLAGSA, 1988.


182 Algebra Lineal Walter Arriaga Delgado
Índice alfabético

adjunta de una matriz, 39 definida positiva, 28


autovalor, 167 diagonal, 6, 26
autovector, 167 elemental, 40
equivalente, 35
base, 107 escalar, 6
escalonada, 34
cofactor, 25
escalonada reducida, 34
combinación lineal, 105
hermı́tica, 17
criptografı́a, 43
hermitiana, 17
cuadrado latino, 31
idempotente, 16
cuerpo, 9
identidad, 6
determinantes, 19 inversa, 37
diagonal principal, 5 involutiva, 15
jacobiana, 30
ecuación caracterı́stica, 168 nilpotente, 16
eigenvalor, 167 normal, 28
eigenvector, 167 nula, 7
espacio vectorial, 9, 91 orden de una, 3
ortogonal, 18
homomorfismo, 132 positiva, 18
rectangular, 7
imagen, 135
regular, 23
jacobiano, 30 semejante, 171
simétrica, 14
kernel, 134 singular, 23
transpuesta, 14
ley de composición traza de una, 13
externa, 91 triangular, 5
interna, 91 triangular superior, 5
menor complementario, 24
matriz
multiplicidad algebraica, 170
antihermitiana, 18
antisimétrica, 15 núcleo, 134
banda, 27 nulidad, 136
conjugada, 16
cuadrada, 4 operaciones elementales, 33
de cofactores, 38
de paso, 171 pivote, 34
de permutación, 29 polinomio caracterı́stico, 168

183
184 Algebra Lineal Walter Arriaga Delgado

rango, 136
rango de una matriz, 36
regla de sarrus, 21

sistema de ecuaciones, 44
subespacio, 96
ortogonal, 114
subespacio propio, 167
suma de subespacios, 101
suma directa, 104

teorema de
Laplace, 25
transformación lineal, 132

valor caracterı́stico, 167


valor propio, 166
vector caracterı́stico, 167
vector propio, 166
vectores, 91

También podría gustarte