Está en la página 1de 209

⎡1 2 1⎤ ⎧ 3x1 + 2 x 2 − 5x 3 = 4

⎢ ⎥ ⎪
A = ⎢0 −1 3⎥ ⎨4 x1 − 4x 2 + 2x 3 = 2
⎢⎣2 0 1⎥⎦ ⎪ 2x + 3x − 2x = 1
⎩ 1 2 3

n
El Álgebra Lineal es una materia

1 de suma importancia para los
A-1 = Adj(A) α= ci • αi
Det (A) i =1 estudiantes de Estadística y
p Ciencias Actuariales. No
ProyWβ = ∑ < β, α
i =1
i > αi T(c•α + β) = c•T(α) + T(β) solamente porque en
programas de estudio existen 2
sus

cursos de esta materia; Álgebra


Lineal I y II sino porque en
posteriores asignaturas emplean
muchos teoremas, propiedades y
aplicaciones vistos en dichos
cursos. Que estos estudiantes
puedan disponer de un material
bibliográfico donde puedan
conseguir todo lo que requieren
Para Estadísticos para el estudio de esta materia en
esas carreras fue la principal
y Actuarios motivación que tuvo el autor para
escribir esta obra.

Este libro contiene 107


∃X ∈ K n (X ≠ θ nx1 ) : AX = λX f(X) = XtAX definiciones, 154 teoremas, 169
ejemplos, 8 ejemplos aplicados y
243 ejercicios propuestos
3,5 ψ2
repartidos en 11 capítulos y 1
3
apéndice. Su principal finalidad es
2,5
proveer al estudiante de
2

1,5
Estadística y Ciencias Actuariales
1
de la principal herramienta para
0,5
el estudio del Álgebra Lineal, no
0
solo para los que cursan esta
0 0,5 1 1,5 2 ψ1 materia sino para los que cursan
asignaturas relacionadas y que
requieren consultar definiciones,
1. (AAg)t = AAg. teoremas o aplicaciones vinculadas
2. (AgA)t = AgA. X smc = A mc Y con dichas materias.
3. g
AA A = A. X msa = A g Y
4. AgAAg = Ag.

William Noguera
ALGEBRA LINEAL
para Estadísticos y Actuarios

William Noguera
Universidad Central de Venezuela Editor:

El autor

Transcrito por:

El autor

Impreso por:

El autor

Segunda Edición:

Caracas, Julio de 2.007

Prohibida la reproducción total o parcial de


CARACAS, VENEZUELA esta obra, por cualquier medio o método sin
la autorización por escrito del autor.
A Luz del Valle y Pedro Antonio, fuente principal de lo que soy…
Los amo mamá y papá

A Alan Irving, tu sonrisa es mi gran motivación…


Te amo hijo

A la mujer de mis sueños, a ti te dedico mis éxitos…


Te amo mi amor
4.7. Espacio Nulo, Nulidad, Imagen, Espacio Fila y Espacio
Columna de una Matriz. 159
CONTENIDO Ejercicios Propuestos. 167

5. Espacios Euclídeos.

5.1. Introducción. 174


5.2. Definiciones, Propiedades y Ejemplos. 174
1. Teoría de Matrices.
5.3. Proceso de Ortogonalización de Gram-Schmidt 184
5.4. Proyección Ortogonal. 190
1.1. Introducción. 1
Ejercicios Propuestos. 202
1.2. Definiciones y Ejemplos. 1
1.3. Álgebra de Matrices. 4
6. Transformaciones Lineales.
1.4. Tipos Especiales de Matrices. 8
1.5. Matriz de Datos 14
6.1. Introducción. 206
1.6. Operaciones Elementales de Filas y de Columnas. 19
6.2. Definiciones, Propiedades y Ejemplos. 206
1.7. Matriz Inversa. 27
6.3. Kernel, Imagen, Nulidad y Rango. 210
1.8. Traza de una Matriz. 38
6.4. Monomorfismos, Epimorfismos e Isomorfismos. 215
1.9. Factorización LU. 39
1.10. Sub-Matriz y Matriz Particionada. 45 6.5. Matriz Asociada a una Transformación Lineal T: ℜn→ℜm. 218
1.11. Rango de una Matriz. 52 6.6. Matriz de una Transformación Lineal T: V→W, Relativa a
Ejercicios Propuestos. 60 Bases de V y W. 220
Ejercicios Propuestos. 230
2. Determinantes.
7. Autovalores y Autovectores.
2.1. Introducción. 67
2.2. Definiciones y Ejemplos. 67 7.1. Introducción. 237
2.3. Propiedades. 75 7.2. Definiciones, Propiedades y Ejemplos. 237
2.4. Matriz Adjunta. 90 7.3. Relación entre los Autovalores y Autovectores de una
Ejercicios Propuestos. 94 Matriz y su Matriz Transpuesta. 252
7.4. Semejanza de Matrices. 254
3. Sistemas de Ecuaciones Lineales. 7.5. Autovalores y Autovectores de Matrices Simétricas. 270
7.6. Autovalores y Autovectores de Matrices Grammian. 278
3.1. Introducción. 98 Ejercicios Propuestos. 281
3.2. Definiciones, Propiedades y Ejemplos. 98
3.3. Eliminación de Gauss-Jordan. 107 8. Formas Cuadráticas.
3.4. Uso de la Factorización LU para resolver un Sistema de
Ecuaciones Lineales. 114 8.1. Introducción. 286
3.5. Eliminación de Gauss. 114 8.2. Definiciones, Propiedades y Ejemplos. 286
3.6. Regla de Crámer. 117 8.3. Representaciones Normal y Canónica de una Forma
3.7. Aplicación de los Sistemas de Ecuaciones Lineales para la Cuadrática. 295
Resolución de Problemas. 120 8.4. Clasificación de las Formas Cuadráticas. 297
3.8. Modelo de Insumo-Producto de Leontief. 121 8.5. Vector Derivada o Gradiente de una Forma Cuadrática. 307
Ejercicios Propuestos. 123 Ejercicios Propuestos. 310

4. Espacios Vectoriales. 9. Interpretaciones Geométricas.

4.1. Introducción. 129 9.1. Introducción. 314


4.2. Definiciones, Propiedades y Ejemplos. 129 9.2. Representación Gráfica de los Vectores Filas y Vectores
4.3. Sub-Espacios. 139 Columnas de una Matriz de Datos. 314
4.4. Combinación Lineal. 143 9.3. Ángulo entre 2 Vectores, Rectas y Planos en ℜn. 317
4.5. Independencia y Dependencia Lineal. 146 9.4. Subespacios de Mejor Ajuste Mínimo Cuadrático. 333
4.6. Bases. 153 Ejercicios Propuestos. 348
10. Pseudos Inversas.

10.1. Introducción. 353


10.2. Inversa Generalizada. Definición, Propiedades
y Ejemplos. 353
10.3. Inversa Condicional. Definición, Propiedades
y Ejemplos. 360
10.4. Inversa Mínimo Cuadrática. Definición, Propiedades
y Ejemplos. 363
10.5. Aplicaciones sobre Sistemas de Ecuaciones Lineales. 367
Ejercicios Propuestos. 374

11. Sistemas de Ecuaciones Lineales Inconsistentes.

11.1. Introducción. 377


11.2. Solución Mínimo Cuadrática. Propiedades. 377
11.3. Mejor Solución Aproximada. Propiedades y Ejemplos. 383
Ejercicios Propuestos. 387

Apéndice. Nociones de Lógica Proposicional.

A.1. Proposiciones Lógicas. A–1


A.2. Conectivos Lógicos. A–1
A.3. Tipos de Condicionales. A–4
A.4. Tautologías, Contradicciones y Contingencias. A–5
A.5. Proposiciones Equivalentes. A–5
A.6. Condicionales Tautológicos o Teoremas. A–6
A.7. Métodos de Demostración de Teoremas. A–6
A.8. Contraejemplos. A–9
PRESENTACIÓN Le agradezco enormemente a la profesora Maura Vásquez, colega y además mi
tutora, por sus invalorables consejos para escribir este trabajo y por sus
importantes observaciones técnicas para abordar cada capítulo. También a los
Actualmente en la escuela de Estadística y Ciencias Actuariales de la profesores Guillermo Ramírez y Antonio Merlitti por mostrarme sus visiones
Universidad Central de Venezuela, donde estoy encargado de la cátedra de del Álgebra Lineal, de lo cual hay mucho en este texto. A las profesoras
Algebra Lineal existe un bajo porcentaje de asignaturas que poseen un material Twiggy Guerrero, Omaira de Los Santos y Sonia Pineda por hacerme saber sus
bibliográfico oficial para el estudio de dichas materias. En la mayoría de los importantes opiniones acerca de lo que un alumno que ya aprobó los cursos de
casos se da una bibliografía relativamente amplia para el estudio de las Algebra Lineal debe manejar muy bien para abordar en excelente forma los
asignaturas y en buena parte de los casos los apuntes de clases se convierten en cursos posteriores del pensum en Estadística.
la herramienta de estudio fundamental de los alumnos.
Un agradecimiento muy especial a todos los alumnos que vieron conmigo los
En particular, en las materias de dicha cátedra existe bastante bibliografía pero cursos de Algebra Lineal I y II durante la elaboración de este texto. Sin sus
es muy común que cada tema de ambas asignaturas tenga un texto fundamental oportunas correcciones, tanto en clase como durante las horas de estudio
para su estudio. De allí que proveer al estudiante de la escuela en cuestión de muchos errores de forma y fondo aún permanecerían en este trabajo.
un material bibliográfico oficial “hecho en casa” para las asignaturas de la
cátedra de Algebra Lineal, fue la razón principal que me motivó a escribir este El más valioso de los agradecimientos para quién creyó en este proyecto y me
texto, tratándose de materias de gran importancia en el desarrollo de las apoyó en materializarlo, sin ella tal vez no existiría esta obra. Si tú saltas yo
carreras de Estadística y Ciencias Actuariales. El objetivo ha sido centralizar salto…
toda esa bibliografía fundamental de cada tema en un material bibliográfico
con un eminente enfoque estadístico que sea de uso y consulta oficial de los
estudiantes de dichas materias y materiales relacionadas y que sirva como
material de apoyo para los estudiantes de otras carreras y todos los estudiosos William Noguera
del Algebra Lineal en general. Caracas, Venezuela
Julio de 2.007
El trabajo esta estructurado en once (11) capítulos y un apéndice.
El cielo es el límite…
Los capítulos 1 al 6 conforman lo que es el programa del curso de Algebra
Lineal I; Teoría de Matrices, Determinantes, Sistemas de Ecuaciones Lineales,
Espacios Vectoriales, Espacios Euclídeos y Transformaciones Lineales. Cada
uno de ellos tiene un desarrollo teórico, el cual consta de definiciones,
teoremas, ejemplos y ejercicios propuestos; claves no solo para esta materia
sino también para otras materias del pensum de Estadística y Ciencias
Actuariales tales como Matemática III, Teoría de la Probabilidad III y Procesos
Estocásticos, entre otras.

Los capítulos 7 al 11 conforman lo que es el programa del curso de Algebra


Lineal II; Autovalores y Autovectores, Formas Cuadráticas, Interpretaciones
Geométricas, Pseudos Inversas y Sistemas de Ecuaciones Lineales
Inconsistentes. Cada uno de ellos posee un desarrollo teórico contentivo de
definiciones, teoremas, ejemplos y ejercicios propuestos; al igual que los
capítulos 1 al 6 claves no solo para la materia como tal sino también para otras
materias del pensum tales como Teoría de la Probabilidad III, Métodos
Multivariantes, Econometría, Diseño de Experimentos y Análisis de Datos,
entre otras.

En el apéndice se muestran nociones de lógica proposicional, con el cual se


intenta lograr que el estudiante recuerde lo más importante de este tema
estudiado en el curso propedéutico. Esto debido a que la lógica proposicional
es la herramienta fundamental para aprender la característica principal de los
cursos de Algebra Lineal como lo es la demostración de teoremas.
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Definición 1.2.
Capítulo 1 Sean m, n ∈ ℵ*. Se define como matriz de orden mxn con coeficientes en K a
la función Amxn: Jm x Jn → K con regla de correspondencia Amxn(i,j) = Aij. La
TEORÍA DE MATRICES matriz A se representa por un arreglo rectangular con la siguiente estructura:

⎡ A11 A12 L A1j L A1n ⎤


⎢ ⎥
⎢A 21 A 22 L A 2j L A 2n ⎥
1.1. INTRODUCCIÓN. ⎢ M M M M ⎥
A=⎢ ⎥
En este capítulo se presenta uno de los conceptos más utilizados tanto en la A
⎢ i1 A i2 L A ij L A in ⎥
Estadística como en las Ciencias Actuariales como lo es el concepto de Matriz. ⎢ M ⎥
⎢ M M M ⎥
Se exponen la mayoría de sus conceptos asociados como lo son: Álgebra de ⎢A m1 A m2 L A mj L A mn ⎥
Matrices, Tipos Especiales de Matrices, Matriz de Datos, Operaciones ⎣ ⎦
Elementales de Filas y Columnas, Matriz Inversa, Traza de una Matriz,
Factorización LU, Sub-matrices y Matrices Particionadas y Rango de una Las m líneas horizontales se denominan filas o renglones de la matriz A y las n
Matriz. Todo el desarrollo del capítulo presenta un enfoque especialmente líneas verticales se denominan columnas de dicha matriz.
estadístico, el cual es el objetivo principal de este texto.
Ejemplo 1.2.
1.2. DEFINICIONES Y EJEMPLOS.
Sea m = 3 y n = 2. En este caso J3 = {1, 2, 3} y J2 = {1, 2}. Luego,
Definición 1.1. J3xJ2 = {(1, 1), (1, 2), (2, 1), (2, 2), (3, 1), (3, 2)}. Sea A3x2: J3 x J2 → ℜ tal que
A3x2(1, 1) = 1, A3x2(1, 2) = 0, A3x2(2, 1) = -1, A3x2(2, 2) = 2, A3x2(3, 1) = 1 y
Se dice que un conjunto no vacío K es un Cuerpo si en dicho conjunto están A3x2(3, 2) = 1. Esta función así definida es una matriz de orden 3x2. Su
definidas las siguientes operaciones: representación mediante un arreglo rectangular es:

1. Suma (+): Si x, y ∈ K entonces (x + y) ∈ K ⎡ 1 0⎤


2. Producto (.): Si x, y ∈ K entonces (x . y) ∈ K ⎢ ⎥
A = ⎢− 1 2⎥
Estas operaciones tienen las siguientes propiedades ⎢⎣ 1 1 ⎥⎦

1. ∀ x, y ∈ K se cumple que x + y = y + x
Nótese que A11 = 1, A12 = 0, A21 = -1, A22 = 2, A31 = 1 y A32 = 1.
2. ∀ x, y, z ∈ K se cumple que x + (y + z) = (x + y) + z
3. ∃ θ ∈ K tal que ∀ x ∈ K se cumple que x + θ = x Notación:
4. ∀ x ∈ K ∃ -x ∈ K tal que x + (-x) = θ.
5. ∀ x, y ∈ K se cumple que x . y = y . x. El conjunto de todas las matrices de orden mxn con coeficientes en K se
6. ∀ x, y, z ∈ K se cumple que x . (y . z) = (x . y) . z. denomina cuerpo de matrices de orden mxn en K y se denota por Mmxn(K).
7. ∃ u ∈ K ( u ≠ θ ) tal que ∀ x ∈ K se cumple que x . u = x
8. ∀ x ∈ K ( x ≠ θ ) ∃ x-1 ∈ K tal que se cumple que x . x-1 = u Observación:
9. ∀ x, y, z ∈ K se cumple que x . (y + z) = (x . y) + (x . z)
El elemento genérico de una matriz A de orden mxn es Amxn(i,j) = Aij. Para
En la mayoría de los cuerpos la notación de la operación producto es ignorada descargar la notación, se utilizará Aij.
ya que queda sobreentendida.
Definición 1.3.
Ejemplo 1.1.
Sea A∈Mmxn(K). Se dice que la matriz A es:
Los conjuntos ℜ y Q tienen estructura de cuerpo con las propiedades de suma
y producto. 1. Cuadrada de orden m (n) si m = n.
2. Rectangular si m ≠ n .
Notación:
Cuando A es cuadrada la línea diagonal formada por los valores A11, A22, ...,
Sea n ∈ ℵ*. El conjunto {1, 2,…, n} se denota por Jn. Ann se dice que es la diagonal principal de la matriz A.

2
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Ejemplo 1.3. ⎡ 0 103 152 337 655⎤


⎢ ⎥
Sean A∈M2x2(ℜ) y B∈M3x2(ℜ) definidas por: ⎢103 0 49 234 552⎥
B = ⎢152 49 0 185 503⎥
⎢ ⎥
⎡1 2⎤ ⎢337 234 185 0 318⎥
⎡1 2 ⎤ ⎢ ⎥ ⎢655 552 503 318 0 ⎥⎦
A=⎢ ⎥ ; B = ⎢1 0⎥ ⎣
⎣ 2 3 ⎦ ⎢⎣5 3⎥⎦
Definición 1.4.
A es una matriz cuadrada de orden 2 ya que tiene 2 filas y 2 columnas en tanto Sean A, B∈ Mmxn(K). Se dice que A y B son iguales si y sólo si
que B es una matriz rectangular ya que tiene 3 filas y 2 columnas. Los valores
∀ (i,j) ∈ Jm x Jn se cumple que Aij = Bij.
1 y 3 conforman la diagonal principal de A.
Ejemplo 1.4.
Ejemplo Aplicado 1.1.
Sean A, B∈ M2x2(ℜ) definidas por:
En un Reality Show donde participan 6 personas, se le pide a cada una de ellas
que señalen a 2 de sus compañeros para ser amenazados. Los 2 participantes
con mayores señalamientos serán los amenazados, uno de los cuales será ⎡1 −1⎤ ⎡1 b⎤
A= ⎢ ⎥ yB= ⎢ ⎥
salvado por el voto del público mientras que el otro tendrá que abandonar la ⎣0 a ⎦ ⎣c - 2 ⎦
competencia. Se define la matriz A de la siguiente forma:
A = B si y sólo si b = -1, c = 0 y a = -2.
⎧1 Si la i - ésima persona señala a la j - ésima persona
A ij = ⎨
⎩0 Si la i - ésima persona NO señala a la j - ésima persona 1.3. ÁLGEBRA DE MATRICES.

Definición 1.5.
El resultado es el siguiente:
Sean A, B∈ Mmxn(K). Se define como matriz suma de A y B y se denota por
⎡0 1 0 0 0 1⎤ A + B a la matriz (A + B) ∈ Mmxn(K) definida como (A + B)ij = Aij + Bij.
⎢ ⎥
⎢0 0 1 1 0 0⎥
⎢0 1 0 1 0 0⎥ Ejemplo 1.5.
A=⎢ ⎥
⎢0 1 0 0 1 0⎥
⎢0 ⎡1 2⎤ ⎡−2 2⎤
0 0 1 0 1⎥ Sean A, B∈ M2x2(ℜ) definidas por A = ⎢ ⎥ , B=⎢ ⎥ . Como A y B
⎢ ⎥ 3 4
⎣ ⎦ ⎣ 1 5⎦
⎣⎢0 1 0 0 1 0⎦⎥
son de orden 2x2 entonces existe la matriz suma A+B la cual es:
Observando las columnas de A se aprecia que el participante 1 no tuvo ⎡1 + (−2) 2 + 2⎤ ⎡ −1 4⎤
señalamientos, el participante 2 tuvo 4 señalamientos, el participante 3 tuvo 1 A+B=⎢ ⎥=⎢ ⎥
señalamiento, el participante 4 tuvo 3 señalamientos, el participante 5 tuvo 2 ⎣ 3 +1 4 + 5⎦ ⎣ 4 9⎦
señalamientos y el participante 6 tuvo 2 señalamientos. Luego, los amenazados Teorema 1.1.
son los participantes 2 y 4.
Sean A, B, C∈ Mmxn(K). Entonces se cumple que:
Ejemplo Aplicado 1.2.
1. A + B = B + A.
2. A + (B + C) = (A + B) + C.
Consideremos las ciudades venezolanas Caracas, Maracay, Valencia,
Barquisimeto y Maracaibo. Se define la matriz B de la siguiente forma: 3. ∃ θ∈Mmxn(K) (θij = 0 ∀ (i,j) ∈ Jm x Jn) tal que ∀ A ∈ Mmxn(K) se
cumple que A + θ = A.
Bij = Distancia (Km) de la i-ésima ciudad a la j-ésima ciudad. 4. ∀ A∈Mmxn(K) ∃ -A∈Mmxn(K) ((-A)ij) = -Aij) tal que A+(-A)= θ.

La matriz B es la siguiente: Demostración

1. (A + B)ij = Aij + Bij = Bij + Aij = (B + A)ij.


2. (A + (B + C))ij = Aij + (B + C)ij
= Aij + Bij + Cij

3 4
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

= (Aij + Bij) + Cij n

= (A + B)ij + Cij (AB)ij = ∑A


r =1
ir B rj ; 1 ≤ i ≤ n; 1 ≤ j ≤ n
= ((A + B) + C)ij
3. A + θ = A ⇒ (A + θ)ij = Aij
⇒ Aij + θij = Aij Observaciones:
⇒ θij = Aij - Aij = 0 ∀ (i,j) ∈ Jm x Jn
4. A + (-A) = θ ⇒ (A + (-A))ij = θij Sean A∈Mmxn(K) y B∈Mnxp(K). El producto AB esta definido. En el caso del
⇒ Aij + (-A)ij = 0 producto BA pueden ocurrir las situaciones siguientes:
1. Si p ≠ m entonces BA no está definida.
⇒ (-A)ij = 0 - Aij = -Aij
2. Si p = m entonces BA está definida y se cumple que BA∈Mnxn(K).
Definición 1.6. Si además m ≠ n no tiene sentido considerar la igualdad AB = BA
ya que AB∈Mmxm(K) y BA∈Mnxn(K) pero si m = n los productos
Sean A∈Mmxn(K) y c ∈ K. Se define como matriz múltiplo escalar de A por c y AB y BA están definidos con idéntico orden pero no
se denota por cA a la matriz (cA) ∈ Mmxn(K) definida como (cA)ij = cAij. necesariamente se cumple que AB = BA.

Ejemplo 1.6. Ejemplo 1.7.

⎡1 2 3⎤ Sean A∈M3x2(ℜ) y B∈M2x2(ℜ) definidas por:


Sea A∈M2x3(ℜ) definida por A = ⎢ ⎥ . Luego,
⎣ 4 − 2 1⎦
⎡1 −1 ⎤
⎢ ⎥ ⎡1 −1 ⎤
A = ⎢2 3⎥ y B = ⎢ ⎥
⎡1 2 3⎤ ⎡2 4 6⎤ ⎣3 2⎦
B = 2A = 2⎢ ⎥ = ⎢ ⎥ . Nótese que B∈M2x3(ℜ). ⎢⎣2 1⎥⎦
⎣ 4 − 2 1⎦ ⎣ 8 − 4 2⎦

Como el número de columnas de A coincide con el número de filas de B


Teorema 1.2.
entonces existe la matriz AB la cual es de orden 3x2 y se determina de la
siguiente manera:
Sean A, B∈ Mmxn(K). Entonces se cumple que:
2
1.
2.
1A = A.
∀ c ∈ K se cumple que c(A + B) = cA + cB.
(AB)11 = ∑A
r =1
1r B r1 = A11B11 + A12B21 = 1.1+(-1).3 = 1 – 3 = –2

3. ∀ c, d ∈ K se cumple que (c + d)A = cA + dA. 2


4. ∀ c, d ∈ K se cumple que (cd)A = c(dA). (AB)12 = ∑A
r =1
1r B r 2 = A11B12 + A12B22 = 1.(-1)+(-1).2 = –1 – 2 = –3

Demostración 2
(AB)21 = ∑A
r =1
2 r B r1 = A21B11 + A22B21 = 2.1+3.3 = 2+9 = 11
1. (1A)ij = 1Aij = Aij
2
2. (c(A+B))ij = c(A+B))ij
= c(Aij + Bij) (AB)22 = ∑A
r =1
2r B r 2 = A21B12 + A22B22 = 2.(-1)+3.2 = –2 + 6 = 4
= cAij + cBij
2
= (cA + cB)ij)
3. ((c+d)A)ij = (c+d)Aij
(AB)31 = ∑A
r =1
3r B r1 = A31B11 + A32B21 = 2.1+1.3 = 2 + 3 = 5
= cAij + dAij 2
= (cA)ij + (dA)ij
= (cA + dA)ij
(AB)32 = ∑A
r =1
3r B r 2 = A31B12 + A32B22 = 2.(-1)+1.2 = –2 + 2 = 0

4. ((cd)A)ij = (cd)Aij
= c(dAij) = c(dA)ij Luego,
⎡ −2 −3⎤
Definición 1.7. ⎢ ⎥
AB = ⎢ 11 4⎥
Sean A ∈ Mmxn(K) y B ∈ Mnxp(K). Se define como matriz producto de A y B y ⎢⎣ 5 0⎥⎦
se denota por AB a la matriz AB ∈ Mmxp(K) definida como:

5 6
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

También se puede calcular la matriz AB sin realizar todo el procedimiento 2. Como C, D ∈ Mpxs(K) entonces (C + D) ∈ Mpxs(K) y como B ∈
formal anterior, haciendo la siguiente operación: Mnxp(K) entonces el producto B(C+D) está definido y se cumple
que (B(C + D))∈Mnxs(K). Luego:
⎡1.1 + (−1).3 1.(−1) + (−1).2⎤ ⎡1 − 3 −1 − 2 ⎤ ⎡ −2 −3⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ p
AB = ⎢ 2.1 + 3.3 2.(−1) + 3.2 ⎥ = ⎢2 + 9 − 2 + 6⎥ = ⎢ 11 4⎥
⎢⎣ 2.1 + 1.3 2.(−1) + 1.2 ⎥⎦ ⎢⎣ 2 + 3 − 2 + 2⎥⎦ ⎢⎣ 5 0 ⎥⎦
(B(C+D))ij = ∑B r =1
ir (C + D) rj

Como el número de columnas de B no coincide con el número de filas de A


= ∑B
r =1
ir (C rj + D rj )
entonces no existe la matriz BA. p

Teorema 1.3.
= ∑ (B
r =1
ir C rj + B ir D rj )

p p
Sean A, E∈Mmxn(K), B∈Mnxp(K), C, D∈Mpxs(K) y c∈K. Entonces se cumple = ∑B ir C rj + ∑B ir D rj
que: r =1 r =1
= (BC)ij + (BD)ij
1. A(BC) = (AB)C. = (BC + BD)ij
2. B(C + D) = BC + BD.
3. (A + E)B = AB + EB. 3. Como A, E ∈ Mmxn(K) entonces (A + E) ∈ Mmxn(K) y como B ∈
4. A(cB) = (cA)B = cAB. Mnxp(K) entonces el producto (A + E)B está definido y se cumple
que ((A + E)B) ∈ Mmxp(K). Luego:
Demostración n
((A+E)B)ij = ∑ (A + E) ir B rj
1. Como B∈Mnxp(K) y C∈Mpxs(K) el producto BC está definido y se r =1

cumple que BC∈Mnxs(K). Asimismo A∈Mmxn(K) y por tanto el n n

producto A(BC) está definido y se cumple que A(BC) ∈ Mmxs(K). = ∑ (A


r =1
ir + E ir )B rj = ∑ (A
r =1
ir B rj + E ir B rj )
Luego:
n n

n
= ∑A ir B rj + ∑E ir B rj ) = (AB)ij + (EB)ij

r =1 r =1
(A(BC))ij = A ir (BC) rj
r =1
= (AB + EB)ij
n p
= ∑ A (∑ B
r =1
ir
h =1
rh C hj )
4. (A(cB))ij =
n

∑A ir (cB) rj
r =1
n p
= ∑∑ A
r =1 h =1
ir B rh C hj
= ∑ cA
n

ir B rj
r =1
p n
= ∑∑ A
h =1 r =1
ir B rh C hj
=
n

∑ (cA) ir B rj
r =1
p n
= ∑ (∑ A
h =1 r =1
ir B rh )C hj = ((cA)B))ij
n

p n
= c ∑A ir B rj = c(AB)ij
= ∑ C (∑ A
h =1
hj
r =1
ir B rh )
r =1

p 1.4. TIPOS ESPECIALES DE MATRICES.


= ∑C
h =1
hj (AB) ih
Definición 1.8.
p
= ∑ (AB)
h =1
ih C hj Sea A∈Mmxn(K). Se define como matriz transpuesta de A y se denota por At a
la matriz At ∈ Mnxm(K) definida como:
= ((AB)C)ij
(At)ij = Aji; 1 ≤ i ≤ n; 1 ≤ j ≤ m

7 8
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Ejemplo 1.8. Definición 1.9.

Sea A∈M3x2(ℜ) definida por: Se define como matriz identidad de orden n a la matriz cuadrada In ∈ Mnxn(K)
definida de la siguiente forma:
⎡ 1 2⎤
⎢ ⎥ ⎧1 si i = j
A = ⎢− 2 2⎥ (In)ij = ⎨
⎢⎣ 3 4⎥⎦ ⎩0 si i ≠ j

Es decir, la matriz In tiene unos en la diagonal principal y ceros en las celdas


Luego, At∈M2x3(ℜ) y se cumple que: restantes. Tiene la siguiente estructura:
(At)11 = A11 = 1
(At)12 = A21 = -2 ⎡1 0 L 0 L 0 ⎤
⎢ ⎥
(At)13 = A31 = 3 ⎢0 1 L 0 L 0 ⎥
(At)21 = A12 = 2 ⎢M M M M ⎥
(At)22 = A22 = 2 In = ⎢ ⎥
(At)23 = A32 = 4 ⎢0 0 L 1 L 0 ⎥
⎢M M M M ⎥
⎢ ⎥
En consecuencia: ⎢⎣0 0 L 0 L 1 ⎥⎦

⎡1 −2 3⎤ Teorema 1.5.
At = ⎢ ⎥
⎣2 2 4⎦
Sea A ∈ Mmxn(K). Entonces se cumple que AIn = ImA = A
Teorema 1.4.
Demostración
Sean A, B ∈ Mmxn(K) y C ∈ Mnxp(K). Entonces se cumple que:
n

1. t t
(A ) = A.
(AIn)ij = ∑A
r =1
ir (I n ) rj
2. (A + B)t = At + Bt.
3. (AC)t = CtAt. = A i1 (I n )1 j + ... + A ij (I n ) jj + ... + A in (I n ) nj

Demostración = A i1 0 + ... + A ij1 + ... + A in 0 = A ij


t t t
1. (A )ij = Aji. Por tanto, (A ) = Aij
ij
2. Como A, B ∈ Mmxn(K) entonces A + B ∈ Mmxn(K). Luego: Por otro lado,
n
((A + B)t)ij = (A + B)ji
= Aji + Bji = (At)ij + (Bt)ij
(ImA)ij = ∑ (I
r =1
m ) ir A rj = (I m )i1 A1 j + ... + (I m )ii A ij + ... + (I m ) in A nj
3. Como A ∈ Mmxn(K) y C ∈ Mnxp(K) el producto AC está definido y
= 0A1 j + ... + 1A ij + ... + 0A nj = A ij
se cumple que (AC) ∈ Mmxp(K). Luego:
Luego se cumple que (AIn)ij = (ImA)ij = Aij
n
(AC)ij = ∑A
r =1
ir C rj Definición 1.10.
n n
Se define como matriz nula de orden mxn a la matriz θmxn∈Mmxn(K) definida
((AC)t)ij = (AC)ji = ∑A
r =1
jr C ri = ∑ (A )
r =1
t
rj (C t ) ir de la siguiente forma:
n
(θmxn)ij = 0 ∀ (i,j) ∈ Jm x Jn
= ∑ (C )
r =1
t
ir (A t ) rj

= (C A )ijt t Definición 1.11.

Sea A∈Mnxn(K). Se dice que la matriz A es:

9 10
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

1. Simétrica si At = A. Ejemplo 1.14.


2. Antisimétrica si At = -A
3. Triangular Superior si Aij = 0 ∀ i > j. ⎡5 0 0 ⎤
4. Triangular Inferior si Aij = 0 ∀ i < j. ⎢ ⎥
Sea A∈M3x3(ℜ) definida por A = ⎢0 5 0⎥ . A es escalar ya que se puede
5. Diagonal si Aij = 0 ∀ i ≠ j .
⎢⎣0 0 5⎥⎦
6. Escalar si existe c ∈ K tal que A = cIn.
7. Ortogonal si AtA = AAt = In. expresar como:
8. Idempotente si A2 = A. ⎡5 0 0 ⎤ ⎡1 0 0⎤
9. Involutiva si A2 = In. ⎢ ⎥ ⎢ ⎥
A = ⎢0 5 0 ⎥ = 5 ⎢0 1 0 ⎥ = 5I 3
10. Nilpotente si existe p ∈ ℵ* tal que Ap = θnxn.
⎢⎣0 0 5⎥⎦ ⎢⎣0 0 1⎥⎦
Ejemplo 1.9.
Ejemplo 1.15.
⎡1 3⎤
Sea A∈M2x2(ℜ) definida por A=⎢ ⎥ . A es simétrica ya que
⎣3 2⎦ ⎡ 2 ⎤
⎢ − 2
Sea A∈M2x2(ℜ) definida por A = ⎢ 2 2 ⎥ . A es ortogonal ya que
⎡1 3⎤ ⎥
At = ⎢ ⎥=A . ⎢ 22 2 ⎥
⎣3 2⎦ ⎣ 2 ⎦
⎡1 0⎤
Ejemplo 1.10. AtA = AAt = ⎢ ⎥ = I2.
⎣0 1 ⎦
⎡0 −3 ⎤
Sea A∈M2x2(ℜ) definida por A = ⎢ ⎥ . A es antisimétrica ya que Ejemplo 1.16.
⎣3 0⎦
⎡ 0 3⎤ ⎡0 −3 ⎤ ⎡ 1 −1 ⎤
At = ⎢ ⎥ = −⎢ ⎥ = −A . Sea A∈M2x2(ℜ) definida por A = ⎢ 2 2 ⎥ . A es idempotente ya que
⎣ − 3 0⎦ ⎣3 0⎦ ⎢− 1 1 ⎥
⎣ 2 2 ⎦
A2 = A.
Ejemplo 1.11.
Ejemplo 1.17.
⎡1 2 3 ⎤
⎢ ⎥
Sea A∈M3x3(ℜ) definida por A = ⎢0 1 2⎥ . A es triangular superior ya que ⎡1 0⎤
Sea A∈M2x2(ℜ) definida por A = ⎢ 2
⎥ . A es involutiva ya que A = I2.
⎢⎣0 0 3⎥⎦ − 1⎦
⎣0
A21 = A31 = A32 = 0.
Ejemplo 1.18.
Ejemplo 1.12.
⎡0 1 ⎤
Sea A∈M2x2(ℜ) definida por A = ⎢ ⎥ . A es nilpotente ya que A = θ2.
2
⎡1 0 0⎤ ⎣0 0 ⎦
⎢ ⎥
Sea A∈M3x3(ℜ) definida por A = ⎢2 1 0⎥ . A es triangular inferior ya que
⎢⎣3 2 3⎥⎦ Definición 1.12.
A12 = A13 = A23 = 0.
Sea B∈Msxs(K). Se dice que B es una matriz Grammian si y sólo si es de la
forma B = AtA o B = AAt, para cualquier matriz A∈Mnxp(K); s = p, n.
Ejemplo 1.13.
Observaciones:
⎡1 0 0⎤
⎢ ⎥
Sea A∈M3x3(ℜ) definida por A = ⎢0 2 0⎥ . A es diagonal ya que 1. Las matrices Grammian son simétricas.
⎢⎣0 0 3⎥⎦ 2. El elemento genérico de una matriz Grammian de la forma AtA es
de la siguiente forma:
A12 = A13 = A23 = A21 = A31 = A32 = 0.

11 12
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

n n 1.5. MATRIZ DE DATOS


Bij = (AtA)ij = ∑ (A )
r =1
t
ir A rj = ∑A
r =1
ri A rj
Definición 1.13.
t
3. El elemento genérico de una matriz Grammian de la forma AA es Sea X∈Mnxp(ℜ). Se dice que X es una matriz de datos si se obtiene de medir p
de la siguiente forma: variables sobre n elementos, es decir, Xij = Valor de la j-ésima variable medida
sobre el i-ésimo elemento. Si p = 1 entonces se dice que X es un vector de
p n
datos.
Bij = (AAt)ij = ∑A
r =1
ir ( A
t
) rj = ∑A
r =1
ir A jr

Ejemplo Aplicado 1.3.


4. Una matriz Grammian de la forma AtA se puede descomponer
como una suma de matrices de la siguiente forma: Se extrae del control de notas de un curso de Algebra Lineal las calificaciones
de los alumnos A, B, C, D, E, F y G en los 3 exámenes parciales que
⎡ n 2 n n
⎤ contempla el curso. El resultado se resume en la siguiente matriz de datos:
⎢ ∑ A r1 ∑A r1 Ar2 L ∑A A rp ⎥
r1
⎢ r =1 r =1 r =1 ⎥
⎢ n n n
⎥ ⎡12 11 10 ⎤
∑ A A
B = AtA = ⎢ r =1 r 2 r1 ∑A 2
r2 L ∑ A r 2 A rp ⎥ ⎢
⎢10 12 09⎥

⎢ r =1 r =1 ⎥
⎢ M M M ⎥ ⎢08 14 12 ⎥
⎢ n n n ⎥ ⎢ ⎥

⎢ A rp A r1 ∑A rp Ar2 L ∑ A 2rp ⎥ X = ⎢17
⎢15
19 18 ⎥
⎣⎢ r =1 r =1 r =1 ⎦⎥ 13 11⎥
⎢ ⎥
⎡ n 2 n n
⎤ ⎢12 10 08⎥
⎢ ∑ A r1 ∑A r1 Ar2 L ∑A A rp ⎥
r1 ⎢
⎣13

09 13 ⎦
⎢ r =1 r =1 r =1 ⎥
⎢ n n n

∑ A A
= ⎢ r =1 r1 r 2 ∑A 2
r2 L ∑ A r 2 A rp ⎥
Definición 1.14.
⎢ r =1 r =1 ⎥
⎢ M M M ⎥
⎢ n n n ⎥ Se define como Vector Generador de Medias al vector U∈M1xn(ℜ) tal que

⎢ A r1A rp ∑A r2 A rp L ∑ 2
A rp ⎥ 1
(1n ) t , siendo 1n el vector 1n ∈Mnx1(ℜ) definido por (1n )i = 1, ∀
⎣⎢ r =1 r =1 r =1 ⎦⎥ U =
n
⎡ A 2r1 A r1A r 2 L A r1A rp ⎤ i∈Jn.
⎢ ⎥
n
⎢A r1A r 2 A 2r 2 L A r 2 A rp ⎥
= ∑ ⎢ M M M ⎥
Definición 1.15.
r =1
⎢ ⎥
⎣⎢ A r1A rp A r 2 A rp L A 2rp ⎦⎥ Se define como Matriz Generadora de Medias a la matriz A∈Mnxn(ℜ) tal que
⎡ A r1 ⎤ 1
A = (1n )(1n ) t .
⎢ ⎥ n
⎢A r 2 ⎥ A [ ]
n
= ∑
r =1
⎢ M ⎥ r1
A r 2 L A rp
⎢ ⎥ Definición 1.16.
⎢⎣ A rp ⎥⎦
n Se define como Matriz de Centraje a la matriz P∈Mnxn(ℜ) tal que P = In – A, es
= ∑
r =1
A r (A r ) t ; donde: 1
decir, P = In – (1n )(1n ) t .
n

⎡ A r1 ⎤ Definición 1.17.
⎢ ⎥
Ar2 ⎥
Ar = ⎢ es la transpuesta de la r-ésima fila de A. Sea X∈Mnxp(ℜ) una matriz de datos. Se define como Matriz de Datos Centrada
⎢ M ⎥
⎢ ⎥ asociada a la Matriz de Datos X a la matriz X̂ ∈Mnxp(ℜ) con elemento
⎣⎢ A rp ⎦⎥
genérico X̂ ij = X ij − X j , siendo X j la media aritmética de las n mediciones de
Lo propio ocurre con las matrices Grammian de la forma AAt.

13 14
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

la j-ésima variable. Si p = 1 entonces se dice que X̂ es el vector de datos Demostración


centrado asociado al vector de datos X.
n n n
1 1
Definición 1.18.
1. (UX)ij = ∑U
r =1
ir X rj = ∑ ( n (1 ) )
r =1
n
t
ir X rj =
n
∑ (1 )
r =1
n ri X rj =

n n
1 1
Sea X∈Mnxp(ℜ) una matriz de datos. Se define como Matriz de Datos =
n
∑1.X rj =
n
∑X rj = Xj
Estandarizada asociada a la matriz de datos X a la matriz X̂ E ∈Mnxp(ℜ) con r =1 r =1
1 1 1

elemento genérico (X̂ E ) ij =


X ij − X j
, siendo X j y Sj la media aritmética y la
2. ((1n)(1n)t)ij = ∑ (1 )
r =1
n ir ((1n ) t ) jr = ∑ (1 ) (1 )
r =1
n ir n jr = ∑1.1 = 1.
r =1
Sj
n n
1
desviación estándar de las n mediciones de la j-ésima variable, (AX)ij = ∑A
r =1
ir X rj = ∑
r =1
( (1n )(1n ) t )ir X rj =
n
respectivamente. Si p = 1 entonces se dice que X̂ E es el vector de datos
n n n
1 1 1
estandarizado asociado al vector de datos X. =
n
∑ ((1 )(1 ) )
r =1
n n
t
ir X rj =
n
∑1.X
r =1
rj =
n
∑X
r =1
rj = Xj
Definición 1.19.
Por lo tanto,
Sea X∈Mnxp(ℜ) una matriz de datos. Se define como Matriz de Varianzas y
Covarianzas asociada a X a la matriz V∈Mpxp(ℜ) cuyo elemento genérico es PX = (In – A)X = X – AX. Luego,
Vij = Sij, es decir, Vij se corresponde con la covarianza entre las variables
(PX)ij = (X – AX)ij = Xij – (AX)ij = Xij – X j = X̂ ij
i-ésima y j-ésima.
⇒ PX = X̂
Observación:
1 t 1 t 1 n
Notemos que Vii = Sii = Si2.
3. ( X̂ X̂ ) ij = (X̂ X̂ ) ij =
n n n r =1
(X̂ t ) ir X̂ rj ∑
n
1
Definición 1.20. =
n
∑ X̂
r =1
ri X̂ rj

Sea X∈Mnxp(ℜ) una matriz de datos. Se define como Matriz de Correlaciones 1 n

asociada a X a la matriz R∈Mpxp(ℜ) cuyo elemento genérico es Rij = rij, es =


n
∑ (X
r =1
ri − X i )(X rj − X j ) = Sij = Vij.
decir, Rij se corresponde con el coeficiente de correlación lineal de Pearson
entre las variables i-ésima y j-ésima. 1 t
⇒ X̂ X̂ = V
n
Observación: n
1 1 1
Nótese que Rii = rii = 1.
4. ( (X̂ E ) t X̂ E ) ij = ((X̂ E ) t X̂ E )ij =
n n n
∑ (X̂
r =1
E ri ) (X̂ E ) rj

1 n
X ri − X i X rj − X j
Teorema 1.6. =
n
∑(
r =1 Si
)(
Sj
)

Sea X∈Mnxp(ℜ) una matriz de datos. Entonces se cumple que: 1 1 n


=
SiS j n
∑ (X ri − X i )(X rj − X j )
1. UX es el vector de medias aritméticas asociado a la matriz de datos r =1

X. 1
= Sij
2. X̂ = PX . Si S j
1
3. V = X̂ t X̂ . Sij
n = = rij = Rij.
Si S j
1
4. R = (X̂ E ) t X̂ E 1
n ⇒ (X̂ E ) t X̂ E = R
n

15 16
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Observación: ⎡12 11 10 ⎤
⎢ ⎥
La matriz de varianzas y covarianzas y la matriz de correlaciones son matrices ⎢10 12 09⎥
Grammian. ⎢08 14 12 ⎥
UX = 1 [7 1
7
1
7
1
7
1
7
1
7 7
]
1 ⎢⎢17 ⎥
19 18 ⎥
Ejemplo Aplicado 1.4. ⎢15 13 11⎥
⎢ ⎥
En relación al ejemplo aplicado 1.3.: ⎢12 10 08⎥
⎢ ⎥
⎣13 09 13 ⎦
1. El vector generador de medias es:
= [12,43 12,57 11,57]

U=
1
7
[1 1 1 1 1 1 1] = 1 7 1 7 [ 1
7
1
7
1
7
1
7
1
7
] 5. La matriz de datos centrada es:

2. La matriz generadora de medias es:


X̂ = PX =
⎡1 1 1 1 1 1 1 ⎤
⎡1 1 1 1 1 1 1⎤ ⎢ 7 7 7 7 7 7 7⎥

⎢ ⎥ ⎢1 1 1 1 1 1 1 ⎥ 6 −1 −1 −1 −1 − 1 −1 ⎤
⎢1 1 1 1 1 1 1⎥ ⎢ 7 7 7 7 7 7 7⎥ ⎢ 7 7 7 7 7 7 7⎥ ⎡12 11 10 ⎤
⎢1 1 1 1 1 1 1⎥ ⎢ 1 7 1 1 1 1 1 1 ⎥ ⎢− 1 6 −1 −1 −1 − 1 −1 ⎥ ⎢ ⎥
A =
1 ⎢ ⎥ ⎢
1⎥ = ⎢ 1 7 1
7
1
7
1
7
1
7
1
7 7
1 ⎥ ⎢ 7 7 7 7 7 7 7⎥ ⎢10 12 09⎥
⎢1
7 ⎢
1 1 1 1 1 7 7 7 7 7 7⎥ ⎢− 1 −1 6 −1 −1 − 1 −1 ⎥ ⎢08 14 12 ⎥
1⎥ ⎢ 1 1 ⎥ 7 7 7 7 7 7 7 ⎢ ⎥

1 1 1 1 1 1
⎥ ⎢ 7
1 1 1 1 1
7⎥ ⎢ 1 6 ⎥
⎢1 1 1 1 1 1 1⎥ ⎢ 1
7 7 7 7 7
1 ⎥ ⎢− −1 −1 − 1 − 1 −1 ⎥ ⎢17 19 18 ⎥
1 1 1 1 1 7 7 7 7 7 7 7
⎢ ⎥
1 ⎦ ⎢⎢ 1
7 7 7 7 7 7 7⎥ ⎢ 1 6 ⎥ ⎢15 13 11⎥
⎣1 1 1 1 1 1 1 1 1 1 1 1 ⎥ ⎢− −1 −1 −1 − 1 −1 ⎥ ⎢ ⎥
⎣ 7 7 7 7 7 7 7⎦ 7 7 7 7 7 7 7
⎢− 1 −1 −1 −1 − 1 6 −1 ⎥ ⎢12 10 08⎥
3. La matriz de centraje es: ⎢ 7 7 7 7 7 7 7⎥ ⎢ ⎥
⎢− 1 −1 −1 −1 −1 − 1 6 ⎥ ⎣13 09 13 ⎦
P = I7 – A = ⎣ 7 7 7 7 7 7 7⎦
⎡1 1 1 1 1 1 1 ⎤ ⎡ −0,43 −1,57 −1,57 ⎤
⎡1 0 0 0 0 0 0⎤ ⎢ 7 7 7 7 7 7 7⎥ ⎢ ⎥
⎢ ⎥ ⎢1 1 1 1 1 1 1 ⎥ ⎢ − 2,43 − 0,57 − 2,57 ⎥
⎢0 1 0 0 0 0 0⎥ ⎢ 7 7 7 7 7 7 7⎥ ⎢ − 4,43 1,43 0,43⎥
⎢0 0 1 0 0 0 0⎥ ⎢ 1 7 1
7
1
7
1
7
1
7
1
7
1 ⎥
7

= ⎢ 4,57 6,43 6,43⎥

⎢ ⎥ ⎢ 1 ⎥
⎢0 0 0 1 0 0 0⎥ − ⎢ 1 7 1
7
1
7
1
7
1
7
1
7 7⎥ ⎢ 2,57 0,43 − 0,57 ⎥
⎢0 0 0 0 1 0 0⎥ ⎢ 1 1 1 1 1 1 1 ⎥ ⎢ ⎥
⎢ ⎥ ⎢ 7 7 7 7 7 7 7⎥ ⎢ − 0,43 − 2,57 − 3,57 ⎥
⎢0 0 0 0 0 1 0⎥ ⎢ 1 1 1 1 1 1 1 ⎥ ⎢ ⎥
⎣ 0,57 − 3,57 1,43 ⎦
⎢ ⎥ 7 7 7 7 7 7 7⎥
⎣0 0 0 0 0 0 1⎦ ⎢⎢ 1 1 1 1 1 1 1 ⎥
⎣ 7 7 7 7 7 7 7⎦ 6. La matriz de varianzas y covarianzas es:
⎡ 6 −1 −1 −1 −1 −1 −1 ⎤
⎢ 7 7 7 7 7 7 7⎥
1 6 1
⎢− −1 −1 −1 −1 −1 ⎥ V= (X̂) t X̂
⎢ 7 7 7 7 7 7 7⎥ 7
⎢− 1 −1 6 −1 −1 −1 −1 ⎥
7 7 7 7 7 7 7 ⎡ −0,43 −1,57 −1,57 ⎤
⎢ 1 6 ⎥ ⎢ ⎥
= ⎢− −1 −1 −1 −1 −1 ⎥ ⎢ − 2,43 − 0,57 − 2,57 ⎥
7 7 7 7 7 7 7 ⎡−0,43 −2,43 −4,43 4,57 2,57 −0,43 0,57⎤
⎢ 1 6 ⎥ 1 ⎢ − 4,43 1,43 0,43⎥
⎢− −1 −1 −1 −1 −1 ⎥ = ⎢ ⎥ ⎢ ⎥
7 7 7 7 7 7 7 7 ⎢−1,57 − 0,57 1,43 6,43 0,43 − 2,57 − 3,57⎥
⎢ 4,57 6,43 6,43⎥
⎢− 1 −1 −1 −1 −1 6 −1 ⎥
⎢ 7 7 7 7 7 7 7⎥ ⎣⎢−1,57 − 2,57 0,43 6,43 − 0,57 − 3,57 1,43⎦⎥ ⎢ 2,57 0,43 − 0,57 ⎥
⎢ ⎥
⎢− 1 −1 −1 −1 −1 −1 6 ⎥ ⎢ − 0,43 − 2,57 − 3,57 ⎥
⎣ 7 7 7 7 7 7 7⎦ ⎢ ⎥
⎣ 0,57 − 3,57 1,43 ⎦
4. El vector de medias aritméticas asociado a X es: ⎡7,67 3,61 5,04⎤
⎢ ⎥
= ⎢ 3,61 9,39 7,10 ⎥
⎢⎣5,04 7,10 9,39⎥⎦

17 18
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

7. Las desviaciones estándares de las 3 variables son: 1. Substituir la p-ésima columna de A por dicha columna más d veces
la s-ésima columna de A, donde d∈K, d ≠ 0 ( p ≠ s ). Se denota
S1 = 2,77, S2 = 3,06 y S3 = 3,06 por cp → cp + dcs.
2. Multiplicar la p-ésima columna de A por un escalar d∈K, d ≠ 0 .
Luego, la matriz de datos estandarizada es:
Se denota por cp → dcp.
3. Intercambiar las columnas p-ésima y s-ésima de A. Se denota por
⎡ −0,15 −0,51 −0,51 ⎤
⎢ ⎥ cp ↔ cs.
⎢− 0,88 − 0,19 − 0,84⎥
⎢ − 1,60 0,47 0,14 ⎥ Observación:
⎢ ⎥
X̂ E = ⎢ 1,65 2,10 2,10 ⎥
⎢ 0,93 Una operación elemental de filas o de columnas es una función
0,14 − 0,19 ⎥ e:Mmxn(K)→ Mmxn(K) que asigna a cada matriz A∈Mmxn(K) una única matriz
⎢ ⎥
⎢ − 0,15 − 0,84 − 1,17 ⎥ e(A)∈Mmxn(K). En particular, para el caso de las filas:
⎢ ⎥
⎣ 0,21 − 1,17 0,47⎦
1. e:rp→rp+crs ( c ≠ 0 )
8. La matriz de correlaciones es:
⎧⎪A ij si i ≠ p
e(A)ij = ⎨
1
R = (X̂ E ) t X̂ E ⎪⎩A pj + cA sj si i = p
7
⎡ −0,15 −0,51 −0,51 ⎤ 2. e:rp→crp ( c ≠ 0 )
⎢ ⎥
⎢ − 0,88 − 0,19 − 0,84 ⎥
⎡−0,15 −0,88 −1,60 1,65 0,93 −0,15 0,21⎤ ⎢ − 1,60 0,47 0,14 ⎥ ⎧⎪A ij si i ≠ p
1 ⎢ ⎥ ⎢ ⎥ e(A)ij = ⎨
= −0,51 −0,19 0,47 2,10 0,14 −0,84 −1,17⎥ ⎢ 1,65 2,10 2,10 ⎥ ⎪⎩cA pj si i = p
7 ⎢ ⎢ 0,93
⎢⎣−0,51 −0,84 0,14 2,10 −0,19 −1,17 0,47⎥⎦ 0,14 − 0,19 ⎥
⎢ ⎥
⎢ − 0,15 − 0,84 − 1,17 ⎥ 3. e:rp↔rs
⎢ ⎥
⎣ 0,21 − 1,17 0,47⎦
⎧A ij si i ≠ p e i ≠ s
⎡1,00 0,43 0,59⎤ ⎪
⎢ ⎥ e(A)ij = ⎨A sj si i = p
= ⎢0,43 1,00 0,76⎥ ⎪A
⎩ pj si i = s
⎢⎣0,59 0,76 1,00 ⎥⎦

De forma análoga ocurre para el caso de las columnas sólo que en lugar de e se
1.6. OPERACIONES ELEMENTALES DE FILAS Y DE COLUMNAS. denota por f.
Definición 1.21. Ejemplo 1.19.
Sea A∈Mmxn(K). Una operación elemental de filas sobre A es cualquiera de las Sea A∈M3x2(ℜ) definida por:
siguientes operaciones:

1. Substituir la p-ésima fila de A por dicha fila más c veces la s-ésima ⎡1 2⎤


⎢ ⎥
fila de A, donde c∈K, c ≠ 0 ( p ≠ s ). Se denota por rp → rp + crs. A = ⎢0 1 ⎥
2. Multiplicar la p-ésima fila de A por un escalar c∈K, c ≠ 0 . Se ⎢⎣3 2⎥⎦
denota por rp → crp.
3. Intercambiar las filas p-ésima y s-ésima de A. Se denota por Sean e1, e2, e3, f1, f2, f3 las operaciones elementales definidas por:
rp ↔ rs.
e1: r1→r1+2r2
Igualmente una operación elemental de columnas sobre A es cualquiera de las e2: r1→2r1
siguientes operaciones: e3: r2 ↔ r3
f1: c2→c2 – c1

19 20
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

f2: c2→3c2 ⎡1 2⎤ ⎡1 6 ⎤
f3: c1↔c2 ⎢ ⎥ 2 3c 2 ⎢ ⎥
A = ⎢0 1 ⎥ ⎯c⎯→⎯
⎯→⎢0 3⎥ = f 2 (A)
Luego,
⎢⎣3 2⎥⎦ ⎢⎣3 6⎥⎦
⎡1 + 2.0 2 + 2.1⎤ ⎡1 4⎤ ⎡1 2⎤ ⎡2 1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 1 c2 ⎢ ⎥
e1(A) = ⎢ 0 1 ⎥ = ⎢0 1 ⎥ A = ⎢0 1 ⎥ ⎯c⎯↔⎯→ ⎢1 0 ⎥ = f 3 ( A )
⎢⎣ 3 2 ⎦ ⎣3 2⎥⎦
⎥ ⎢ ⎢⎣3 2⎥⎦ ⎢⎣2 3⎥⎦
⎡2.1 2.2⎤ ⎡2 4⎤
⎢ ⎥ ⎢ ⎥ También es posible aplicar simultáneamente 2 o más operaciones elementales
e2(A) = ⎢ 0 1 ⎥ = ⎢0 1 ⎥
siempre y cuando la fila o columna cambiante en cada operación no sea la
⎢⎣ 3 2 ⎦ ⎣3 2⎥⎦
⎥ ⎢
misma. Por ejemplo:
⎡1 2⎤
⎢ ⎥ e1: r1→r1+2r2
e3(A) = ⎢3 2⎥ e4: r3→r3 – r2
⎢⎣0 1 ⎥⎦

⎡1 2 − 1⎤ ⎡1 1⎤ ⎡1 2⎤ r → r + 2 r ⎡1 4⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎯⎯
1

1
⎯2 → ⎢ ⎥
f1(A) = ⎢0 1 − 0 ⎥ = ⎢0 1⎥ A = ⎢0 1 ⎥ r → r − r ⎢0 1 ⎥ = e 4 (e1 (A ))
⎢⎣3 2⎥⎦ ⎯⎯3
⎯ ⎯
3 2
→ ⎢⎣3 1 ⎥⎦
⎢⎣3 2 − 3⎥⎦ ⎢⎣3 − 1⎥⎦

⎡2 1⎤ Teorema 1.7.
⎢ ⎥
f2(A) = ⎢1 0⎥
⎢⎣2 3⎥⎦ Sea e: Mmxn(K)→ Mmxn(K) la operación elemental de filas definida por:

⎡1 3.2⎤ ⎡1 6⎤ ⎧⎪A ij si i ≠ p
⎢ ⎥ ⎢ ⎥ e(A)ij = ⎨ ;(c≠0)
f3(A) = ⎢0 3.1⎥ = ⎢0 3⎥
⎪⎩A pj + cA sj si i = p
⎢⎣3 3.2⎥⎦ ⎢⎣3 6⎥⎦
Entonces existe una operación elemental de filas e1: Mmxn(K)→ Mmxn(K) del
Las operaciones elementales se pueden aplicar sin el procedimiento formal mismo tipo que e tal que e(e1(A)) = e1(e(A)) = A, ∀ A∈ Mmxn(K).
anterior de la siguiente manera:
Demostración
⎡1 2⎤ ⎡1 4⎤
⎢ ⎥ 1 → r1 + 2 r2 ⎢ ⎥ Sea e1: Mmxn(K)→ Mmxn(K) una operación elemental de filas definida de la
A = ⎢0 1 ⎥ ⎯r⎯ ⎯⎯→ ⎢0 1 ⎥ = e1 (A)
siguiente forma:
⎢⎣3 2⎥⎦ ⎢⎣3 2⎥⎦

⎡1 2⎤ ⎡ 2 4⎤ ⎧⎪A ij si i ≠ p
⎢ ⎥ 1 →2 r1 ⎢ ⎥ e1(A)ij = ⎨ ;(c≠0)
A = ⎢0 1 ⎥ ⎯r⎯ ⎯→⎢0 1 ⎥ = e 2 (A) ⎪⎩A pj + (−c)A sj si i = p
⎢⎣3 2⎥⎦ ⎢⎣3 2⎥⎦
Luego,
⎡1 2⎤ ⎡1 2⎤
⎢ ⎥ 2 ↔ r3 ⎢ ⎥
A = ⎢0 1 ⎥ ⎯r⎯⎯→⎢3 2⎥ = e 3 (A) ⎧⎪A ij si i ≠ p
⎢⎣3 2⎥⎦ ⎢⎣0 1 ⎥⎦ e(e1(A))ij = ⎨
⎪⎩(A pj + (−c)A sj ) + cA sj si i = p
⎡1 2⎤ ⎡1 1⎤ ⎧⎪A ij si i ≠ p
⎢ ⎥ 2 c 2 − c1 ⎢ ⎥ = ⎨
A = ⎢0 1 ⎥ ⎯c⎯→⎯ ⎯→ ⎢0 1⎥ = f1 (A) ⎪⎩A pj − cA sj + cA sj si i = p
⎢⎣3 2⎥⎦ ⎢⎣3 − 1⎥⎦
⎧⎪A ij si i ≠ p
= ⎨ = Aij
⎪⎩ A pj si i = p

21 22
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎧⎪A ij si i ≠ p ⎧⎪A ij si i ≠ p
e1(e(A))ij = ⎨ = ⎨ = Aij
⎪⎩(A pj + cAsj ) + (−c)A sj si i = p ⎪⎩ A pj si i = p

⎧⎪A ij si i ≠ p
=⎨ De forma análoga ocurre para el caso de las columnas.
⎪⎩A pj + cA sj − cA sj si i = p

⎧⎪A ij si i ≠ p Teorema 1.9.


= ⎨ = Aij
⎪⎩A pj si i = p
Sea e: Mmxn(K)→ Mmxn(K) la operación elemental de filas definida por:

De forma análoga ocurre para el caso de las columnas. ⎧A ij si i ≠ p e i ≠ s



Teorema 1.8. e(A)ij = ⎨A sj si i = p
⎪A si i = s
⎩ pj
Sea e: Mmxn(K)→ Mmxn(K) la operación elemental de filas definida por:
Entonces existe una operación elemental de filas e1: Mmxn(K)→ Mmxn(K) del
⎧⎪A ij si i ≠ p mismo tipo que e tal que e(e1(A)) = e1(e(A)) = A, ∀ A∈ Mmxn(K).
e(A)ij = ⎨ ;(c≠0)
⎪⎩cA pj si i = p
Demostración
Entonces existe una operación elemental de filas e1: Mmxn(K)→ Mmxn(K) del
Sea e1: Mmxn(K)→ Mmxn(K) una operación elemental de filas definida de la
mismo tipo que e tal que e(e1(A)) = e1(e(A)) = A, ∀ A∈ Mmxn(K).
siguiente forma:
Demostración
⎧A ij si i ≠ p e i ≠ s
Sea e1: Mmxn(K)→ Mmxn(K) una operación elemental de filas definida de la ⎪
e1(A)ij = ⎨A sj si i = p
siguiente forma: ⎪A
⎩ pj si i = s

⎧A ij si i ≠ p
⎪ Luego,
e1(A)ij = ⎨ 1 ;(c≠0)
⎪⎩ c A pj si i = p
⎧A ij si i ≠ p e i ≠ s

Luego, e(e1(A))ij = ⎨ A pj si i = p
⎪A si i = s
⎩ sj
⎧ A ij si i ≠ p
⎪ ⎧⎪A ij si i ≠ p
e(e1(A))ij = ⎨ 1 = ⎨ = Aij
⎪⎩c( c A pj ) si i = p ⎪⎩ A pj si i = p

⎧A ij si i ≠ p
⎪ ⎧A ij si i ≠ p e i ≠ s
= ⎨ 1
⎪⎩c c A pj si i = p ⎪
e1(e(A))ij = ⎨ A pj si i = p
⎪A si i = s
⎧⎪A ij si i ≠ p ⎩ sj
= ⎨ = Aij
⎪⎩ A pj si i = p ⎧⎪A ij si i ≠ p
= ⎨ = Aij
⎧ A ij si i ≠ p ⎪⎩ A pj si i = p

e1(e(A))ij = ⎨ 1
⎪⎩ c (cA pj ) si i = p
De forma análoga ocurre para el caso de las columnas.
⎧A ij si i ≠ p

= ⎨1
⎪⎩ c cA pj si i = p

23 24
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Definición 1.22. ⎡1 0 0⎤
⎢ ⎥ ⎡1 0 0 ⎤ ⎡1 0 0 1 ⎤
0 0 1⎥ ⎢ ⎥ ⎢ ⎥
Sean A, B ∈Mmxn(K). Se dice que B es equivalente por filas a A si B se obtiene A=⎢ ; B = ⎢0 1 0 ⎥ ; C = ⎢0 1 0 0 ⎥
de A aplicándole una sucesión finita de operaciones elementales de fila. ⎢0 1 0⎥
⎢ ⎥ ⎢⎣0 2 0⎥⎦ ⎢⎣0 0 1 2⎥⎦
Igualmente se dice que B es equivalente por columnas a A si B se obtiene de A ⎣⎢0 0 0⎦⎥
aplicándole una sucesión finita de operaciones elementales de columna.
Las matrices A y C son reducidas por filas mientras que la matriz B no es
Ejemplo 1.20. reducida por filas, ya que el elemento (3, 2) es no nulo. Las matrices A y B son
reducidas por columnas pero la matriz C no es reducida por columnas ya que el
En el ejemplo 1.19., las matrices e1(A), e2(A), e3(A) y e4(e1(A)) son elemento (1, 4) es no nulo.
equivalentes por filas a A mientras que las matrices f1(A), f2(A) y f3(A) son
equivalentes por columnas a A. Definición 1.25.
Definición 1.23. Sea R∈Mmxn(K). Se dice que R es escalonada reducida por filas si se verifican
las siguientes condiciones:
Sea A∈Mmxn(K). Se define como pivote de la p-ésima fila (respectivamente de
la s-ésima columna) de A al primer elemento no nulo de dicha fila 1. R es reducida por filas.
(respectivamente de dicha columna); si lo hay. 2. Las filas nulas de R están por debajo de las filas no nulas de R.
3. Si las filas 1, 2, …, p son las filas no nulas de R y si el pivote de la
Ejemplo 1.21. i-ésima fila pertenece a la columna si, i = 1, 2, …, p entonces
s1 < s2 < … < s p .
En el ejemplo 1.19., el pivote de la primera fila de A es 1, el de la segunda fila
es 1 y el de la tercera fila es 3. El pivote de la primera columna de A es 1 y el Igualmente se dice que R es escalonada reducida por columnas si se verifican
de la segunda columna es 2. las siguientes condiciones:
Definición 1.24. 1. R es reducida por columnas.
2. Las columnas nulas de R están a la derecha de las columnas no
Sea R ∈Mmxn(K). Se dice que R es reducida por filas si se verifican las nulas de R.
siguientes condiciones: 3. Si las columnas 1, 2, …, s son las columnas no nulas de R y si el
pivote de la j-ésima columna pertenece a la fila pj, j = 1, 2, …, p
1. El pivote de cada fila no nula de R es igual a 1. entonces p1 < p2 < … < ps.
2. Cada columna de R que contenga el pivote de alguna fila no nula de
R tiene todos sus otros elementos nulos. Observación:
Igualmente se dice que R es reducida por columnas si se verifican las Sea A∈Mmxn(K). Entonces A siempre es equivalente por filas o por columnas a
siguientes condiciones: una única matriz escalonada reducida por filas o por columnas R∈Mmxn(K).
1. El pivote de cada columna no nula de R es igual a 1.
Ejemplo 1.23.
2. Cada fila de R que contenga el pivote de alguna columna no nula de
R tiene todos sus otros elementos nulos. En el ejemplo 1.21. la matriz A es reducida por filas pero no es escalonada
reducida por filas ya que s1 = 1, s2 = 3 y s3 = 2 (s2 > s3). A su vez la matriz C si
Observación: es escalonada reducida por filas ya que además de ser reducida por filas
cumple que s1 = 1 < s2 = 2 < s3 = 3.
Sea A∈Mmxn(K). Entonces A siempre es equivalente por filas a una matriz
reducida por filas R∈Mmxn(K). En el mismo ejemplo la matriz A es reducida por columnas pero no es
escalonada reducida por columnas ya que p1 =1, p2 = 3 y p3 = 2 (p2 > p3). A su
Ejemplo 1.22. vez la matriz B si es escalonada reducida por columnas ya que además de ser
reducida por columnas cumple que p1 = 1 y p2 = 2 (p1 < p2).
Sea A∈M4x3(ℜ), B∈M3x3(ℜ) y A∈M3x4(ℜ) definidas por:

25 26
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

1.7. MATRIZ INVERSA. Teorema 1.12.

Definición 1.26. Sean A, B, C ∈Mnxn(K).

Sea A∈Mnxn(K). Se dice que A es invertible o no singular si existe una matriz 1. Si A y B son invertibles entonces:
B∈Mnxn(K) tal que AB = BA = In. 1.1. A-1 es invertible y (A-1)-1 = A.
1.2. AB es invertible y (AB)-1 = B-1A-1.
Ejemplo 1.24. 1.3. (A-1)t = (At)-1.
2. Si C tiene una fila o columna nula entonces C no es invertible.
⎡1 2⎤
Sea A∈M2x2(ℜ) definida por A = ⎢ ⎥ . A es no singular ya que existe la Demostración
⎣3 5⎦
⎡ −5 2⎤ 1.
matriz B∈M2x2(ℜ) definida por B = ⎢ ⎥ tal que AB = BA = I2. 1.1. Si A es invertible entonces se cumple que AA-1 = A-1A = In.
⎣ 3 − 1 ⎦ Luego se cumple que (A-1)-1 = A.
1.2. Veamos si existe una matriz C tal que ABC = In y CAB = In.
Teorema 1.10.
ABC = In ⇒ A-1ABC = A-1In ⇒ BC = A-1 ⇒ B-1BC = B-1A-1.
Sea A∈Mnxn(K). Si A es invertible entonces existe una única matriz ⇒ C = B-1A-1.
B∈Mnxn(K) tal que AB = BA = In, en cuyo caso B se dice que es la matriz CAB = In ⇒ CABB = InB ⇒ CA = B ⇒ CAA-1 = B-1A-1.
-1 -1 -1
inversa de A y se denota por A-1. ⇒ C = B-1A-1.
Demostración Luego, AB es invertible y además se cumple que
(AB)-1 = B-1A-1.
Supongamos que A es invertible y que existen matrices B y C ∈Mnxn(K) tales 1.3. Por definición se cumple que AA-1 = A-1A = In. Tomando
que B y C son inversas de A. Entonces B = InB = (CA)B = C(AB) = CIn = C. transpuesta en los tres lados de la igualdad se tiene que
(AA-1)t = (A-1A)t = (In)t = In. Luego, aplicando propiedades de
Como B = C se concluye que A tiene una única matriz inversa. la matriz transpuesta:
Teorema 1.11. (A-1)tAt = In
At(A-1)t = In
Sean A, B ∈Mnxn(K).
Ahora bien, por definición de matriz inversa se cumple que:
1. Si BA = In entonces A es invertible y B = A-1.
2. Si AB = In entonces A es invertible y B = A-1. (At)(At)-1 = In
(At)-1(At) = In
Demostración
Por consiguiente (A-1)tAt = (At)-1(At). Postmultiplicando a
1. Para demostrar que A es invertible utilicemos reducción al absurdo, ambos lados de la igualdad por (A-1)t se tiene que:
es decir, supongamos que A no es invertible. En ese caso no existe
matriz alguna C∈Mnxn(K) tal que AC = CA = In, lo cual es una (A-1)tAt(A-1)t = (At)-1(At)(A-1)t
contradicción ya que por hipótesis BA = In. Para demostrar que ⇒ (A-1)t(A-1A)t = (At)-1(A-1A)t
B = A-1, sea C = A-1. En ese caso AC = In. Luego, BAC = B(AC) = ⇒ (A-1)t(In)t = (At)-1(In)t
BIn = B y BAC = (BA)C = InC = C. Por consiguiente B = C = A-1. ⇒ (A-1)tIn = (At)-1In
2. La demostración es análoga a la del apartado anterior.
⇒ (A-1)t = (At)-1
Ejemplo 1.25.
2. Utilicemos el método de reducción al absurdo. Supongamos sin
pérdida de generalidad que C∈Mnxn(K) tiene la primera fila nula y
En el ejemplo 1.24., la matriz inversa de A es:
que C es invertible. Sea D∈Mnxn(K) la matriz inversa de C. En ese
⎡ −5 2⎤ caso se cumple que CD = DC = In. Pero,
A −1 = ⎢ ⎥
⎣ 3 −1⎦

27 28
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ 0 0 L 0 ⎤ ⎡ D11 D12 L D1n ⎤ Entonces e(In) = Mp(c)


⎢ ⎥ ⎢ ⎥
C C L C 2 n ⎥ ⎢ D 21 D 22 L D 2 n ⎥
CD = ⎢ 21 22 3. Si e: Mnxn(K)→ Mnxn(K) se define por:
⎢ M M M ⎥ ⎢ M M M ⎥
⎢ ⎥ ⎢ ⎥
⎢⎣C n1 C n 2 L C nn ⎥⎦ ⎢⎣ D n1 D n 2 L D nn ⎥⎦ ⎧A ij si i ≠ p e i ≠ s

⎡ 0 0 L 0 ⎤ e(A)ij = ⎨A sj si i = p
⎢ n n n
⎥ ⎪A
⎢ ∑ C 2 r D r1 ∑ C 2r D r 2 L ∑ C 2r D r 2 ⎥ ⎩ pj si i = s
= ⎢ r =1 M r =1 r =1 ⎥
⎢ M M ⎥
⎢ n n n ⎥ Entonces e(In) = Hps

⎢ C nr D r1 ∑C nr D r 2 L ∑ C nr D rn ⎥
⎣⎢ r =1 r =1 r =1 ⎦⎥ En el caso de operaciones elementales de columnas las matrices se denotan por
Aps(c), Mp(c) y Hps, respectivamente.
Es decir:
Ejemplo 1.26.
⎡ 0 0 L 0 ⎤
⎢ n n n
⎥ Sean E1, E2, E3, E4∈M2x2(ℜ) definidas por:

⎢ C 2 r D r1 ∑C 2r D r 2 L ∑ C 2 r D rn ⎥
In = ⎢ r =1 M r =1 r =1 ⎥ ⎡1 0 ⎤ ⎡1 −3⎤ ⎡1 −1⎤ ⎡ 3 0⎤
⎢ M M ⎥ E1 = ⎢ ⎥ ; E2 = ⎢ ⎥ ; E3 = ⎢ ⎥ ; E4 = ⎢ ⎥
⎢ n n n ⎥ ⎣ 0 2 ⎦ ⎣ 0 1⎦ ⎣ 0 1⎦ ⎣ − 1 1⎦

⎢ C nr D r1 ∑C nr D r 2 L ∑ C nr D rn ⎥
⎣⎢ r =1 r =1 r =1 ⎦⎥
Las matrices E1, E2 y E3 son matrices elementales ya que:
Lo cual es una contradicción. Por consiguiente C no es invertible.
⎡1 0⎤ r2 → 2 r2 ⎡1 0⎤
I2 = ⎢ ⎥ ⎯⎯⎯ ⎯→ ⎢ ⎥ = E1 , es decir, E1 = M2(2).
Observación: ⎣0 1⎦ ⎣0 2 ⎦
⎡1 0⎤ r1 →r1 −3r2 ⎡1 −3⎤
Nótese que si se aplica la equivalencia contrarecíproca en el apartado 2 se I2 = ⎢ ⎥ ⎯⎯ ⎯⎯→⎢ ⎥ = E 2 , es decir, E2 = A12(-3).
concluye que si C es invertible entonces C tiene todas sus filas y columnas no ⎣0 1⎦ ⎣0 1 ⎦
nulas. ⎡1 0⎤ c2 →c2 −c1 ⎡1 −1⎤
I2 = ⎢ ⎥ ⎯⎯⎯⎯→⎢ ⎥ = E 3 , es decir, E3 = A (-1).
21

Definición 1.27. ⎣0 1 ⎦ ⎣0 1 ⎦

Sea E∈Mnxn(K). Se dice que E es una matriz elemental si E se obtiene de la La matriz E4 no es elemental ya que:
matriz In aplicándole una única operación elemental de fila o de columna.
⎡1 0⎤ r2 →r2 − r1 ⎡ 1 0⎤ r1 →3r1 ⎡ 3 0⎤
Notación: I2 = ⎢ ⎥ ⎯⎯ ⎯⎯→⎢ ⎥ ⎯⎯⎯→ ⎢ ⎥ = E4
⎣0 1 ⎦ ⎣− 1 1⎦ ⎣ − 1 1⎦
1. Si e: Mnxn(K)→ Mnxn(K) se define por:
Teorema 1.13.
⎧⎪A ij si i ≠ p
e(A)ij = ⎨ ;(c≠0) Sean e una operación elemental de filas y E∈Mnxn(K) la matriz elemental
⎪⎩A pj + cA sj si i = p E = e(In). Entonces ∀ A∈Mnxn(K) se cumple que EA=e(A)

Entonces e(In) = Aps(c) Demostración

2. Si e: Mnxn(K)→ Mnxn(K) se define por: 1. Consideremos la operación elemental de filas e: Mnxn(K)→ Mnxn(K)
definida por:
⎧⎪A ij si i ≠ p
e(A)ij = ⎨ (c≠0) ⎧⎪A ij si i ≠ p
⎪⎩cA pj si i = p e(A)ij = ⎨ ;(c≠0)
⎪⎩A pj + cA sj si i = p

29 30
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Sea A: ⎡ A11 A12 L A1n ⎤


⎡ A11 A12 L A1n ⎤ ⎢ ⎥
⎢ M M M ⎥
⎢ ⎥
⎢ M M M ⎥ ⎢ A s1 As2 L A sn ⎥
⎢ A s1 As2 L A sn ⎥ ⎢ ⎥
⎢ ⎥ =⎢ M M M ⎥ = e(A)
A=⎢ M M M ⎥ ⎢A + cA A + cA L A + cA ⎥
⎢A ⎢ p1 s1 p2 s2 pn sn

Ap2 L A pn ⎥ ⎢ M M M ⎥
⎢ p1 ⎥
⎢ M M M ⎥ ⎢ ⎥
⎣ A A A ⎦
⎢ ⎥ n1 n2 nn
⎣ A n1 An2 A nn ⎦
Luego, 2. Consideremos la operación elemental de filas e: Mnxn(K)→ Mnxn(K)
definida por:
⎡ A11 A12 L A1n ⎤
⎢ ⎥ ⎧⎪A ij si i ≠ p
⎢ M M M ⎥ e(A)ij = ⎨ ;(c≠0)
⎢ A s1 As2 L A sn ⎥ ⎪⎩cA pj si i = p
⎢ ⎥
e( A ) = ⎢ M M M ⎥
⎢A + cA A p 2 + cA s 2 L A pn + cA sn ⎥
⎢ p1 s1
⎥ Sea A:
⎢ M M M ⎥
⎢ ⎥
⎣ A n1 A n2 A nn ⎦ ⎡ A11 A12 L A1n ⎤
⎢ ⎥
⎡1 L 0 L 0 L 0⎤ ⎢ M M M ⎥
⎢ ⎥ ⎢ A s1 A s 2 L A sn ⎥
⎢M M M M⎥
⎢ ⎥
⎢0 L 1 L 0 L 0⎥ A=⎢ M M M ⎥
⎢ ⎥ ⎢A
In = ⎢ M M M M⎥ A p 2 L A pn ⎥
⎢ p1 ⎥
⎢0 L 0 L 1 L 0⎥ ⎢ M M M ⎥
⎢ ⎥ ⎢ ⎥
⎢M M M M⎥ ⎣ A n1 A n 2 A nn ⎦
⎢ ⎥
⎣0 L 0 L 0 L 1⎦
Luego,
⎡1 L 0 L 0 L 0⎤
⎢ ⎥ ⎡ A11 A12 L A1n ⎤
⎢M M M M⎥ ⎢ ⎥
⎢0 L 1 L 0 L 0⎥ ⎢ M M M ⎥
⎢ ⎥ ⎢ A s1 A s 2 L A sn ⎥
E = e( I n ) = ⎢ M M M M⎥ ⎢ ⎥
⎢0 e( A ) = ⎢ M
L c L 1 L 0⎥ M M ⎥
⎢ ⎥ ⎢cA cA p 2 L cA pn ⎥
⎢M M M M⎥ ⎢ p1 ⎥
⎢ ⎥ ⎢ M M M ⎥
⎣0 L 0 L 0 L 1⎦ ⎢ ⎥
⎣ A n1 A n 2 A nn ⎦

⎡1 L 0 L 0 L 0⎤ ⎡ A11 A12 L A1n ⎤ ⎡1 L 0 L 0 L 0⎤


⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢M M M M⎥ ⎢ M M M ⎥ ⎢M M M M⎥
⎢0 L 1 L 0 L 0⎥ ⎢ A s1 A s 2 L A sn ⎥ ⎢0 L 1 L 0 L 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
EA = ⎢ M M M M⎥ ⎢ M M M ⎥ In = ⎢ M M M M⎥
⎢0 L c L 1 L 0⎥ ⎢A A p 2 L A pn ⎥ ⎢0 L 0 L 1 L 0⎥
⎢ ⎥ ⎢ p1 ⎥ ⎢ ⎥
⎢M M M M⎥ ⎢ M M M ⎥ ⎢M M M M⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣0 L 0 L 0 L 1⎦ ⎣ A n1 An2 A nn ⎦ ⎣0 L 0 L 0 L 1⎦

31 32
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡1 L 0 L 0 L 0⎤ ⎡ A11 A12 L A1n ⎤


⎢ ⎥ ⎢ ⎥
⎢M M M M⎥
⎢ M M M ⎥
⎢0 L 1 L 0 L 0⎥ ⎢A p1 A p 2 L A pn ⎥
⎢ ⎥ ⎢ ⎥
E = e( I n ) = ⎢ M M M M⎥ e( A ) = ⎢ M M M ⎥
⎢0 L 0 L c L 0⎥ ⎢A A s 2 L A sn ⎥
⎢ ⎥ ⎢ s1 ⎥
⎢M M M M⎥ ⎢ M M M ⎥
⎢ ⎥ ⎢ ⎥
⎣0 L 0 L 0 L 1⎦ ⎣A n1 A n 2 A nn ⎦
⎡1 L 0 L 0 L 0⎤
⎡1 L 0 L 0 L 0⎤ ⎡ A11 A12 L A1n ⎤ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢M M M M⎥
⎢M M M M⎥ ⎢ M M M ⎥ ⎢0 L 1 L 0 L 0⎥
⎢0 L 1 L 0 L 0⎥ ⎢ A s1 A s 2 L A sn ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ In = ⎢ M M M M⎥
EA = ⎢ M M M M⎥ ⎢ M M M ⎥ ⎢0 L 0 L 1 L 0⎥
⎢0 L 0 L c L 0⎥ ⎢A A p 2 L A pn ⎥ ⎢ ⎥
⎢ ⎥ ⎢ p1 ⎥ ⎢M M M M⎥
⎢M M M M⎥ ⎢ M M M ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎣0 L 0 L 0 L 1⎦
⎣0 L 0 L 0 L 1⎦ ⎣ A n1 An2 A nn ⎦

⎡ A11 A12 L A1n ⎤ ⎡1 L 0 L 0 L 0⎤


⎢ ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎢M M M M⎥
⎢ A s1 A s 2 L A sn ⎥ ⎢0 L 0 L 1 L 0⎥
⎢ ⎥ ⎢ ⎥
= ⎢ M M M ⎥ = e(A) E = e( I n ) = ⎢ M M M M⎥
⎢cA cA p 2 L cA pn ⎥ ⎢0 L 1 L 0 L 0⎥
⎢ p1 ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎢M M M M⎥
⎢ ⎥ ⎢ ⎥
⎣ A n1 A n 2 A nn ⎦ ⎣0 L 0 L 0 L 1⎦

3. Consideremos la operación elemental de filas e: Mnxn(K)→ Mnxn(K) ⎡1 L 0 L 0 L 0⎤ ⎡ A11 A12 L A1n ⎤


definida por: ⎢ ⎥ ⎢ ⎥
⎢M M M M⎥ ⎢ M M M ⎥
⎢0 L 0 L 1 L 0⎥ ⎢ A s1 A s 2 L A sn ⎥
⎧A ij si i ≠ p e i ≠ s ⎢ ⎥ ⎢ ⎥
⎪ EA = ⎢ M M M M⎥ ⎢ M M M ⎥
e(A)ij = ⎨ A sj si i = p ⎢A
⎢0 L 1 L 0 L 0⎥ A p 2 L A pn ⎥
⎪A si i = s ⎢ ⎥ ⎢ p1 ⎥
⎩ pj ⎢M M M M⎥ ⎢ M M M ⎥
⎢ ⎥ ⎢ ⎥
⎣0 L 0 L 0 L 1⎦ ⎣ A n1 An2 A nn ⎦
Sea A:
⎡ A11 A12 L A1n ⎤
⎢ ⎥
⎡ A11 A12 L A1n ⎤ ⎢ M M M ⎥
⎢ ⎥ ⎢ A p1
⎢ M M M ⎥ A p 2 L A pn ⎥
⎢ ⎥
⎢ A s1 A s 2 L A sn ⎥ = ⎢ M M M ⎥ = e(A)
⎢ ⎥ ⎢A
A=⎢ M M M ⎥ A s 2 L A sn ⎥
⎢ s1 ⎥
⎢A A p 2 L A pn ⎥ ⎢ M M M ⎥
⎢ p1 ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎣ A n1 An2 A nn ⎦
⎢ ⎥
⎣ A n1 A n 2 A nn ⎦

Luego,

33 34
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Observaciones: Teorema 1.16.

Del teorema anterior se desprenden las siguientes conclusiones: Sea A∈Mnxn(K). Si A es invertible entonces A es equivalente por filas a In.

1. Sean f una operación elemental de columnas y F∈Mnxn(K) la matriz Demostración


elemental F = f(In). Entonces ∀ A∈Mnxn(K) se cumple que
AF = f(A). Sea R∈Mnxn(K) la matriz escalonada por filas equivalente por filas a A.
2. Sean A, B∈Mnxn(K). Entonces B es equivalente por filas a A si y Entonces existen matrices elementales E1, E2,…, Et ∈Mnxn(K) tales que
sólo si existen matrices elementales E1, E2, …, Et∈Mnxn(K) tales R = EtEt-1…E1A y por lo tanto A = E1-1E2-1…Et-1R.
que B = EtEt-1…E1A.
3. Sea A∈Mnxn(K). Si R∈Mnxn(K) es la matriz escalonada reducida Luego si A es invertible entonces E1-1E2-1…Et-1R es invertible, lo cual significa
por filas equivalente por filas a A entonces existen matrices que R es invertible y por consiguiente R = In. Por lo tanto, A = E1-1E2-1…Et-1In
elementales E1, E2, …, Et ∈Mnxn(K) tales que R = EtEt-1…E1A. lo que significa que A es equivalente por filas a In.

Teorema 1.14. Observaciones:

Sea E∈Mnxn(K). Si E es una matriz elemental entonces E es invertible. Sea A∈Mnxn(K).

Demostración 1. Si A es equivalente por filas a In entonces A es un producto de


matrices elementales, ya que A = E1-1E2-1…Et-1In = E1-1E2-1…Et-1. En
Supongamos que E se define por la operación elemental de fila e. Luego, ese caso, EtEt-1…E1A = In, es decir, (EtEt-1…E1In)A = In.
E = e(In). Sea e1 la operación elemental de filas inversa de e. Queda definida de 2. Para determinar si A es Invertible se determina su matriz
esta forma la matriz elemental E1 = e1(In). Por consiguiente, escalonada reducida por filas R. Entonces se tiene que:
2.1. Si R tiene por lo menos una fila nula entonces A no es
EE1 = e(E1) = e(e1(In)) = In y E1E = e1(E) = e1(e(In)) = In. invertible.
2.2. Si R = In entonces A es invertible y su matriz inversa A-1 se
Esto significa que E es invertible y además que E-1 = E1. obtiene aplicándole a In las mismas operaciones elementales
de fila que permiten obtener In de A, es decir,
Observación: A-1 = EtEt-1…E1In.

1. (Aps(c))-1 = Aps(-c), c ≠ 0 . ([A | In] → … → [In | A-1])


2. (Mp(c))-1 = Mp(c-1), c ≠ 0 .
Ejemplo 1.27.
3. Hps-1 = Hps.
Sea A∈M3x3(ℜ) definida por:
Teorema 1.15.

Sea R∈Mnxn(K) una matriz escalonada reducida por filas. Si R es invertible ⎡ 1 0 2⎤


⎢ ⎥
entonces R = In. A = ⎢− 1 2 1⎥

Demostración ⎣⎢ 1 1 3⎦⎥

Si R es invertible entonces R tiene todas sus filas y columnas no nulas. Como Para determinar si A es no singular y en caso afirmativo hallar la matriz
R es una matriz cuadrada y es escalonada reducida por filas entonces inversa A-1 determinaremos la matriz R escalonada reducida por filas de A y
necesariamente R tiene la forma: simultáneamente aplicaremos las mismas operaciones elementales de filas para
obtener R a partir de A sobre la matriz I3 de modo de no perder el trabajo de
⎡1 0 L 0 L 0 ⎤ hallar A-1 de una vez en el caso en que resulte que R = I3, es decir, que A sea
⎢ ⎥ no singular.
⎢0 1 L 0 L 0 ⎥
⎢M M M M ⎥
R=⎢ ⎥ = In ⎡ 1 0 2 1 0 0⎤ ⎡1 0 2 1 0 0⎤
⎢0 0 L 1 L 0 ⎥ ⎢ ⎥ 2 →r2 + r1 ⎢ ⎥ r3 → r3 − r1
[A | I3] = ⎢− 1 2 1 0 1 0⎥ ⎯r⎯ ⎯⎯→ ⎢0 2 3 1 1 0⎥ ⎯⎯⎯⎯→
⎢M M ⎥

M M
⎥ ⎢ 1 1 3 0 0 1⎥ ⎢1 1 3 0 0 1⎥
⎣ ⎦ ⎣ ⎦
⎣⎢0 0 L 0 L 1 ⎦⎥

35 36
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡1 0 2 1 0 0 ⎤ 1.8. TRAZA DE UNA MATRIZ.


1
⎢ ⎥ r2 → 2 r2
⎢0 2 3 1 1 0⎥ ⎯⎯ ⎯ ⎯→ Definición 1.28.
⎢0 1 1 − 1 0 1 ⎥
⎣ ⎦
Sea A∈Mnxn(K). Se define como traza de A y se denota por Traza(A) a:
⎡1 0 2 1 0 0⎤
⎢ 3 1 1 ⎥ 3 →r3 − r2
⎢0 1 0 ⎯r⎯ ⎯⎯→ n
2 2 2 ⎥ Traza (A) = ∑A
⎢0 1 1 − 1 0 1⎥⎦
ii
⎣ i =1

⎡ ⎤
⎢1 0 2 1 0 0⎥ Es decir, la traza de una matriz es la suma de los elementos de la diagonal
⎢0 1 3 1 1 0⎥ ⎯r⎯
3 → −2 r3
⎯ ⎯→ principal.
⎢ 2 2 2 ⎥
⎢0 0 − 1 2 − 3 2 − 1 2 1⎥ Ejemplo 1.28.
⎣ ⎦
⎡1 0 2 1 0 0⎤ ⎡1 0 0 − 5 − 2 4⎤ En el ejemplo 1.25. Traza(A) = 1 +2 +3 = 6.
⎢ ⎥ 1 →r1 − 2 r3 ⎢ ⎥
⎢0 1 0 − 4 −1 3⎥ ⎯r⎯ ⎯⎯→ ⎢ 0 1 0 − 4 − 1 3⎥
⎢0 0 1 3 1 − 2⎥⎦ ⎢0 0 1 3 1 − 2⎥⎦
Teorema 1.18.
⎣ ⎣
= [R | B] Sean A, B ∈Mnxn(K) y c∈K con c ≠ 0. Entonces se cumple que:

Como R = I3 entonces A es no singular y la matriz inversa de A es B, es decir, 1. Traza(cA) = cTraza(A).


2. Traza(A+B) = Traza(A)+Traza(B).
⎡ −5 −2 4⎤ 3. Traza(A–B) = Traza(A) – Traza(B).
⎢ ⎥ 4. Traza(AB) = Traza(BA).
A-1 = ⎢− 4 − 1 3⎥
5. Si B es no singular entonces Traza(B-1AB) = Traza(A).
⎢⎣ 3 1 − 2⎥⎦ n n
6. Traza(AAt) = ∑∑ (A
i =1 j=1
ij )2
Teorema 1.17.
Demostración
Sean A, B∈Mnxn(K). Si A es invertible y A es equivalente por filas a B
1. (cA)ij = c(Aij). Por lo tanto,
entonces B es invertible.
n n n

Demostración
Traza (cA) = ∑ (cA) = ∑ c(A
i =1
ii
i =1
ii )=c ∑A
i =1
ii = cTraza (A)

2. (A+B)ij = Aij + Bij. Por lo tanto,


Como A es invertible entonces A es equivalente por filas a In, es decir, existen
matrices elementales E1, E2,…, Et tales que A = EtEt-1…E1In. Por otra parte n n n n
como A es equivalente por filas a B entonces existen matrices elementales
E*1, E*2,…, E*s tales que A = E*sE*s-1…E*1B. Luego se cumple que:
Traza (A + B) = ∑ (A + B) = ∑ (A
i =1
ii
i =1
ii + Bii ) = ∑A + ∑B
i =1
ii
i =1
ii

=
E*sE*s-1…E*1B = EtEt-1…E1In Traza(A) + Traza(B)

De lo anterior se puede deducir las 2 siguientes igualdades: 3. (A–B)ij = Aij – Bij. Por lo tanto,

E1-1E2-1…Et-1E*sE*s-1…E*1B = In n n n n

-1 -1
BE1 E2 …E E E -1 * * *
…E = In
Traza (A − B) = ∑ (A − B) = ∑ (A
i =1
ii
i =1
ii − Bii ) = ∑A − ∑B
i =1
ii
i =1
ii
t s s-1 1
=
Es decir, B es invertible y además B-1 = Et-1Et-1-1…E1-1E*sE*s-1…E*1. Traza(A) – Traza(B)

n n
4. (AB)ij = ∑A
r =1
ir B rj y (BA)ij = ∑B A
r =1
ir rj . Luego,

37 38
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

n n n Teorema 1.20.
Traza(AB) = ∑ (AB) = ∑∑ A
i =1
ii
i =1 r =1
ir B ri
Sean A, B∈Mnxn(K). Si A y B son matrices triangulares superiores entonces
n n n n n
AB es una matriz triangular superior.
Traza(BA) = ∑ (BA) = ∑∑ B
i =1
ii
i =1 r =1
ir A ri = ∑∑ B
i =1 r =1
ri A ir

Demostración
n n
Si A y B son matrices triangulares superiores entonces A y B tienen la
= ∑∑ A
i =1 r =1
ir Bri = Traza (AB)
siguiente forma:

5. Traza(B-1AB) = Traza(ABB-1) = Traza(AIn) = Traza(A). ⎡A11 A12 L A1n ⎤ ⎡B11 B12 L B1n ⎤
⎢ ⎥ ⎢ ⎥
0 A L A 0 B22 L B2 n ⎥
6. (At)ij = Aji. Por lo tanto, A=⎢ 22 2n ⎥
y B=⎢
⎢ M M M ⎥ ⎢ M M M ⎥
n n
⎢ ⎥ ⎢ ⎥
(AAt)ij = ∑A
r =1
ir (A t ) rj = ∑A
r =1
ir A jr ⎣⎢ 0 0 L A ⎥
nn ⎦ ⎣⎢ 0 0 L B nn ⎥

Luego,
Luego,
⎡ 1 2 n

n n n n n n

⎢ A1r B r1 ∑A 1r Br 2 L ∑A B rn ⎥
1r
⎢ r =1 ⎥
∑∑ A ∑∑ (A ∑∑ (A
r =1 r =1
Traza(AAt) = ir A ir = ir )2 = ij )2 ⎢ 2 n

i =1 r =1 i =1 r =1 i =1 j=1
AB = ⎢
0 ∑A 2r Br 2 L ∑ A 2 r B rn ⎥
⎢ r =2 r =2 ⎥
1.9. FACTORIZACIÓN LU. ⎢ M M M ⎥
⎢ n ⎥
⎢ 0 0 L ∑ A nr B rn ⎥
Teorema 1.19. ⎣⎢ r =n ⎦⎥

Sean A, B∈Mnxn(K). Si A y B son matrices triangulares inferiores con unos en Es decir, AB es una matriz triangular superior.
la diagonal principal entonces AB es una matriz triangular inferior con unos en
la diagonal principal. Teorema 1.21.
Demostración Sean A, U∈Mnxn(K). Si A es equivalente por filas a U solamente con
operaciones elementales de fila del tipo rp → rp + crs y U es triangular superior
Si A y B son matrices triangulares inferiores con unos en la diagonal principal
entonces existe una matriz triangular inferior L∈Mnxn(K) no singular con unos
entonces A y B tienen la siguiente forma:
en la diagonal principal tal que A = LU.

⎡ 1 0 L 0⎤ ⎡ 1 0 L 0⎤ Demostración
⎢ ⎥ ⎢ ⎥
A 1 L 0⎥ B 1 L 0⎥
A = ⎢ 21 y B = ⎢ 21 Si A es equivalente por filas a U solamente con operaciones elementales de fila
⎢ M M M ⎥ ⎢ M M M⎥
⎢ ⎥ ⎢ ⎥ del tipo rp → rp + crs entonces existen matrices elementales E1, E2,…, Et tales
⎣⎢A n1 An2 L 1⎦⎥ ⎣⎢B n1 Bn 2 L 1⎦⎥ que U = EtEt-1…E1A. En consecuencia, A = E1-1E2-1…Et-1U.
Luego,
Ahora bien, las matrices elementales E1, E2,…, Et son obtenidas aplicándole a
⎡ 1 0 L 0⎤ la matriz identidad In solamente operaciones elementales de fila de la forma
⎢ ⎥ rp → rp + crs y como estas matrices elementales se utilizan para reducir la
⎢ A 21 + B 21 1 L 0⎥ matriz A a la matriz triangular superior U entonces E1, E2,…, Et son matrices
AB = ⎢ M M ⎥ triangulares inferiores con unos en la diagonal principal. Luego, sus
⎢ n n ⎥ correspondientes matrices inversas son también triangulares inferiores con
⎢A n1 + A ir B rj ∑ An2 + ∑A ir Brj L 1⎥ unos en la diagonal principal.
⎣⎢ r =2 r =3 ⎦⎥
Sea L = E1-1E2-1…Et-1. Como E1-1, E2-1,…, Et-1 son matrices triangulares
Es decir, AB es una matriz triangular inferior con unos en la diagonal inferiores con unos en la diagonal principal entonces L es una matriz triangular
principal.

39 40
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

inferior con unos en la diagonal principal y además se cumple que L-1A = U, es Teorema 1.22.
decir, que A = LU.
Sea A∈Mnxn(K). Si A es invertible entonces existen matrices únicas
([A | In] → … → [U | L-1]) L∈Mnxn(K) triangular inferior con unos en la diagonal principal y U∈Mnxn(K)
triangular superior tales que A = LU.
Ejemplo 1.29.
Demostración
Sea A∈M3x3(ℜ) definida por:
Por el teorema anterior se sabe que existe una matriz triangular inferior
⎡1 2 2⎤ L∈Mnxn(K) no singular con unos en la diagonal principal tal que A = LU.
⎢ ⎥ Supongamos que existen matrices triangulares superiores U1, U2∈Mnxn(K) tales
A = ⎢2 1 3⎥
que A es equivalente por filas a U1 y también a U2. Luego por el teorema
⎢⎣1 4 2⎥⎦ anterior se cumple que existen matrices L1 y L2∈Mnxn(K) tales que:

Para factorizar A de la forma LU buscaremos una matriz U triangular superior A = L1U1 = L2U2
y equivalente por filas a A solamente con operaciones elementales de fila del
tipo rp → rp + crs. Dichas operaciones las aplicaremos simultáneamente sobre I3 Como A es equivalente por filas a U1 y U2 y A es invertible entonces U1 y U2
para obtener L-1. Veamos: son matrices invertibles. Por otra parte, como L1 y L2 se obtienen como
producto de matrices elementales entonces es obvio que L1 y L2 son matrices
invertibles. Luego,
⎡1 2 2 1 0 0⎤ r →r − 2 r ⎡1 2 2 1 0 0⎤
[A | I3 ] = ⎢⎢2 ⎥ ⎯⎯ ⎯ ⎯1 → ⎢ ⎥
2 2
1 3 0 1 0⎥ r → r − r ⎢ 0 − 3 − 1 − 2 1 0⎥ U1U2-1 = (L1-1L1)(U1U2-1)
⎢1 4 2 0 0 1⎥ ⎯⎯⎯⎯→ ⎢0
3 3 1

⎣ ⎦ ⎣ 2 0 − 1 0 1⎥⎦ = L1-1(L1U1)U2-1 = L1-1(L2U2)U2-1 = (L1-1L2)(U2U2-1) = L1-1L2

⎡1 2 2 1 0 0⎤ Ahora bien, U2-1 es triangular superior y L1-1 es triangular inferior. Por lo tanto
⎢ ⎥
[ ] se cumple que U1U2-1 es triangular superior y L1-1L2 es triangular inferior con
2
r3 → r3 + r2
⎯⎯⎯ ⎯
⎯→⎢0 − 3 − 1 − 2
3
1 0⎥ = U | L−1 unos en la diagonal principal. Por consiguiente la única forma de que U1U2-1
⎢ 2 7 2 ⎥
⎢⎣0 0 − 3 − 3 1 sea igual a L1-1L2 es que ambas sean iguales a In, es decir:
3 ⎥⎦
Luego, U1U2-1 = L1-1L2 = In
⇒ U1U2-1 = In y L1-1L2 = In
⎡ 1 0 0⎤ ⎡1 2 2 ⎤ ⇒ U1 = U2 y L1 = L2
⎢ ⎥ ⎢ ⎥
L−1 = ⎢ − 2 1 0 ⎥ y U = ⎢0 − 3 − 1 ⎥
⎢− 7 ⎥ ⎢ Luego las matrices L y U son únicas.
2 1⎥ 0 0 − 2 ⎥⎥
⎣⎢ 3 3 ⎦ ⎣⎢ 3⎦
Ejemplo 1.30.
Para determinar L se aplican en orden inverso las inversas de las operaciones
En el ejemplo 1.27. se puede verificar que A es no singular. Por consiguiente,
elementales utilizadas para hallar L-1 a partir de I3:
las matrices L y U obtenidas son únicas para factorizar A de la forma A = LU.

⎡1 0 0 ⎤ ⎡1 0 0⎤ r → r + r ⎡1 0 0⎤ Consideremos ahora la matriz B∈M3x3(ℜ) definida por:


⎥ r3 →r3 − 3 r2 ⎢ ⎥ ⎯⎯ ⎯→ ⎢ ⎥
2
⎢ 3
⎯3 1
I 3 = ⎢0 1 0⎥ ⎯⎯⎯ ⎯ ⎯→ ⎢0 1 0⎥ r → r + 2 r ⎢2 1 0⎥ = L
⎢0 − 2 ⎯⎯ ⎯ ⎯ →
1⎥⎥ ⎢1 − 2 1⎥⎥
2 2 1
⎢⎣0 0 1⎥⎦ ⎡1 2 2 ⎤
⎢⎣ 3 ⎦ ⎢⎣ 3 ⎦ ⎢ ⎥
B = ⎢ 2 1 3⎥
De esta forma se obtiene que: ⎢⎣2 4 4⎥⎦

⎡1 0 0⎤ ⎡1 2 2 ⎤ Se puede verificar fácilmente que la matriz B es singular. Veamos ahora que


⎢ ⎥ ⎢ ⎥ no existen únicas matrices L y U tales que B=LU:
L = ⎢2 1 0⎥ ; U = ⎢0 − 3 − 1 ⎥ y se cumple que A = LU.
⎢1 − 2 ⎥
1⎥ ⎢ 0 0 − 2 ⎥⎥
⎣⎢ 3 ⎦ ⎣⎢ 3⎦

41 42
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡1 2 2 1 0 0⎤ r → r − 2 r ⎡1 2 2 1 0 0⎤ ⎡1 0 0⎤ ⎡1 2 2⎤
[B | I3 ] = ⎢⎢2 ⎥ ⎯⎯ ⎯ ⎯1 → ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
2 2
1 3 0 1 0 ⎥ r → r − 2 r ⎢0 − 3 − 1 − 2 1 0⎥ (1) L = ⎢2 1 − 1⎥ ; U = ⎢0 − 3 − 1 ⎥ y se cumple que B = LU.
⎢2 4 4 0 0 1⎥ ⎯⎯⎯⎯→ ⎢0
3 3 1

⎣ ⎦ ⎣ 0 0 − 2 0 1⎥⎦ ⎢⎣2 0 1⎥⎦ ⎢⎣0 0 0⎥⎦

Luego, Luego, no existen matrices únicas L y U tales que B = LU.

Definición 1.29.
⎡ 1 0 0⎤ ⎡1 2 2⎤
⎢ ⎥ ⎢ ⎥
L−1 = ⎢− 2 1 0⎥ y U = ⎢0 − 3 − 1⎥ Sea P∈Mnxn(K). Se dice que P es una matriz de permutación si P = E1E2…Et,
⎢⎣− 2 0 1⎥⎦ ⎢⎣0 0 0 ⎥⎦ siendo E1, E2,…Et matrices elementales obtenidas cada una de ellas con la
operación elemental de filas rp ↔ rs.
Para determinar L se aplican en orden inverso las inversas de las operaciones
elementales utilizadas para hallar L-1 a partir de I3: Ejemplo 1.31.

Sea P∈M3x3(ℜ) definida por:


⎡1 0 0⎤ r →r + 2 r ⎡1 0 0⎤
⎢ ⎥ ⎯⎯
3
⎯3
⎯1 → ⎢ ⎥
I 3 = ⎢0 1 0 ⎥ r → r + 2 r ⎢ 2 1 0 ⎥ = L ⎡0 0 1 ⎤
⎢⎣0 0 1⎥⎦ ⎯⎯ ⎯⎯→ ⎢⎣2 0 1⎥⎦
2 2 1
⎢ ⎥
P = ⎢1 0 0⎥
⎢⎣0 1 0⎥⎦
De esta forma se obtiene que:
P es una matriz de permutación ya que:
⎡1 0 0⎤ ⎡1 2 2⎤
⎢ ⎥ ⎢ ⎥
L = ⎢2 1 0⎥ ; U = ⎢0 − 3 − 1⎥ y se cumple que B = LU. ⎡1 0 0⎤ ⎡1 0 0⎤ ⎡0 0 1 ⎤
⎢⎣2 0 1⎥⎦ ⎢⎣0 0 0 ⎥⎦ ⎢ ⎥ 2 ↔ r3 ⎢ ⎥ 1 ↔ r2 ⎢ ⎥
I 3 = ⎢0 1 0⎥ ⎯r⎯ ⎯→ ⎢0 0 1⎥ ⎯r⎯ ⎯→ ⎢1 0 0⎥ = P
⎢⎣0 0 1⎥⎦ ⎢⎣0 1 0⎥⎦ ⎢⎣0 1 0⎥⎦
Pero si en (1) hacemos lo siguiente:
Teorema 1.23.
⎡1 2 2 1 0 0⎤
2 → r2 + r3
⎢ ⎥
⎯r⎯ ⎯⎯→⎢0 − 3 − 1 − 4 1 1⎥ Sea A∈Mnxn(K). Si A invertible entonces existe una matriz de permutación
⎢0 0 0 − 2 0 1⎥⎦ P∈Mnxn(K) tal que PA = LU, siendo L∈Mnxn(K) una matriz triangular inferior
⎣ con unos en la diagonal principal y U∈Mnxn(K) una matriz triangular superior.
Obtenemos que, Demostración

⎡ 1 0 0⎤ ⎡1 2 2⎤ Como P es una matriz de permutación entonces P es un producto de matrices


⎢ ⎥ ⎢ ⎥ elementales. Luego es obvio que P es una matriz invertible. Como A es
L−1 = ⎢− 4 1 1⎥ y U = ⎢0 − 3 − 1⎥
invertible entonces PA es también invertible. Si se aplica el teorema anterior
⎢⎣− 2 0 1⎥⎦ ⎢⎣0 0 0 ⎥⎦ sobre la matriz PA se obtiene que existen matrices únicas matrices L∈Mnxn(K)
triangular inferior con unos en la diagonal principal y U∈Mnxn(K) triangular
Para determinar L se aplican en orden inverso las inversas de las operaciones superior tales que PA = LU.
elementales utilizadas para hallar L-1 a partir de I3:
Ejemplo 1.32.
⎡1 0 0 ⎤ ⎡1 0 0 ⎤ r → r + 2 r ⎡1 0 0⎤
⎢ ⎥ 2 →r2 − r3 ⎢ ⎥ ⎯⎯
3
⎯ 3
⎯1 → ⎢ ⎥ Sea C∈M3x3(ℜ) definida por:
I 3 = ⎢0 1 0⎥ ⎯r⎯ ⎯⎯→ ⎢0 1 − 1 ⎥ r → r + 2 r ⎢2 1 − 1⎥ = L
⎢⎣0 0 1⎥⎦ ⎢⎣0 ⎯⎯ ⎯⎯1 → ⎢
2 2
0 1⎥⎦ ⎣2 0 1⎥⎦
⎡ 2 1 3⎤
⎢ ⎥
C = ⎢1 4 2 ⎥
De esta forma se obtiene que:
⎢⎣1 2 2⎥⎦

43 44
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Si tomamos la matriz de permutación P del ejemplo 1.29. y la C21 = A i 2 j1 = A32 = 4


premultiplicamos por C obtenemos que PC = A, siendo A la matriz del
ejemplo 1.27., la cual es no singular y se descompone de la forma LU. Luego C22 = A i 2 j2 = A33 = 2
existe entonces una matriz de permutación P tal que PC = LU.
La matriz C es entonces:
1.10. SUB-MATRIZ Y MATRIZ PARTICIONADA.
⎡2 1 ⎤
Definición 1.30. C=⎢ ⎥
⎣ 4 2⎦
Sean A∈Mmxn(K), i1, i2,…, it, j1, j2,…, js∈ℵ* tales que 1 ≤ i1 < i2 <… < it ≤ m y
1 ≤ j1 < j2 <… < js ≤ n. La matriz B∈Mtxs(K) definida como Bpq = A i p jq ; Sin embargo, C no es una sub-matriz principal líder ya que i1 = j1 ≠ 1. Nótese
que C se obtiene al eliminar de A la fila 1 y las columnas 1 y 4.
p = 1, 2,…, t; q = 1, 2,…, s, se dice que es una sub-matriz de A.
Una sub-matriz principal líder es la matriz D∈M2x2(ℜ) tal que i1 = 1; i2 = 2,
Si t = s e ip = jp; p = 1, 2,…, t entonces B se dice que es una sub-matriz j1 = 1, j2 = 2. Luego,
principal.

Si además se tiene que ip = jp = p, p = 1, 2,… , t entonces B se dice que es una D11 = A i1 j1 = A11 = 1
sub-matriz principal líder. D12 = A i1 j2 = A12 = 0

Ejemplo 1.33. D21 = A i 2 j1 = A21 = 3


D22 = A i 2 j2 = A22 = 2
Sea A∈M3x4(ℜ) definida por:

La matriz D es entonces:
⎡1 0 2 3⎤
⎢ ⎥
A = ⎢3 2 1 1⎥
⎡1 0⎤
⎢⎣5 4 2 6⎥⎦ D=⎢ ⎥
⎣3 2⎦

Sea B∈M2x2(ℜ) tal que i1 = 2; i2 = 3, j1 = 2, j2 = 4. Luego, Definición 1.31.

B11 = A i1 j1 = A22 = 2 Sean A∈Mmxn(K) y {m1, m2,…, mp} y {n1, n2,…, nq} sub-conjuntos de ℵ* tales
p q
B12 = A i1 j2 = A24 = 1 que ∑m
r =1
r =m y ∑n
r =1
r = n . Si A i , j ∈ M m i xn j (K); i = 1, 2,…, p; j = 1, 2,…, q
B21 = A i 2 j1 = A32 = 4
entonces la matriz:
B22 = A i 2 j2 = A34 = 6
⎡ A1,1 A1, 2 L A1,q ⎤
La matriz B es entonces: ⎢ ⎥
A 2,1 A 2, 2 L A 2,q ⎥
A=⎢
⎢ M M M ⎥
⎡2 1⎤ ⎢ ⎥
B=⎢ ⎥ A
⎣⎢ p,1 A p, 2 L A ⎥
p ,q ⎦
⎣ 4 6⎦
Se dice que es una matriz particionada o una matriz por bloques pxq.
B es una sub-matriz de A. B no es sub-matriz principal ya que aunque es de
orden 2x2 e i1 = j1, i2 ≠ j2. Observación:
Una sub-matriz principal es la matriz C∈M2x2(ℜ) tal que i1 = 2; i2 = 3, j1 = 2, Toda matriz A∈Mmxn(K) se puede expresar como una matriz particionada o
j2 = 3. Luego, por bloques mx1 (particionada por filas) y como una matriz particionada o por
bloques 1xn (particionada por columnas). Las columnas de A son vectores
C11 = A i1 j1 = A22 = 2 columnas y se denotan por A1, A2, …, An y sus respectivas transpuestas
C12 = A i1 j2 = A23 = 1 conforman las filas de At. Las filas de A son vectores filas y en consecuencia

45 46
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

se denotan por (A1)t, (A2)t, …, (Am)t, ya que sus respectivas transpuestas q

conforman las columnas de At. (AB)i,j = ∑A


r =1
i,r Br , j

La matriz particionada por filas es:


Demostración
⎡ (A1 ) ⎤t

⎢ ⎥ 1. Por definición de matriz transpuesta: (At)ij = Aji


(A ) t
A= ⎢ 2 ⎥
⎢ M ⎥ Es decir, las filas (respectivamente las columnas) de At son las
⎢ t
⎥ columnas (respectivamente las filas) de A. En este caso A es una
⎣⎢(A m ) ⎦⎥ matriz particionada, es decir, sus elementos son matrices. Por lo
tanto si A es definida de la forma:
La matriz particionada por columnas es:
⎡ A1,1 A1, 2 L A1,q ⎤
A = [ A1 A2 L An ] ⎢ ⎥
A 2,1 A 2, 2 L A 2,q ⎥
A=⎢
⎢ M M M ⎥
Ejemplo 1.34. ⎢ ⎥
⎣⎢A p,1 A p, 2 L A p,q ⎦⎥
Consideremos la matriz A del ejemplo 1.33.
Entonces su matriz transpuesta está definida de la forma:
⎡1 0 2 3⎤
⎢ ⎥
A = ⎢3 2 1 1⎥ ⎡ (A1,1 ) t (A 2,1 ) t L (A p,1 ) t ⎤
⎢⎣5 4 2 6⎥⎦ ⎢ ⎥
(A ) t ( A 2, 2 ) t L ( A p , 2 ) t ⎥
A t = ⎢⎢ 1, 2
M M M ⎥
⎢ ⎥
Si definimos las matrices A1,1, A1,2∈M2x2(ℜ) y A2,1, A2,2∈M1x2(ℜ) de la forma: ⎢⎣(A1,q )
t
(A 2,q ) L (A p ,q ) t ⎥⎦
t

⎡1 0⎤ ⎡2 3⎤
A1,1 = ⎢ ⎥; A1, 2 = ⎢ ⎥; A 2,1 = [5 4]; A 2,2 = [2 6]; 2. Por hipótesis:
⎣3 2 ⎦ ⎣1 1⎦
⎡ A1,1 A1, 2 L A1,s ⎤ ⎡ B1,1 B1, 2 L B1,s ⎤
Entonces A es una matriz particionada 2x2 ya que: ⎢ ⎥ ⎢ ⎥
A 2,1 A 2 , 2 L A 2 ,s ⎥ B2,1 B2, 2 L B2,s ⎥
A=⎢ y B=⎢
⎢ M M M ⎥ ⎢ M M M ⎥
⎡ A1,1 A1, 2 ⎤ ⎢ ⎥ ⎢ ⎥
A=⎢ ⎥ ⎢⎣A q ,1 A q , 2 L A q ,s ⎥⎦ ⎢⎣Bq ,1 Bq , 2 L Bq ,s ⎥⎦
⎢⎣A 2,1 A 2, 2 ⎥⎦

Luego,
Teorema 1.24.

Sean A∈Mmxn(K) una matriz particionada pxq con A i, j ∈ M mi xn j (K); i = 1, ⎡ q q q




⎢ A1, r B r ,1
⎢ r =1
∑A
r =1
1, r B r , 2 L ∑A
r =1
1, r B r ,s⎥

2,…, p; j = 1, 2,…, q y B∈Mnxt(K) una matriz particionada qxs
⎢ q q q

con Bi , j ∈ M n i xt j (K); i = 1, 2,…, q; j = 1, 2,…, t. Entonces se cumple que:
AB = ⎢ ∑
⎢ r =1
A 2, r B r ,1 ∑A
r =1
2,r B r , 2 L ∑
r =1
A 2 , r B r ,s ⎥

⎢ M M M ⎥
⎡ (A1,1 ) t ⎢ q q q ⎥
(A 2,1 ) t L (A p,1 ) t ⎤
⎢ ⎥ ∑
⎢ A p , r B r ,1 ∑A p,r Br ,2 L ∑ A p , r B r ,s ⎥
(A ) t
( A 2, 2 ) t L ( A p , 2 ) t ⎥ ⎣⎢ r =1 ⎦⎥
A t = ⎢⎢ 1, 2
r =1 r =1
1.
M M M ⎥
⎢ t
⎥ q
(A 2,q ) L (A p ,q ) t ⎥⎦
⎢⎣(A1,q )
t
Por tanto, (AB)i,j = ∑A i ,r Br , j
2. AB es una matriz particionada pxs definida de la siguiente forma: r =1

47 48
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Observaciones: Como A1,1 y A2,2 son matrices no singulares entonces tienen como matrices
escalonadas reducidas por filas a I n1 e I n 2 , respectivamente. Por consiguiente
Nótese que:
la matriz R escalonada reducida por filas de A es:
1. Si A∈Mmxn(K) es una matriz particionada por filas mx1 entonces
At∈Mnxm(K) es una matriz particionada por columnas 1xm, es ⎡ In θ n1xn 2 ⎤
R=⎢ 1 ⎥=I
decir: ⎢⎣θ n 2 xn1 I n 2 ⎥⎦ n

⎡ (A1 ) t ⎤ Luego, A es no singular.


⎢ ⎥
(A ) t
A = ⎢ 2 ⎥ y At = [A1 A 2 L A m ] Determinemos ahora la forma que tiene la matriz inversa de A. Sea:
⎢ M ⎥
⎢ t

⎢⎣(A m ) ⎥⎦
⎡ B1,1 B1, 2 ⎤
A −1 = ⎢ ⎥
2. Si A∈Mmxn(K) es una matriz particionada por columnas 1xn ⎣⎢B2,1 B2, 2 ⎥⎦
entonces At∈Mnxm(K) es una matriz particionada por filas nx1, es
decir: Luego debe verificar que AA-1 = A-1A = In, es decir:

⎡ (A1 ) t ⎤ ⎡ In θ n1xn 2 ⎤
⎢ 2 t⎥ AA −1 = A −1A = ⎢ 1 ⎥=I
(A ) ⎥ ⎣⎢θ n 2 xn1 I n 2 ⎦⎥ n
A = [ A1 A 2 L An ] y A = ⎢
⎢ M ⎥
⎢ n t⎥ En efecto,
⎣⎢(A ) ⎦⎥
⎡ A1,1 A1, 2 ⎤ ⎡ B1,1 B1, 2 ⎤ ⎡ I n1 θ n1xn 2 ⎤
Teorema 1.25. AA −1 = ⎢ ⎥⎢ ⎥=⎢ ⎥ (2) y
⎣⎢A 2,1 A 2, 2 ⎦⎥ ⎣⎢B2,1 B2, 2 ⎥⎦ ⎣⎢θ n 2 xn1 I n 2 ⎦⎥
Sean A∈Mnxn(K) una matriz particionada 2x2 con A i , j ∈ M n i xn j (K); i = 1, 2; ⎡ B1,1 B1, 2 ⎤ ⎡ A1,1 A1, 2 ⎤ ⎡ I n1 θ n1xn 2 ⎤
A −1A = ⎢ ⎥⎢ ⎥=⎢ ⎥ (3)
j = 1, 2, 0 < n1 < n, 0 < n2 < n, n1 + n2 = n. Si A1,1 y A2,2 son no singulares ⎣⎢B 2,1 B 2, 2 ⎥⎦ ⎣⎢A 2,1 A 2, 2 ⎦⎥ ⎣⎢θ n 2 xn1 I n 2 ⎦⎥
entonces A es no singular y además la matriz inversa de A se puede expresar
de las siguientes 2 formas:
Por el teorema 1.23., apartado 2 se tiene que las ecuaciones matriciales (2) y
(3) generan los sistemas de ecuaciones (4) y (5), respectivamente:
⎡ A11.2 − A1−,11A1, 2 (A 2, 2 − A 2,1A1−,11A1, 2 ) −1 ⎤
A −1 = ⎢ −1 −1 −1 ⎥
⎣⎢ − A A
2, 2 2,1 ( A1,1 − A A A
1, 2 2, 2 2,1 ) A 22.1 ⎦⎥ ⎧ A1,1B1,1 + A1, 2 B 2,1 = I n1

⎪A1,1B1, 2 + A1, 2 B 2, 2 = θ n1xn 2
⎨ (4)
⎡ A11.2 − (A1,1 − A1, 2 A −2,12 A 2,1 ) −1 A1, 2 A −2,12 ⎤ ⎪A 2,1B1,1 + A 2, 2 B 2,1 = θ n 2 xn1
=⎢ −1 −1 −1 ⎥ ; siendo: ⎪ A 2,1B1, 2 + A 2, 2 B2, 2 = I n
⎢⎣− (A 2, 2 − A 2,1A1,1A1, 2 ) A 2,1A1,1 A 22.1 ⎥⎦ ⎩ 2

⎧ B1,1A1,1 + B1, 2 A 2,1 = I n1



A11.2 = (A1,1 − A1, 2 A 2−,12 A 2,1 ) −1 y A 22.1 = (A 2, 2 − A 2,1A1−,11A1, 2 ) −1 ⎪B1,1A1, 2 + B1, 2 A 2, 2 = θ n1xn 2
⎨ (5)
⎪B 2,1A1,1 + B2, 2 A 2,1 = θ n 2 xn1
Demostración ⎪ B 2,1A1, 2 + B 2, 2 A 2, 2 = I n
⎩ 2

Por hipótesis la matriz A tiene la forma:


Como A1,1 y A2,2 son no singulares entonces de la tercera ecuación del sistema
(4) se obtiene que:
⎡ A1,1 A1, 2 ⎤
A=⎢ ⎥
⎣⎢A 2,1 A 2, 2 ⎦⎥ A 2, 2 B2,1 = − A 2,1B1,1
⇒ B2,1 = −A −2,12 A 2,1B1,1 (6)

49 50
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Sustituyendo (6) en la primera ecuación del sistema (4) se obtiene que: ⎡ B1,1 B1, 2 ⎤
A −1 = ⎢ ⎥
A1,1B1,1 + A1, 2 (−A 2−,12 A 2,1B1,1 ) = I n1 ⎣⎢B2,1 B2, 2 ⎥⎦
⎡ A11.2 − (A1,1 − A1, 2 A 2−,12 A 2,1 ) −1 A1, 2 A −2,12 ⎤
⇒ (A1,1 − A1, 2 A 2−,12 A 2,1 )B1,1 = I n1 =⎢ −1 −1 −1 ⎥
⎣⎢− (A 2, 2 − A 2,1A1,1A1, 2 ) A 2,1A1,1 A 22.1 ⎦⎥
−1
Lo cual implica que la matriz (A1,1 − A1, 2 A 22 A 2,1 ) es no singular por el
1.11. RANGO DE UNA MATRIZ.
teorema 1.11. y además se cumple que:
Definición 1.32.
B1,1 = (A1,1 − A1, 2 A −221A 2,1 ) −1 = A11.2 (7)
Sean A, R1 y R2∈Mmxn(K) tales que R1 es la matriz escalonada reducida por
Sustituyendo (7) en (6) se obtiene que: filas de A y R2 es la matriz escalonada reducida por columnas de A. Se define
como Rango de A y se denota por Rango(A) al número de filas no nulas de R1
o al número de columnas no nulas de R2.
B2,1 = − A −2,12 A 2,1 (A1,1 − A1, 2 A −221A 2,1 ) −1
De esta definición se desprende que el máximo valor que puede tomar el rango
Igualmente como A1,1 y A2,2 son no singulares entonces de la segunda ecuación de A es el mínimo entre m y n. Si Rango(A) = m entonces se dice que A es de
del sistema (4) se obtiene que: rango fila completo. Si Rango(A) = n se dice que A es de rango columna
completo. Si además m = n y Rango(A) = m = n se dice que A es de rango fila
A1,1B1, 2 = − A1, 2 B2, 2 columna completo.

⇒ B1, 2 = −A1−,11A1, 2 B2, 2 (8) Observación:

Sustituyendo (8) en la cuarta ecuación del sistema (4) se obtiene que: Para toda matriz A∈Mmxn(K) se cumple que el número de filas no nulas de su
matriz escalonada reducida por filas es igual al número de columnas no nulas
−A 2,1A1−,11A1, 2 B2, 2 + A 2, 2 B2, 2 = I n 2 de su matriz escalonada reducida por columnas.

⇒ (A 2, 2 − A 2,1A1−,11A1, 2 )B2, 2 = I n 2 Ejemplo 1.35.

Determinemos el Rango de la matriz A del ejemplo 1.33. Para ello


Lo cual implica que la matriz (A 2, 2 − A 2,1A1−,11A1, 2 ) es no singular por el determinemos su matriz escalonada reducida por filas:
teorema 1.11. y además se cumple que:
⎡1 0 2 3⎤ r →r −3r ⎡1 0 2 3⎤ 1
B2, 2 = (A 2, 2 − A 2,1A1−,11A1, 2 ) −1 = A 22.1 (9) ⎢ ⎥ ⎯⎯
2

2
⎯1 → ⎢ ⎥ r2 → 2 r2
A = ⎢3 2 1 1⎥ r →r −5r ⎢0 2 − 5 − 8⎥ ⎯⎯ ⎯ ⎯→
⎢⎣5 4 2 6⎥⎦ ⎯⎯⎯⎯→ ⎢⎣0 4 − 8 − 9⎥⎦
3 3 1

Sustituyendo (9) en (8) se obtiene que:


⎡1 0 2 3⎤ ⎡1 0 2 3⎤
⎢ 5 ⎥ r3 →r3 −4 r2 ⎢ 5 ⎥
B1, 2 = −A1−,11A1, 2 (A 2, 2 − A 2,1A1−,11A1, 2 ) −1 ⎢ 0 1 − − 4 ⎥ ⎯⎯ ⎯ ⎯ → ⎢ 0 1 − − 4 ⎥
2 2
⎢⎣0 4 − 8 − 9⎥⎦ ⎢⎣0 0 2 7 ⎥⎦
Por consiguiente,
⎡1 0 2 3 ⎤ r1→r1−2 r3 ⎡1 0 0 − 4 ⎤
1
r3 → r3 ⎢ ⎥ ⎯⎯⎯⎯→ ⎢ ⎥
⎡ B1,1 B1, 2 ⎤ ⎯⎯⎯ 2 → ⎢0 1 −5 − 4 ⎥ r2 →r2 + 5 r3 ⎢0 1 0 19 ⎥ = R
A −1 = ⎢ ⎢ 2 ⎥ ⎢ 4 ⎥
⎥ 7 ⎥ ⎯⎯⎯⎯→
2
⎢⎣B2,1 B2, 2 ⎥⎦ ⎢⎣0 0 1 0 0 1 7 ⎥
2⎦ ⎣⎢ 2⎦
⎡ A11.2 − A1−,11A1, 2 (A 2, 2 − A 2,1A1−,11A1, 2 ) −1 ⎤
=⎢ −1 −1 −1 ⎥ Luego, la matriz escalonada reducida por filas R de A tiene 3 filas no nulas. En
⎣⎢ − A A ( A − A A A ) A 22.1 ⎦⎥
2, 2 2 ,1 1,1 1, 2 2, 2 2 ,1 consecuencia, Rango(A) = 3. Nótese que A es de rango fila completo.

Procediendo de forma análoga con el sistema (5) se demuestra que:

51 52
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Teorema 1.26. AF = R2Ft-1Ft-1-1…F1-1F. Esto indica que AF es equivalente por columnas a R2,
es decir, R2 es la matriz escalonada reducida por columnas de AF. Luego,
Sean A, B∈Mmxn(K). Si A es equivalente por filas a B entonces
Rango(A) = Rango(B). Rango(AF) = Rango(A).

Demostración Por consiguiente, Rango(EA) = Rango(AF) = Rango(A)

Si A es equivalente por filas a B entonces existen matrices elementales Teorema 1.28.


E1, E2,…, Et tales que A = EtEt-1…E1B. Sean RA y RB las matrices escalonadas
reducidas por filas de A y B, respectivamente. Luego se cumple que existen Sean A∈Mmxn(K), P∈Mmxm(K) y Q∈Mnxn(K). Si P y Q son no singulares
matrices elementales EA1, EA2,… , EAt, EB1, EB2,… , EBt tales que entonces Rango(PA) = Rango(AQ) = Rango(PAQ) = Rango(A).

RA = EAtEAt-1…EA1A y RB = EBtEBt-1…EB1B Demostración

Luego, Como P y Q son no singulares existen matrices elementales EP1, EP2,…, EPt y
FQ1, FQ2,…, FQt tales que:
B= EB1-1EB2-1…EBt-1RB
EPtEPt-1…EP1P = Im y QFQtFQt-1…FQ1 = In.
Por tanto,
Por consiguiente,
A = EtEt-1…E1EB1-1EB2-1…EBt-1RB
P = EP1-1EP2-1…EPt-1 y Q = FQ1-1FQ2-1…FQt-1
Es decir, A es equivalente por filas a RB y como la matriz escalonada reducida
por filas de una matriz es única entonces RA = RB. Luego,

Por tanto, Rango(A) = Rango(B). PA = EP1-1EP2-1…EPt-1A

Teorema 1.27. AQ = AFQ1-1FQ2-1…FQt-1

Sean A∈Mmxn(K), E∈Mmxm(K) y F∈Mnxn(K). Si E y F son matrices PAQ = EP1-1EP2-1…EPt-1AFQ1-1FQ2-1…FQt-1


elementales por filas y columnas, respectivamente entonces:
Por el teorema anterior se obtiene que:
Rango(EA) = Rango (AF) = Rango(A)
Rango(PA) = Rango(EP1-1EP2-1…EPt-1A)
Demostración = Rango(EP2-1…EPt-1A) = … = Rango(A)

Sea R1 la matriz escalonada reducida por filas de la matriz A. En ese caso, Rango(AQ) = Rango(AQ = AFQ1-1FQ2-1…FQt-1)
existen matrices elementales E1, E2,…, Et tales que R1 = EtEt-1…E1A. Luego, = Rango(AQ = AFQ1-1FQ2-1…FQt-1-1) = … = Rango(A)

A = E1-1E2-1…Et-1R1 Rango(PAQ) = Rango(EP1-1EP2-1…EPt-1AFQ1-1FQ2-1…FQt-1)


= Rango(EP2-1…EPt-1AFQ1-1FQ2-1…FQt-1) = … = Rango(A)
Por lo tanto,
De esta forma se obtiene que:
EA = EE1-1E2-1…Et-1R1. Esto indica que EA es equivalente por filas a R1, es
decir, R1 es la matriz escalonada reducida por filas de EA. Luego, Rango(PA) = Rango(AQ) = Rango(PAQ)

Rango(EA) = Rango(A). Teorema 1.29.

Sea R2 la matriz escalonada reducida por columnas de la matriz A. En ese Sea A∈Mnxn(K). A es no singular si y sólo si Rango(A) = n.
caso, existen matrices elementales F1, F2,…, Ft tales que R2 = AF1F2…Ft.
Luego, Demostración

A = R2Ft-1Ft-1-1…F1-1 CN (⇒): Si A es no singular entonces Rango(A) = n.


Por lo tanto,

53 54
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Si A es no singular entonces se cumple que A-1A = In. Luego, ⎡ Ir θ rx ( n − r ) ⎤


EtEt-1…E1AF1F2…Fs = ⎢ ⎥ = R(A)
-1
Rango(A A) = Rango (In) ⎣⎢θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎦⎥
⇒ Rango(A) = n
Por lo tanto, como E1, E2,…, Et, F1, F2,…, Fs son matrices elementales
CS (⇐): Si Rango(A) = n entonces A es no singular. entonces existen matrices no singulares P∈Mmxm(K) y Q∈Mnxn(K) con
P = EtEt-1…E1 y Q = F1F2…Fs tales que PAQ = R(A).
Sea R∈Mnxn(K) la matriz escalonada reducida por filas de A. Si Rango(A) = n
entonces R tiene exactamente n filas y n columnas no nulas. Por lo tanto R = Observación:
In. Luego, A es no singular.
Las matrices P y Q no son únicas para obtener la matriz R(A) a partir de A.
Observación:
Ejemplo 1.37.
Sea A∈Mnxn(K). Aplicando la equivalencia contrarecíproca en el teorema
anterior se obtiene que A es singular si y sólo si Rango(A) < n. Para la matriz A del ejemplo 1.33., determinaremos matrices no singulares P y
Q tales que PAQ = R(A). Como A∈M3x4(ℜ) entonces P∈M3x3(ℜ) y
Definición 1.33. Q∈M4x4(ℜ). Para ello partiremos inicialmente de la matriz particionada [A | I3 |
I4] y aplicaremos operaciones elementales de filas sobre A e I3 y operaciones
Sea A∈Mmxn(K) tal que Rango(A) = r. Se define como Matriz Normal o Matriz elementales de columnas sobre A e I4 hasta obtener la matriz particionada
Reducida de A y se denota por R(A) a la matriz particionada R(A)∈Mmxn(K) [R(A) | P | Q]:
definida de la siguiente forma:
⎡ 1 0 0 0⎤
⎡ Ir θ rx ( n − r ) ⎤ ⎢1 0 2 3 1 0 0 ⎥
R (A) = ⎢
⎣⎢θ( m − r ) xr

θ( m − r ) x ( n − r ) ⎦⎥ [ ] ⎢
A I 3 I 4 = ⎢3 2 1 1 0 1 0
0 1 0 0⎥ ⎯r⎯
0 0 1 0⎥ ⎯r⎯
2 → r2 − 3 r1
⎯⎯→
3 → r3 − 5 r1
⎯⎯→
⎢5 4 2 6 0 0 1 ⎥
⎢ 0 0 0 1⎥
Ejemplo 1.36. ⎣ ⎦
⎡ 1 0 0 0⎤
En el ejemplo 1.35., A∈M3x4(ℜ) y Rango(A) = 3. Luego, la matriz normal o ⎢1 0 2 3 1 0 0 ⎥
⎢ 0 1 0 0⎥ r2 → 12 r2
matriz reducida de A es: ⎢ 0 2 − 5 − 8 − 3 1 0 ⎯⎯ ⎯ ⎯→
0 0 1 0⎥
⎢0 4 − 8 − 9 − 5 0 1 ⎥
⎢ 0 0 0 1⎥
⎡1 0 0 0⎤ ⎣ ⎦
⎢ ⎥ ⎡
R ( A ) = ⎢0 1 0 0 ⎥ 1 0 0 0⎤
⎢1 0 2 3 1 0 0 ⎥
⎢⎣0 0 1 0⎥⎦ ⎢ 0 1 0 0⎥ r3 →r3 −4 r2
0 1 − 5 − 4 − 3 1 0 ⎯⎯⎯⎯→
⎢ 2 2 2 0 0 1 0⎥
⎢0 4 − 8 − 9 − 5 0 1 ⎥
Teorema 1.30. ⎢ 0 0 0 1⎥
⎣ ⎦
Sea A∈Mmxn(K). Si Rango(A) = r entonces existen matrices no singulares ⎡ 1 0 0 0⎤
⎢1 0 2 3 1 0 0 ⎥
P∈Mmxm(K) y Q∈Mnxn(K) tales que PAQ = R(A). ⎢ 0 1 0 0⎥ r3 → 12 r3
0 1 − 5 − 4 − 3 1 0 ⎯⎯⎯→
⎢ 2 2 2 0 0 1 0⎥
Demostración ⎢0 0 2 7 1 −2 1 ⎥
⎢ 0 0 0 1⎥
⎣ ⎦
Sea R la matriz escalonada reducida por filas de A. Como Rango(A) = r ⎡ 1 0 0 0⎤
entonces existen matrices elementales E1, E2,…, Et tales que: ⎢1 0 2 3 1 0 0 ⎥ r1 →r1 − 2 r3
⎢ 5 3 1 0 1 0 0⎥ ⎯⎯ ⎯⎯→
⎢ 0 1 − − 4 − 0 ⎥
5
r2 → r2 + r3
2 2 2 0 0 1 0 ⎯⎯ ⎯⎯
⎡ Ir B rx ( n − r ) ⎤ ⎢0 0 7 1 ⎥
2
⎯→
EtEt-1…E1A = R = ⎢ ⎥ ; con Brx(n-r) ≠ θrx(n-r) 1 −1 1
⎢ 2 2 2 0 0 0 1⎥
⎣⎢θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎦⎥ ⎣ ⎦

Luego, existen matrices elementales F1, F2,…, Fs tales que:

55 56
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ 1 0 0 0⎤ ⎧⎪A ij si i ≠ p
⎢1 0 0 −4 0 2 −1 ⎥ e(A)ij = ⎨ ; ( c ≠ 0 ), 1 ≤ p ≤ r
⎪⎩cA pj si i = p
⎢ 19 − 1 −2 5 0 1 0 0⎥ c 4 →c 4 + 4c1
⎯⎯⎯ ⎯ ⎯→
⎢0 1 0
4 4 4 0 0 1 0⎥
⎢0 0 1 7 1 −1 1 ⎥
⎢ 2 2 2 0 0 0 1⎥ Luego,
⎣ ⎦
⎡ 1 0 0 4⎤
⎢1 0 0 0 0 2 −1 ⎥ ⎡ Ir B rx ( n − r ) ⎤
0⎥ c 4 →c 4 − 194 c 2 EP*AQ = E ⎢ ⎥

1 0 19 − 1 −2 5 0 1 0 ⎯⎯⎯ ⎯⎯→ ⎢⎣θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎥⎦
⎢0 4 4 4 0 0 1 0⎥
⎢0 0 1 7 1 −1 1 ⎥
⎢ 2 2 2 0 0 0 1⎥
⎣ ⎦ ⎡ Dr θ rx ( n − r ) ⎤
⇒ PAQ = ⎢ ⎥ = Δ(A)
⎡ 4 ⎤
⎢1 0 0 0 0 2 −1
1 0 0
⎥ ⎣⎢θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎦⎥
⎢ 0 1 0 − 19 ⎥ c 4 →c 4 − 7 c3
1 5 4 ⎯⎯ ⎯⎯
⎢0 1 0 0 − 4 − 2 ⎯→
2
4 0 0 1 0 ⎥ con P = EP* y Dr∈Mrxr(K) una matriz diagonal y no singular, ya que c ≠ 0 .
⎢0 0 1 7 1 −1 1 ⎥
⎢ 2 2 2 0 0 0 1 ⎥
⎣ ⎦ Luego, como P* es no singular y E es elemental entonces P = EP* es también
⎡ 1 0 0 4 ⎤ una matriz no singular. Por consiguiente, existen matrices no singulares
⎢1 0 0 0 0 2 −1 ⎥
⎢ 0 1 0 − 19 ⎥ P∈Mmxm(K) y Q∈Mnxn(K) tales que PAQ = Δ(A) .
1 5 4 = [R (A) | P | Q]
⎢0 1 0 0 − 4
−2
4 0 0 1 −7 ⎥
⎢0 0 1 0 1 −1 1 2⎥ Ahora bien, sea E* = e*(In) la matriz elemental definida a partir de la operación
⎢ 2 2 0 0 0 1 ⎥
⎣ ⎦ elemental de filas e*: Mmxm(K)→ Mmxm(K) definida por:

Luego, ⎧⎪A ij si i ≠ t
e*(A)ij = ⎨ ; ( d ≠ 0 ), 1 ≤ t ≤ r, t ≠ p .
⎪⎩dA tj si i = t
⎡ 0 ⎡1 0 0 4 ⎤
⎡1 0 0 0⎤ 2 −1 ⎤ ⎢ ⎥
⎢ ⎥; ⎢ ⎥ 0 1 0 − 19 ⎥
R ( A ) = ⎢0 1 0 0 ⎥ P = ⎢ − 1 −2 5 ⎥ ; Q=⎢ 4 Luego,
⎢ 4 4⎥ ⎢0 0 1 −7 ⎥
⎢⎣0 0 1 0⎥⎦ ⎢ 2⎥
⎢⎣ 1 2 − 1 1 ⎥
2⎦ ⎢⎣0 0 0 1 ⎥⎦ ⎡ Dr θ rx ( n − r ) ⎤ ⎡ D* r θ rx ( n − r ) ⎤ *
E*PAQ = E* ⎢ ⎥ = ⎢ ⎥ = Δ (A)
⎢⎣θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎥⎦ ⎢⎣θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎥⎦
Además, se cumple que PAQ = R(A).

Teorema 1.31. ⇒ P**AQ = Δ* (A )

Sea A∈Mmxn(K). Si Rango(A) = r entonces existen matrices no singulares con P** = E*P y D*r∈Mrxr(K) una matriz diagonal y no singular, ya que d ≠ 0 .
P∈Mmxm(K) y Q∈Mnxn(K) tales que PAQ = Δ(A) , siendo:
Luego, como P es no singular y E* es elemental entonces P** = E*P es también
⎡ Dr θrx ( n − r ) ⎤ una matriz no singular. Por consiguiente, existen matrices no singulares
Δ(A) = ⎢ ⎥ ; con Dr∈Mrxr(K) una matriz diagonal y no P**∈Mmxm(K) y Q∈Mnxn(K) tales que P**AQ = Δ* (A ) .
⎣⎢θ( m− r ) xr θ( m− r ) x ( n − r ) ⎦⎥
singular.
En general, se pueden definir infinitas matrices elementales con la operación
elemental del tipo anterior, bien sea de filas o de columnas para obtener
Demostración
matrices no singulares P∈Mmxm(K) y Q∈Mnxn(K) tales que PAQ = Δ(A) .
Por el teorema anterior se sabe que existen matrices no singulares P*∈Mmxm(K)
y Q∈Mnxn(K) tales que P*AQ = R(A). Sea E = e(Im) una matriz elemental Ejemplo 1.38.
definida por la operación elemental de filas e: Mmxm(K)→ Mmxm(K) definida
por: En el ejemplo 1.35., partiendo de [A | I3 | I4] se llegó a [R(A) | P | Q] aplicando
operaciones elementales de filas. Veamos que ocurre si estas operaciones se
siguen aplicando:

57 58
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ 1 0 0 4 ⎤ EJERCICIOS PROPUESTOS.
⎢1 0 0 0 0 2 −1 ⎥
0 1 0 − 19 ⎥ r →3r
[R (A) | P | Q] = ⎢⎢0 1 0 0 − 1
4
−2 5
4 0 0 1 −7 ⎥
4 ⎯⎯1
⎯1 → 1. Sean A, B, C∈M2x2(ℜ) las siguientes matrices:
⎢0 0 1 0 1 −1 1 2 ⎥
⎢ 2 2 0 0 0 1 ⎥ ⎡a b ⎤ ⎡ 4 −2 ⎤ ⎡1 4⎤ ⎡−1 2⎤
⎣ ⎦ A=⎢ ⎥ B=⎢ ⎥ C=⎢ ⎥ D=⎢ ⎥
⎣ c d ⎦ ⎣ 1 3 ⎦ ⎣ 2 − 2 ⎦ ⎣ 2 3⎦
⎡ 1 0 0 4 ⎤
⎢3 0 0 0 0 6 −3 ⎥
[ ]
⎢ 0 1 0 − 19
1 5 4 ⎥ = Δ ( A) P * Q Determine los valores de a, b, c y d para que:
⎢0 1 0 0 − 4
−2
4 0 0 1 −7 ⎥
⎢0 0 1 0 1 −1 1 2⎥
⎢ 2 2 0 0 0 1 ⎥ 1.1. A + B = I2.
⎣ ⎦ 1.2. CA = I2.
1.3. (AD)t = I2.
Se obtienen entonces matrices P* y Q tales que P*AQ = Δ(A). Si continuamos
aplicando mas operaciones elementales de filas se obtendrán tantos infinitos 2. Sean A, B∈M3x3(ℜ) las siguientes matrices:
pares de matrices P y Q como matrices Δ(A) obtenidas a partir de A.
⎡1 a b ⎤ ⎡1 −a −b ⎤
Teorema 1.32. ⎢ ⎥ ⎢ ⎥
A = ⎢0 1 0 ⎥ B = ⎢0 1 0⎥
⎢⎣0 0 1 ⎥⎦ ⎢⎣0 0 1⎥⎦
Sean A∈Mmxn(K) y B∈Mnxp(K). Entonces se cumple que:

Rango(AB) ≤ mínimo{Rango(A), Rango(B)} Demuestre que AB = I3.

Demostración 3. Sean A, B, C∈Mnxn(K) tales que AC = CA = In. Despejar C en función de


A, B e In de las siguientes ecuaciones:
Supongamos que mínimo{Rango(A), Rango(B)} = Rango(A) = r. En tal caso,
existen matrices no singulares P∈Mmxm(K) y Q∈Mnxn(K) tales que PAQ = 3.1. 6C + 5A = B.
R(A). 3.2. 3C2 – 4C = 5A.
3.3. (A – C)2 – C2 = 3C – 7B.
Luego, A = P-1R(A)Q-1. Por consiguiente AB = P-1R(A)Q-1B. 3.4. BAC – 2C2 = A.

Por lo tanto, 4. Sean A∈Mmxn(K) y B∈Mnxp(K). Demuestre que:


-1 -1 -1
Rango(AB) = Rango(P R(A)Q B) = Rango(R(A)Q B) 4.1. Si A tiene una fila nula entonces AB tiene una fila nula.
4.2. Si B tiene una columna nula entonces AB tiene una columna
Ahora bien, las últimas m-r filas de R(A) son nulas. En consecuencia las nula.
últimas m–r filas de R(A)Q-1B son nulas y se obtiene que:
5. Sea X∈Kn. Determine matrices A∈Mnxn(K) tales que:
Rango(AB) ≤ Rango(A) ≤ Rango(B)

Análogamente si mínimo{Rango(A), Rango(B)} = Rango(B) = r entonces se 5.1. () 2


XtAX = X ; siendo X la media aritmética de los valores X1,
obtiene que Rango(AB) ≤ Rango(B) ≤ Rango(A). Por lo tanto, X2,…, Xn.

Rango(AB) ≤ mínimo{Rango(A), Rango(B)}


5.2. ()
XtAX = n X .
2

n
5.3. XtAX = ∑ (X
i =1
i − X) 2 .

t
∑ (X
i =1
i − X) 2
5.4. X AX = .
n

6. Para la siguiente matriz de datos definida por las variables X1: Peso
(kg.), X2: Estatura (cm.) y X3: Edad (años cumplidos) determine e

59 60
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

interprete las matrices de datos centrada, de datos estandarizada, de 14. Sea A∈Mnxn(K). Demuestre que si A es simétrica e idempotente y tiene
varianzas y covarianzas y de correlaciones: algún elemento nulo en la diagonal principal entonces la fila y la
columna de dicho elemento son nulas.
⎡62 158 25⎤
⎢ ⎥ 15. Sean A, B∈Mnxn(K), tales que A es triangular inferior y B es triangular
⎢77 172 29⎥
superior. Demuestre que:
⎢85 185 22⎥
⎢ ⎥
X = ⎢45 155 19 ⎥ 15.1. ABt es triangular inferior.
⎢68 162 32⎥ 15.2. AB no es triangular.
⎢ ⎥
⎢73 168 33⎥
⎢ ⎥ 16. Sea A∈Mnxn(K). Demuestre que si A es idempotente entonces In – A es
⎣79 180 30⎦ idempotente.

7. Dadas las siguientes matrices: 17. Sea A∈Mnxn(K). Demuestre que si A es triangular y simétrica entonces
A es diagonal.
⎡ 1 2 0⎤ ⎡1 2 3⎤ ⎡1 2 3⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 18. Sean A, B∈Mnxn(K), tales que A y B son no singulares. Demuestre que:
A = ⎢ 1 1 0⎥ , B = ⎢1 1 − 1⎥ y C = ⎢1 1 − 1⎥
⎢⎣− 1 4 0⎥⎦ ⎢⎣2 2 2⎥⎦ ⎢⎣1 1 1⎥⎦ (A −1 + B−1 ) −1 = B(A + B) −1 A

Demuestre que AB = AC. 19. Sea A∈M2x2(ℜ) tal que A es no singular y la inversa de 4A es:

8. Sean A, B∈Mnxn(K). ¿Qué condición deben cumplir las matrices A y B ⎡4 5⎤


para que se cumpla que (A+B)(A-B) = A2 − B2? (4A)-1 = ⎢ ⎥
⎣3 −1⎦
9. Sean A, D∈Mnxn(K), tales que D es una matriz diagonal. Demuestre que:
Determine la matriz A.
9.1. AD es una matriz particionada 1xn definida por:
20. Sean A, B∈M2x2(ℜ) tales que A = cI2 + dB, con c, d∈ℜ y B tiene la
AD = [ D11A1 D 22 A 2 L D nn A n ] siguiente forma:

DA es una matriz particionada nx1 definida por: ⎡1 0⎤


9.2. B=⎢ ⎥
⎣0 0 ⎦
⎡ D11 (A1 ) t ⎤
⎢ ⎥ Deduzca una fórmula para An, n∈ℵ*.
D (A ) t
DA = ⎢ 22 2 ⎥
⎢ M ⎥
⎢ ⎥ 21. Sea A∈Mnxn(K). Demuestre que si A es idempotente entonces (2A – In)
t
⎣⎢ nn n ⎦⎥
D ( A ) es involutiva. Demuestre además que (2A – In) es no singular y
determine además su matriz inversa.
10. Sean A, B∈Mnxn(K). Demuestre que si A y B son matrices diagonales
entonces AB = BA. 22. Sea A∈Mnxn(K). Demuestre que si A es antisimétrica y (A + In) es no
singular entonces:
11. Sean A, B∈Mnxn(K). Demuestre que si A y B son idempotentes y
AB = BA entonces AB es idempotente. 22.1. In – A es no singular.
22.2. (In + A)(In – A) = (In – A)(In + A).
12. Sean A∈Mnxn(K) y c, d∈K, tales que A2 = cA. Determine la matriz B de 22.3. (In + A)-1(In – A) y (In – A)-1(In + A) son matrices ortogonales.
la forma B = dA tal que es idempotente.
23. Sea X∈Mnxp(K), tal que la matriz XtX es no singular. Demuestre que:
*
13. Sean A, B∈Mnxn(K), tales que AB = BA y m, n∈ℵ . Demuestre que si
AB = BA entonces AmBn = BnAm. 23.1. La matriz H = X(XtX)-1Xt es simétrica e idempotente.
23.2. HX = X.
23.3. La matriz Q = In – H es simétrica e idempotente.

61 62
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

23.4. QX = θnxp. 28.1. Halle la matriz T.


23.5. QH = θnxn. 28.2. Verifique que las matrices T2 y T3 indican el número de
formas en que se puede transmitir un mensaje de la i-ésima
24. Sea A∈Mnxn(K). Demuestre que: estación a la j-ésima estación en 2 y 3 pasos, respectivamente.

24.1. AAt y (A + At) son simétricas. 29. Determine si las siguientes matrices son no singulares y en caso
24.2. (A – At) es antisimétrica. afirmativo halle la correspondiente matriz inversa:

25. Sea A∈M2x2(K) tal que A es no singular. Deduzca una fórmula para la ⎡1 0 1⎤
matriz inversa de A. ⎢ ⎥
29.1. A = ⎢2 − 1 3⎥
⎢⎣1 1 2⎥⎦
26. Se dice que una matriz A∈Mmxn(K) es una matriz estocástica, aleatoria o
de probabilidad si y sólo si ∀ (i,j)∈JmxJn 0 ≤ Aij ≤ 1 y ∀ i=1, 2, …, m se ⎡2 6 −4 ⎤
n ⎢ ⎥
cumple que ∑ A ij = 1 . Sean A, B∈Mmxn(K). Demuestre que: 29.2. B = ⎢2
⎢⎣1
−1 1⎥
j=1 3 − 2⎥⎦

26.1. 2
Si m = n y A es estocástica entonces A es estocástica. ⎡5 0 1⎤
⎢ ⎥
26.2. Si m = n y A y B son estocásticas entonces AB es estocástica. 29.3. C = ⎢ 3 − 2 0⎥
⎢⎣2 0 3⎥⎦
27. Se define como matriz conjugada de una matriz A∈Mmxn(K) y se denota
⎡ 1 0 2 −1 ⎤
por A a la matriz A ∈Mmxn(K) definida por A ij = A ij , siendo A ij la ⎢ ⎥
2 1 1 3⎥
conjugada del término Aij. Sean A∈Mmxn(K), B∈Mnxp(K) y c∈K. 29.4. D=⎢
⎢ −1 2 −1 0⎥
Demuestre que: ⎢ ⎥
⎣⎢ 3 0 1 − 1⎦⎥
27.1. AB = A B
30. Sean A∈Mmxn(K) una matriz particionada por columnas y X∈Kn un
27.2. cA = c A n

28. Suponga que en una red de comunicaciones de 5 estaciones, la


vector columna. Demuestre que AX = ∑X A
j=1
j
j
.

información puede enviarse solamente en las direcciones que se


muestran en el siguiente diagrama: 31. Mediante una partición adecuada efectuar los siguientes productos de
matrices:
• e2
⎡1 2 0 0 ⎤ ⎡0 0 0 1⎤
e1 • ⎢ ⎥⎢ ⎥
31.1. ⎢0 1 0 0 ⎥ ⎢0 0 2 0⎥
⎢0 0 0 1⎥ ⎢1 0 0 0⎥
⎢ ⎥⎢ ⎥
e5 • • e3 ⎣⎢0 0 2 2⎦⎥ ⎣⎢0 1 0 0⎦⎥
⎡0 0 1 0⎤
⎢ ⎥
⎢0 0 0 1 ⎥ ⎡ B⎤
31.2.
⎢1 ⎢ ⎥ , siendo B, C∈M2x4(K).
0 0 0 ⎥ ⎣C ⎦
e4 ⎢ ⎥
⎢⎣0 1 0 0⎥⎦
Sea T la matriz definida por: ⎡1 4⎤
⎡2 3 1 5⎤ ⎢ ⎥
⎧1 Si puede enviarseun mensajede la i - ésima estación a la j - ésima estación ⎢ ⎥ ⎢− 1 0⎥
Tij = ⎨
31.3. ⎢0 1 − 4 2⎥ ⎢ 2 3⎥
⎩0 Si no puede enviarseun mensajede la i - ésima estación a la j - ésima estación ⎢⎣3 1 6 4⎥⎦ ⎢ ⎥
⎣⎢ 1 5⎦⎥

63 64
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

32. Sean A∈Mnxn(K) una matriz particionada 2x2 con A i, j ∈ M n i xn j (K); ⎡ −3 2 1⎤


⎢ ⎥
i = 1, 2; j = 1, 2, 0 < n1 < n, 0 < n2 < n, n1 + n2 = n, definida por: 35.2. B=⎢ 0 1 1⎥
⎢⎣ 6 − 4 − 2⎥⎦
⎡ In B⎤
A=⎢ 1 ⎥ ; con B∈ M n1xn 2 (K ) ⎡ −2 4 2 −2 ⎤
⎢⎣θ n 2 xn1 I n 2 ⎥⎦
35.3.

C = ⎢−1 −1 1 0⎥

⎢⎣− 2 1 2 − 1⎥⎦
Determine la matriz inversa de A.
⎡1 1 −3 −1 ⎤
Sean A∈Mnxn(K) una matriz particionada 2x2 con A i, j ∈ M n i xn j (K); ⎢ ⎥
33. 2 1 −2 1⎥
35.4. D=⎢
i = 1, 2; j = 1, 2, 0 < n1 < n, 0 < n2 < n, n1 + n2 = n, definida por: ⎢1 1 1 3⎥
⎢ ⎥
⎢⎣1 2 −3 1⎥⎦
⎡ A1,1 θ n1xn 2 ⎤
A=⎢ ⎥
⎣⎢A 2,1 A 2, 2 ⎦⎥ 36. Determinar una descomposición LU de las siguientes matrices y luego
mediante esta descomposición calcular la tercera columna de A-1:
Determine la matriz inversa de A.
⎡3 −1 2⎤
Determine si las siguientes matrices son elementales. En caso afirmativo ⎢ ⎥
34. 36.1. A = ⎢9 − 3 4⎥
determinar la operación elemental de filas o columnas correspondiente y
su matriz inversa: ⎣⎢5 1 0⎦⎥

⎡ 2 4 1⎤
⎡1 0 ⎤ ⎢ ⎥
E=⎢ 36.2. B = ⎢− 4 − 8 3⎥
34.1. ⎥
⎣4 1⎦ ⎣⎢ 5 8 2⎦⎥
⎡2 0⎤
34.2. E=⎢ ⎥
⎣0 − 2 ⎦ 37. Para la siguiente matriz A determine una matriz U triangular superior
para que AU sea una matriz ortogonal:
⎡0 1 0 ⎤
⎢ ⎥
34.3. E = ⎢1 0 0 ⎥ ⎡1 1 1⎤
⎢⎣0 0 1⎥⎦ ⎢ ⎥
A = ⎢1 1 0⎥
⎡0 1 0 ⎤ ⎢⎣1 0 0⎥⎦
⎢ ⎥
34.4. E = ⎢0 0 1 ⎥
⎢⎣1 0 0⎥⎦

⎡1 0 0⎤
⎢ ⎥
34.5. E = ⎢0 1 − 3 ⎥
⎢⎣0 0 1⎥⎦

35. Determine para las siguientes matrices rango y matriz normal o reducida
así como también matrices P y Q tales que PAQ = R(A):

⎡2 0 −1 ⎤
⎢ ⎥
35.1. A = ⎢1 1 2⎥
⎢⎣3 1 0⎥⎦

65 66
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡0 2 ⎤
Capítulo 2 M (A)1, 2 = ⎢
⎣1 7⎦

DETERMINANTES El menor principal de orden 2, M(A)2 se obtiene al eliminar la fila 2 y la


columna 2 de A:

⎡1 3⎤
M(A) 2 = ⎢ ⎥
2.1. INTRODUCCIÓN. ⎣1 7 ⎦

En este capítulo se presenta el concepto del determinante de una matriz. El Es importante conocer todos los menores principales de A:
término “matriz” se debe a que es considerada “la madre del determinante”.
Los determinantes son una herramienta fundamental en el Algebra Lineal ya Orden 1: C3,1 = 3 menores.
que permite el cálculo de la inversa de una matriz, así como también la
resolución de sistemas de ecuaciones lineales. Se exponen todas sus M (A)12 = [7]; M(A)13 = [4]; M(A)23 = [1]
propiedades y el concepto de matriz adjunta para el cálculo de la matriz
inversa. Orden 2: C3,2 = 3 menores.
2.2. DEFINICIONES Y EJEMPLOS.
⎡4 2⎤ ⎡1 3⎤ ⎡1 2 ⎤
M (A )1 = ⎢ ⎥; M(A) 2 = ⎢ ⎥; M(A)3 = ⎢ ⎥
Definición 2.1. ⎣ 5 7 ⎦ ⎣1 7 ⎦ ⎣0 4 ⎦

Sean A∈Mnxn(K) y p∈{1, 2,… , n}. Se define como menor de orden p de A y Orden 3: C3,3 = 1 menor.
se denota por M(A) i1i 2 ...i n − p , j1 j2 ... jn − p con i1, i2,…, in-p, j1, j2,… , jn-p∈{1, 2,… , n}

a la sub-matriz M (A) i1i 2 ...i n − p , j1 j2 ... jn − p ∈Mpxp(K) de A que se obtiene al eliminar ⎡1 2 3⎤


⎢ ⎥
M ( A ) = ⎢0 4 2 ⎥
de dicha matriz las filas i1, i2,…, in-p y las columnas j1, j2,… , jn-p. Si además
⎢⎣1 5 7⎥⎦
i1 = j1, i2 = j2,… , in-p = jn-p entonces la sub-matriz M (A) i1i 2 ...i n − p , j1 j2 ... jn − p es una
sub-matriz principal y se dice que es un menor principal de orden p y en ese Ejemplo 2.2.
caso se denota por M (A) i1i 2 ...i n − p .
Sea A∈M4x4(ℜ) definida por:
Observación:
⎡1 0 2 3⎤
Sea A∈Mnxn(K). De las n filas de A se pueden seleccionar Cn,(n-p) = Cn,p grupos ⎢ ⎥
2 2 4 5⎥
de n – p filas distintas. Igualmente de las n columnas de A se pueden A=⎢
⎢3 1 2 4⎥
seleccionar Cn,(n-p) = Cn,p grupos de n – p columnas distintas. Por tanto, la ⎢ ⎥
matriz A tiene (Cn,p)2 menores de orden p y Cn,p menores principales de orden ⎢⎣0 2 3 6⎥⎦
p.
El menor de orden 2, M(A)13,24 se obtiene al eliminar las filas 1 y 3 y las
Ejemplo 2.1. columnas 2 y 4 de A:

Sea A∈M3x3(ℜ) definida por: ⎡2 4⎤


M(A)13, 24 = ⎢ ⎥
⎣0 3⎦
⎡1 2 3 ⎤
⎢ ⎥
A = ⎢0 4 2 ⎥ El menor principal de orden 2, M(A)23 se obtiene al eliminar las filas 2 y 3 y
⎢⎣1 5 7⎥⎦ las columnas 2 y 3 de A:

El menor de orden 2, M(A)1,2 se obtiene al eliminar la fila 1 y la columna 2 de ⎡1 3 ⎤


M(A ) 23 = ⎢ ⎥
A: ⎣0 6 ⎦

68
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Es importante conocer todos los menores principales de A: Ejemplo 2.3.

Orden 1: C4,1 = 4 menores. Sea A∈M1x1(K) definida por:

M (A )123 = [6]; M(A)124 = [2]; M(A)134 = [2]; M(A) 234 = [1] A = [A11 ]

Orden 2: C4,2 = 6 menores. Como n = 1 entonces existe 1! = 1 permutación posible la cual es (1). Por lo
tanto, para j = 1, es decir, (1) se tiene que j1 = 1.
⎡2 4⎤ ⎡2 5⎤ ⎡2 4⎤
M (A)12 = ⎢ ⎥; M(A)13 = ⎢ ⎥; M(A)14 = ⎢ ⎥ Luego, q(j1) = 0. Por lo tanto, μ(1) = 0.
⎣3 6⎦ ⎣2 6⎦ ⎣1 2⎦
⎡1 3⎤ ⎡1 2⎤ ⎡1 0⎤ En consecuencia,
M(A) 23 = ⎢ ⎥; M(A) 24 = ⎢ ⎥; M(A)34 = ⎢ ⎥
⎣0 6⎦ ⎣3 2⎦ ⎣2 2⎦
Det (A) = (−1) μ (1) A1 j1
Orden 3: C4,3 = 4 menores. ⇒ Det (A ) = (−1) 0 A11
⇒ Det (A) = A11
⎡2 4 5 ⎤ ⎡1 2 3 ⎤ ⎡1 0 3 ⎤ ⎡1 0 2 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
M (A)1 = ⎢1 2 4⎥; M (A ) 2 = ⎢3 2 4⎥; M (A)3 = ⎢2 2 5⎥; M (A) 4 = ⎢2 2 4⎥
Como se observa, cuando A∈M1x1(K), es decir, A es un escalar, su
⎢⎣2 3 6⎥⎦ ⎢⎣0 3 6⎥⎦ ⎢⎣0 2 6⎥⎦ ⎢⎣3 1 2⎥⎦
determinante es el mismo escalar.

Orden 4: C4,4 = 1 menor. Ejemplo 2.4.

⎡1 0 2 3⎤ Sea A∈M2x2(K) definida por:


⎢ ⎥
2 2 4 5⎥
M ( A) = ⎢ ⎡A A12 ⎤
⎢3 1 2 4⎥ A = ⎢ 11
⎢ ⎥ ⎥
⎣⎢0 2 3 6⎦⎥ ⎣A 21 A 22 ⎦

Definición 2.2. Deduzcamos una fórmula para Det(A):

Sean A∈Mnxn(K) y j1, j2, …, jn∈{1, 2, …, n}. Se define como Determinante de Como n = 2 entonces existen 2! = 2.1 = 2 permutaciones posibles las cuales
A y se denota por Det(A) al siguiente escalar: son (1,2) y (2,1). Desarrollemos la fórmula de determinante de A:

n! Para j = 1, es decir, (1,2) se tiene que j1 = 1 y j2 = 2.


Det (A) = ∑ (−1)
j=1
μ ( j)
A1 j1 A 2 j2 ...A njn
Luego, q(j1) = 0 y q(j2) = 0. Por lo tanto, μ(1) = 0 + 0 = 0.

Donde: Para j = 2, es decir, (2,1) se tiene que j1 = 2 y j2 = 1.

1. j1, j2, …, jn son los valores de la j-ésima permutación de n Luego, q(j1) = 1 y q(j2) = 0. Por lo tanto, μ(1) = 1 + 0 = 1.
n
2. μ( j) = ∑ q( j ) ; siendo q(j ) la cantidad de valores menores que j
p =1
p p p En consecuencia,

que se encuentran a la derecha de jp en la j-ésima permutación de n. Det (A) = (−1)μ (1) A1 j1 A 2 j2 + (−1)μ ( 2) A1 j1 A 2 j2

Observación: ⇒ Det (A) = (−1) 0 A11A 22 + (−1)1 A12 A 21


⇒ Det (A) = A11A 22 − A12 A 21
El determinante de una matriz A de orden nxn es la suma de todos los
productos que pueden formarse de tal forma que en cada producto haya uno y
sólo un elemento de cada fila y uno y sólo un elemento de cada columna. Es Como se observa, Det(A) es el producto de los elementos de la diagonal “\”
una suma de n! términos. (diagonal principal) menos el producto de los elementos de la diagonal “/”.

69 70
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Sabiendo que el determinante de una matriz de orden 1x1, es decir, de un Para j = 6, es decir, (3,2,1) se tiene que j1 = 3, j2 = 2 y j3 = 1.
escalar es el mismo escalar se puede concluir entonces que el determinante de
una matriz 2x2 es función de los determinantes de algunas sub-matrices de Luego, q(j1) = 2, q(j2) = 1 y q(j3) = 0. Por lo tanto, μ(6) = 2 + 1 + 0 = 3.
orden 1x1. Específicamente se cumple que:
En consecuencia,
Det(A) = A11A22 – A12A21
= A11A22 + (-1)A12A21 Det (A) = (−1) μ (1) A1 j1 A 2 j2 A 3 j3 + (−1)μ (3) A1 j1 A 2 j2 A 3 j3
= (-1)2A11Det([A22]) + (-1)3A12Det([A21])
= (-1)1+1A11Det(M(A)1,1) + (-1)1+2A12Det(M(A)1,2) +(−1) μ (3) A1 j1 A 2 j2 A 3 j3 + (−1)μ ( 4) A1 j1 A 2 j2 A 3 j3
2
= ∑ (−1)
j=1
1+ j
A1 jDet (M(A)1, j ) +(−1) μ (5) A1 j1 A 2 j2 A 3 j3 + (−1) μ ( 6) A1 j1 A 2 j2 A 3 j3

Particularmente, si: ⇒ Det (A) = (−1) 0 A11A 22 A 33 + (−1)1 A11A 23A 32


+(−1)1 A12 A 21A 33 + (−1) 2 A12 A 23A 31
⎡ 2 3⎤
A=⎢ ⎥ +(−1) 2 A13A 21A 32 + (−1) 3 A13A 22 A 31
⎣1 4 ⎦

Entonces Det(A) = 2.4 – 1.3 = 8 – 3 = 5. ⇒ Det (A) = A11A 22 A 33 − A11A 23A 32


− A12 A 21A 33 + A12 A 23 A 31
Ejemplo 2.5.
+ A13A 21A 32 − A13A 22 A 31
Sea A∈M3x3(K) definida por: = (A11A22A33 + A21A32A13 + A12A23A31) – (A31A22A13 + A32A23A11 + A21A12A33)

Como se observa, Det(A) es la suma de los productos de los elementos de las


⎡ A11 A12 A13 ⎤
⎢ ⎥ líneas continuas menos la suma de los productos de los elementos de las líneas
A = ⎢A 21 A 22 A 23 ⎥ intermitentes:
⎢⎣ A 31 A 32 A 33 ⎥⎦
⎡ A11 A12 A13 ⎤ ⎡ A11 A12 A13 ⎤ ⎡ A11 A12 A13 ⎤
Deduzcamos una fórmula para Det(A): ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢A 21 A 22 A 23 ⎥ ⎢A 21 A 22 A 23 ⎥ ⎢A 21 A 22 A 23 ⎥
⎢⎣ A 31 A 32 A 33 ⎥⎦ ⎢⎣ A 31 A 32 A 33 ⎥⎦ ⎢⎣ A 31 A 32 A 33 ⎥⎦
Como n = 3 entonces existen 3! = 3.2.1 = 6 permutaciones posibles las cuales
son (1,2,3), (1,3,2), (2,1,3), (2,3,1), (3,1,2) y (3,2,1). Desarrollemos la fórmula ⎡ A11 A12 A13 ⎤ ⎡ A11 A12 A13 ⎤ ⎡ A11 A12 A13 ⎤
de determinante de A: ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢A 21 A 22 A 23 ⎥ ⎢A 21 A 22 A 23 ⎥ ⎢A 21 A 22 A 23 ⎥
⎢⎣ A 31 A 32 A 33 ⎥⎦ ⎢⎣ A 31 A 32 A 33 ⎥⎦ ⎢⎣ A 31 A 32 A 33 ⎥⎦
Para j = 1, es decir, (1,2,3) se tiene que j1 = 1, j2 = 2 y j3 = 3.

Luego, q(j1) = 0, q(j2) = 0 y q(j3) = 0. Por lo tanto, μ(1) = 0 + 0 + 0 = 0. Ahora bien, consideremos la matriz B∈M3x5(K) cuyas 3 primeras columnas
son las columnas de A y las últimas 2 columnas son las primeras 2 columnas
Para j = 2, es decir, (1,3,2) se tiene que j1 = 1, j2 = 3 y j3 = 2. de A, es decir:

Luego, q(j1) = 0, q(j2) = 1 y q(j3) = 0. Por lo tanto, μ(2) = 0 + 1 + 0 = 1. ⎡ A11 A12 A13 A11 A12 ⎤
Para j = 3, es decir, (2,1,3) se tiene que j1 = 2, j2 = 1 y j3 = 3. ⎢ ⎥
B = ⎢A 21 A 22 A 23 A 21 A 22 ⎥
Luego, q(j1) = 1, q(j2) = 0 y q(j3) = 0. Por lo tanto, μ(3) = 1 + 0 + 0 = 1. ⎢⎣A 31 A 32 A 33 A 31 A 32 ⎥⎦

Para j = 4, es decir, (2,3,1) se tiene que j1 = 2, j2 = 3 y j3 = 1. Como se observa, Det(A) es la suma de los productos de los elementos de las
diagonales de 3 elementos “\” de B menos la suma de los productos de los
Luego, q(j1) = 1, q(j2) = 1 y q(j3) = 0. Por lo tanto, μ(4) = 1 + 1 + 0 = 2. elementos de las diagonales de 3 elementos “/” de B.
Para j = 5, es decir, (3,1,2) se tiene que j1 = 3, j2 = 1 y j3 = 2.
Lo propio ocurre al definir la matriz C∈M5x3(K) cuyas 3 primeras filas son las
Luego, q(j1) = 2, q(j2) = 0 y q(j3) = 0. Por lo tanto, μ(5) = 2 + 0 + 0 = 2. filas de A y las últimas 2 filas son las primeras 2 filas de A, es decir, Det(A)

71 72
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

es la suma de los productos de los elementos de las diagonales de 3 elementos Observaciones:


“\” de C menos la suma de los productos de los elementos de las diagonales de
3 elementos “/” de C. 1. Sean A∈Mnxn(K) y p, q∈ℵ, con 1 ≤ p ≤ n y 1 ≤ q ≤ n. Entonces se
cumple que:
En este caso también se puede observar que el determinante de una matriz 3x3
es función de los determinantes de algunas sub-matrices de orden 2x2. n n
Específicamente se cumple que: Det(A) = ∑ (−1)
j=1
p+ j
A ij Det (M (A) p, j ) = ∑ (−1)
i =1
i+q
A ij Det (M (A) i,q )

Det(A) = A11A22A33 + A21A32A13 + A12A23A31 – A31A22A13 – A32A23A11 –


A21A12A33 2. Sea A∈Mnxn(K). El Rango de A, a través de determinantes se define
= –A12A21A33 + A12A31A23 + A22A11A33 – A22A31A13 – A32A11A23 + A32A21A13 por:
= –A12(A21A33 – A31A23) + A22(A11A33 – A31A13) – A32(A11A23 – A21A13)
⎡A A 23 ⎤ ⎡ A11 A13 ⎤ Rango(A) = máximo{r: ∃ B∈Mrxr(K), sub-matriz de A tal que
= (-1)3A12Det( ⎢ 21 4
⎥ ) + (-1) A22Det( ⎢ ⎥) Det(B) ≠ 0}.
⎣ A 31 A 33 ⎦ ⎣A 31 A 33 ⎦
⎡A A13 ⎤ 3. La definición inductiva del determinante de una matriz
+ (-1)5A32Det( ⎢ 11 ⎥) definitivamente es más expedita que su definición formal. Por tal
⎣A 21 A 23 ⎦ razón, en lo sucesivo se utilizará la definición inductiva.
= (-1)1+2A12Det(M(A)1,2) + (-1)2+2A22Det(M(A)2,2)
+ (-1)3+2A32Det(M(A)3,2) Ejemplo 2.6.
3
= Det(A) = ∑ (−1)
i =1
i+2
A i 2 Det (M (A) i, 2 ) Sea A∈M4x4(K) definida por:

Particularmente, si: ⎡ A11 A12 A13 A14 ⎤


⎢ ⎥
A A 22 A 23 A 24 ⎥
A = ⎢ 21
⎡ 1 2 3⎤ ⎢A 31 A 32 A 33 A 34 ⎥
⎢ ⎥ ⎢ ⎥
A = ⎢3 4 1⎥ ⎣⎢A 41 A 42 A 43 A 44 ⎦⎥
⎢⎣2 3 6⎥⎦
Deduzcamos una fórmula para Det(A):
Entonces Det(A) = (1.4.6 + 3.3.3 + 2.1.2) – (2.4.3 + 3.1.1 + 3.2.6)
4
= (24 + 27 + 4) – (24 + 3 + 36) = 55 – 63 = –8.
Det(A) = ∑ (−1)
j=1
i+ j
A ij Det (M (A) i , j )
En general, el determinante de una matriz A∈Mnxn(K) es una función
Det: Mnxn(K)→K definida inductivamente de la siguiente forma: Fijemos arbitrariamente i = 3. Luego,
1. Para n = 1, Det: M1x1(K)→K se define de la siguiente manera: 4

Det(A) = Det(A11) = A11, ∀ A∈M1x1(K)


Det(A) = ∑ (−1)
j=1
3+ j
A 3 j Det (M (A) 3, j )

= (-1)3+1A31Det(M(A)3,1) + (-1)3+2A32Det(M(A)3,2)
2. Para n > 1, suponemos que está definida Det: M(n-1)x(n-1)(K)→K. + (-1)3+3A33Det(M(A)3,3) + (-1)3+4A34(3,4)Det(M(A)3,4)
Luego,
⎡ A12 A13 A14 ⎤ ⎡ A11 A13 A14 ⎤
⎢ ⎥ ⎢ ⎥
n = (-1)4A31Det( ⎢A 22 A 23 A 24 ⎥ )+(-1)5A32Det( ⎢A 21 A 23 A 24 ⎥ )
Det(A) = ∑ (−1)
j=1
i+ j
A ij Det(M (A) i , j ) ⎢⎣A 42 A 43 A 44 ⎥⎦ ⎢⎣A 41 A 43 A 44 ⎥⎦

n ⎡ A11 A12 A14 ⎤ ⎡ A11 A12 A13 ⎤


= ∑ (−1)
i =1
i+ j
A ij Det(M (A) i , j ) , ∀ A∈Mnxn(K) ⎢
+(-1)6A33Det( ⎢A 21 A 22
⎥ ⎢
A 24 ⎥ ) +(-1)7A34Det( ⎢A 21 A 22

A 23 ⎥ )
⎢⎣A 41 A 42 A 44 ⎥⎦ ⎢⎣A 41 A 42 A 43 ⎥⎦

73 74
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ A12 A13 A14 ⎤ ⎡ A11 A13 A14 ⎤ Cij = Aij = Bij cuando i ≠ p
⎢ ⎥ ⎢ ⎥ Cpj = Apj + Bpj
= A31Det( ⎢A 22 A 23 A 24 ⎥ ) – A32Det( ⎢A 21 A 23 A 24 ⎥ ) Entonces Det(C) = Det(A) + Det(B)
⎢⎣A 42 A 43 A 44 ⎥⎦ ⎢⎣A 41 A 43 A 44 ⎥⎦ 9. Si ∀ i = 1, 2,… , n se cumple que:
Cij = Aij = Bij cuando j ≠ p
⎡ A11 A12 A14 ⎤ ⎡ A11 A12 A13 ⎤ Cip = Aip + Bip
⎢ ⎥ ⎢ ⎥
+ A33Det( ⎢A 21 A 22 A 24 ⎥ ) – A34Det( ⎢A 21 A 22 A 23 ⎥ ) Entonces Det(C) = Det(A) + Det(B)
⎢⎣A 41 A 42 A 44 ⎥⎦ ⎢⎣A 41 A 42 A 43 ⎥⎦ 10. Si e3:rp→rp+crs (c ≠ 0) y f3:cp→cp+dcs (d ≠ 0) entonces:
Det(e3(A)) = Det(f3(A)) = Det(A).
11. Si E es una matriz elemental obtenida con alguna operación
Luego se sigue de forma análoga a los ejemplos 2.3., 2.4. y 2.5. elemental de filas y F es una matriz elemental obtenida con
alguna operación elemental de columnas entonces
Particularmente, si:
Det(EA) = Det(E)Det(A) y Det(AF) = Det(A)Det(F).
12. Si A tiene una fila o una columna nula entonces Det(A) = 0.
⎡1 2 3 5⎤ 13. Si R es escalonada reducida por filas entonces Det(R) = 0 ó
⎢ ⎥ Det(R) = 1.
0 4 3 1⎥
A=⎢ 14. A es no singular si y sólo si Det(A) ≠ 0.
⎢2 0 2 5⎥
⎢ ⎥ 15. Rango(A) = n si y sólo si Det(A) ≠ 0.
⎣⎢1 2 1 3⎦⎥ 16. Det(AB) = Det(A)Det(B).
1
Entonces, fijando i = 1 se tiene que: 17. Si A es no singular entonces Det(A-1) = .
Det (A)
18. Si Rango(A) = r ; 1 ≤ r ≤ n entonces al menos 1 de los
⎡ 4 3 1⎤ ⎡ 0 3 1⎤
⎢ ⎥ ⎢ ⎥ determinantes de los menores principales de orden 1, 2, …, r son
Det(A) = (-1) .1.Det( ⎢0 2 5⎥ ) + (-1)1+2.2. Det( ⎢ 2 2 5⎥ )
1+1
no nulos y todos los determinantes de los menores principales
⎢⎣ 2 1 3⎥⎦ ⎢⎣1 1 3⎥⎦ de orden r+1, r+2,… ,n son nulos.
n
⎡ 0 4 1⎤
⎢ ⎥
⎡ 0 4 3⎤
⎢ ⎥
19. Si A es diagonal entonces Det (A) = ∏A
i =1
ii .
+ (-1)1+3.3.Det( ⎢ 2 0 5⎥ ) + (-1)1+4.5. Det( ⎢2 0 2⎥ )
n
⎢⎣1 2 3⎥⎦ ⎢⎣1 2 1⎥⎦ 20. Si A es triangular superior o inferior entonces Det (A) = ∏A i =1
ii .

= (-1)2.1.30 + (-1)3.2.(-3) + (-1)4.3.0 + (-1)5.5.12


Demostración
= 30 + 6 + 0 – 60 = –24.
1. Utilicemos el método de inducción matemática.
2.3. PROPIEDADES.
Si n = 1 entonces Det(I1) = Det( (I1 )11 ) = 1.
Teorema 2.1.
2
Sean A, B, C, E, R∈Mnxn(K). Entonces: Si n = 2 entonces Det(I2) = ∑ (−1)
i =1
i+q
(I 2 ) iq Det (M (I 2 ) i,q )

1. Det(In) = 1.
2. Det(At) = Det(A). Sea q = 2, es decir, tomamos la segunda columna de I2. Luego,
3. Si e1:rp↔rs y f1:cp↔cs entonces Det(e1(A)) = Det(f1(A))= -Det(A)
4. Si A tiene 2 filas o 2 columnas iguales entonces Det(A) = 0. 2

5. Si e2:rp→crp (c ≠ 0) y f2:cp→dcp (d ≠ 0) entonces Det(I2) = ∑ (−1)


i =1
i+2
(I 2 ) i 2 Det (M (I 2 ) i, 2 )
Det(e2(A)) = cDet(A) y Det(f2(A)) = dDet(A).
= -(I2)12Det(M(I2)1,2) + (I2)22Det(M(I2)2,2)
6. Si ∀ j = 1, 2,… , n se cumple que Apj = cAsj (c ≠ 0) entonces
= -0.Det(M(I2)1,2) + 1.Det(M(I2)2,2)
Det(A) = 0.
= Det(M(I2)2,2)
7. Si ∀ i = 1, 2,… , n se cumple que Aip = cAis (c ≠ 0) entonces
= Det(M(I2)2,2)
Det(A) = 0.
= Det((I1)11) = 1.
8. Si ∀ j = 1, 2,… , n se cumple que:

75 76
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Supongamos que la igualdad se cumple para n = h-1, es decir: En efecto,

Det(Ih-1) = 1 m +1
Det(At) = ∑ (−1)
j=1
p+ j
(A t ) pj Det (M (A t ) p , j )
Demostremos que la igualdad se cumple para n = h. En efecto,
h
Det(Ih) = ∑ (−1)
i =1
i+q
(I h ) iq Det (M (I h ) i ,q ) Ahora bien, M (A t ) p, j = (M (A) j,p ) t y además
M (A) j,p ∈ M mxm (K ) . Luego, por hipótesis de inducción se
Sea q = h, es decir, tomamos la h-ésima columna de Ih. Luego,
cumple que:
h
Det(Ih) = ∑ (−1)
i =1
i+h
(I h ) ih Det (M (I h ) i , h ) Det (M (A t ) p, j ) = Det ((M (A) j,p ) t ) = Det (M (A) j,p )

= (-1)1+h(Ih)1hDet(M(Ih)1,h) +…+ (-1)h+h(Ih)hhDet(M(Ih)h,h) En consecuencia,


= (-1)1+h.0.Det(M(Ih)1,h) +…+ 1.1.Det(M(Ih)h,h)
= Det(M(Ih)h,h) = Det(Ih-1) = 1. m +1

2. Utilicemos el método de inducción matemática.


Det(At) = ∑ (−1)
j=1
p+ j
(A t ) pj Det (M (A t ) p , j )

m +1
Demostremos que la proposición se cumple para n = 2. = ∑ (−1)
j=1
j+ p
A jp Det (M (A) j, p )

En efecto, m +1

t
(A )ij = Aji. Luego,
= ∑ (−1)
i =1
i+p
A ip Det (M(A) i,p ) = Det(A).

2 3. Sea A la matriz definida por:


Det(At) = ∑ (−1)
j=1
p+ j
(A t ) pj Det (M (A t ) p , j )
⎡ A11 A12 L A1n ⎤
Ahora bien, M(A t ) p, j ∈ K . En consecuencia, ⎢ ⎥
⎢ M M M ⎥
Det (M(A t ) p, j ) = M (A t ) p , j ⎢ A s1 A s 2 L A sn ⎥
⎢ ⎥
A=⎢ M M M ⎥
Luego, ⎢A A p 2 L A pn ⎥
⎢ p1 ⎥
2
⎢ M M M ⎥
⎢ ⎥
Det(At) = ∑ (−1)
j=1
p+ j
(A t ) pj M (A t ) p , j ⎣ A n1 A n 2 A nn ⎦

2
Supongamos sin pérdida de generalidad que la p-ésima fila es la
= ∑ (−1)
j=1
p+ j
A jp M (A) j,p
fila siguiente a la s-ésima fila, es decir, p = s+1.
2
Luego,
= ∑ (−1)
j=1
j+ p
A jp Det (M (A) j, p )
⎡ A11 A12 L A1n ⎤
⎢ ⎥
⎢ M M M
2

= ∑ (−1) i+p
A ip Det (M(A) i,p ) ⎢ A s1 As2 L A sn ⎥
i =1
⎢ ⎥
= Det(A) A = ⎢ A p1 A p2 L A pn ⎥
⎢A A ( p +1) 2 L A ( p +1) n ⎥
Supongamos que la proposición se cumple para n = m, es decir, ⎢ ( p +1)1 ⎥
⎢ M M M ⎥
Det(At) = Det(A), ∀ A∈Mmxm(K). ⎢ ⎥
⎣ A n1 An2 L A nn ⎦
Demostremos que la proposición se cumple para n = m+1. Por tanto, e1(A) está definida por:

77 78
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ A11 A12 L A1n ⎤ ⎡ A11 A12 L A1n ⎤


⎢ ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎢ M M M ⎥
⎢ A p1 A p2 L A pn ⎥ ← s − ésima fila ⎢ A s1 A s 2 L A sn ⎥
⎢ ⎥ ⎢ ⎥
e1 (A) = ⎢ A s1 As2 L A sn ⎥ ← s + 1 − ésima fila A=⎢ M M M ⎥
⎢A A L A ( p+1) n ⎥ ⎢A A p 2 L A pn ⎥
⎢ ( p+1)1 ( p+1) 2
⎥ ⎢ p1 ⎥
⎢ M M M ⎥ ⎢ M M M ⎥
⎢ ⎥ ⎢ ⎥
A
⎣ n1 A n2 A nn ⎦ ⎣ A n1 A n 2 A nn ⎦

Ahora bien, Luego e2(A) está definida por:

n
⎡ A11 A12 L A1n ⎤
Det(A) = ∑ (−1) t+ j
A tj Det (M (A) t , j ) ⎢
M M M ⎥

j=1 ⎢
n ⎢ A s1 A s 2 L A sn ⎥
Det(e1(A)) = ∑ (−1)
j=1
t+ j
(e1 (A)) tj Det (M (e1 (A)) t , j ) ⎢
e 2 (A) = ⎢ M M M ⎥

⎢cA cA p 2 L cA pn ⎥
⎢ p1 ⎥
Sea t = s para A y sea t = p = s+1 para e1(A). Luego, ⎢ M M M ⎥
⎢ ⎥
⎣ A n1 A n 2 A nn ⎦
Det(A) = (-1)s+1As1Det(M(A)s,1) +… + (-1)s+nAsnDet(M(A)s,n)
Det(e1(A)) = (-1)s+1+1(e1(A))(s+1)1Det(M(e1(A))s+1,1) +
+… + (-1)s+1+n(e1(A))(s+1)nDet(M(e1(A))s+1,n) Ahora bien,

n
Pero Det(M(A)s,j) = Det(M(e1(A))s+1,j) y Asj = (e1(A))(s+1)j ∀ j = 1,
2,… , n.
Det(A) = ∑ (−1)
j=1
t+ j
A tj Det (M (A) t , j )

n
Luego, Det(e2(A)) = ∑ (−1)
j=1
t+ j
(e 2 (A)) tj Det (M (e 2 (A)) t , j )
s+1+1
Det(e1(A)) = (-1) As1Det(M(A)s,1) +… +
(-1)s+1+nAsnDet(M(A)s,n)
Sea t = p tanto para A como para e2(A). Luego,
= -(-1) As1Det(M(A)s,1) -… -(-1)s+nAsnDet(M(A)s,n)
s+1

= -[(-1)s+1As1Det(M(A)s,1) +… +
Det(A) = (-1)p+1Ap1Det(M(A)p,1) +… + (-1)p+nApnDet(M(A)p,n)
(-1)s+nAsnDet(M(A)s,n)]
= -Det(A)
Det(e2(A)) = (-1)p+1(e2(A))p1Det(M(e2(A))p,1) +
+… + (-1)p+n(e2(A))pnDet(M(e2(A))p,n)
La demostración para f1(A) es análoga.

4. Supongamos que las filas s-ésima y p-ésima de A son iguales. Pero Det(M(A)p,j) = Det(M(e2(A))p,j) y (e2(A))pj = cAsj ∀ j = 1,
2,… , n. Luego,
Si sobre A se aplica la operación elemental de filas e1:rp↔rs se
obtiene una matriz e1(A) que cumple la siguiente propiedad:
Det(e2(A)) = (-1)p+1cAp1Det(M(A)p,1) +… + (-1)p+ncApnDet(M(A)p,n)
Det(e1(A)) = -Det(A). Pero como las filas s-ésima y p-ésima de
= c[(-1)p+1Ap1Det(M(A)p,1) +… + (-1)p+nApnDet(M(A)p,n)]
A son iguales entonces e1(A) = A. Luego,
= cDet(A)
Det(A) = -Det(A)
La demostración para f2(A) es análoga.
⇒ Det(A) + Det(A) = 0
⇒ 2Det(A) = 0 6. Sea A la matriz definida por:
⇒ Det(A) = 0

5. Sea A la matriz definida por:

79 80
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

n
⎡ A11 A12 L A1n ⎤
⎢ ⎥ Det(C) = ∑ (−1) t+ j
C tj Det (M (C) t , j )
⎢ M M M ⎥ j=1
⎢ A s1 A s 2 L A sn ⎥ ← s − ésima fila
⎢ ⎥ Sea t = p. Luego,
A=⎢ M M M ⎥
⎢cA cA s 2 L cA sn ⎥ ← p − ésima fila
⎢ s1 ⎥ Det(C) = (-1)p+1Cp1Det(M(C)p,1) +… + (-1)p+nCpnDet(M(C)p,n)
⎢ M M M ⎥ = (-1)p+1(Ap1+Bp1)Det(M(C)p,1) +
⎢ ⎥ +… + (-1)p+n(Apn+ Bpn)Det(M(C)p,n)
⎣ A n1 A n 2 A nn ⎦
= (-1)p+1Ap1Det(M(C)p,1) +… + (-1)p+nApnDet(M(C)p,n) +
(-1)p+1Bp1Det(M(C)p,1) +… + (-1)p+nBpnDet(M(C)p,n)
Sea B la matriz definida por:
Pero Det(M(C)p,j) = Det(M(A)p,j) = Det(M(B)p,j); ∀ j = 1, 2,… ,
n. Luego,
⎡ A11 A12 L A1n ⎤
⎢ ⎥ Det(C) = (-1)p+1Ap1Det(M(A)p,1) +… + (-1)p+nApnDet(M(A)p,n) +
⎢ M M M ⎥
⎢ A s1 A s 2 L A sn ⎥ ← s − ésima fila (-1)p+1Bp1Det(M(B)p,1) +… + (-1)p+nBpnDet(M(B)p,n)
⎢ ⎥ = Det(A) + Det(B).
B=⎢ M M M ⎥
⎢A A s 2 L A sn ⎥ ← p − ésima fila 9. La demostración es análoga a la demostración del apartado 7.
⎢ s1 ⎥
⎢ M M M ⎥
⎢ ⎥ 10. Sea A la matriz definida por:
⎣A n1 A n 2 A nn ⎦
⎡ A11 A12 L A1n ⎤
Luego, por el apartado 5 Det(A) = cDet(B). Por el apartado 4 ⎢ ⎥
Det(B) = 0. Por consiguiente, Det(A) = c.0 = 0. ⎢ M M M ⎥
⎢ A s1 A s 2 L A sn ⎥
⎢ ⎥
7. La demostración es análoga a la demostración del apartado A=⎢ M M M ⎥
anterior. ⎢A A p 2 L A pn ⎥
⎢ p1 ⎥
8. Las matrices A, B y C están definidas de la siguiente forma: ⎢ M M M ⎥
⎢ ⎥
⎣ A n1 A n 2 A nn ⎦
⎡ A11 A12 L A1n ⎤ ⎡ A11 A12 L A1n ⎤
⎢ ⎥ ⎢ ⎥ Luego e3(A) está definida por:
⎢ M M M ⎥ ⎢ M M M ⎥
⎢ A s1 A s 2 L A sn ⎥ ⎢ A s1 A s 2 L A sn ⎥
⎢ ⎥ ⎢ ⎥ ⎡ A11 A12 L A1n ⎤
A=⎢ M M M ⎥ B=⎢ M M M ⎥ ⎢ ⎥
⎢A M M M
A p 2 L A pn ⎥ ⎢B Bp 2 L Bpn ⎥ ⎢ ⎥
⎢ p1 ⎥ ⎢ p1 ⎥ ⎢ A s1 As2 L A sn ⎥
⎢ M M M ⎥ ⎢ M M M ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ e3 (A) = ⎢ M M M ⎥
⎣ A n1 A n 2 A nn ⎦ ⎣A n1 A n 2 A nn ⎦
⎢A + cA A p 2 + cA s 2 L A pn + cA sn ⎥
⎢ p1 s1

⎢ M M M ⎥
⎡ A11 A12 L A1n ⎤ ⎢ ⎥

M M M
⎥ ⎣ A n1 An2 A nn ⎦
⎢ ⎥
⎢ A s1 As2 L A sn ⎥
⎢ ⎥ Si definimos la matriz B de la siguiente manera:
C=⎢ M M M ⎥
⎢A + B A p 2 + Bp 2 L A pn + Bpn ⎥
⎢ p1 p1

⎢ M M M ⎥
⎢ ⎥
⎣ A n1 A n2 A nn ⎦

Ahora bien,

81 82
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ A11 A12 L A1n ⎤ 12. Supongamos sin pérdida de generalidad que la primera fila de A
⎢ ⎥ es nula. Ahora bien,
⎢ M M M ⎥
⎢ A s1 A s 2 L A sn ⎥ n

B=⎢ M M M ⎥
⎥ Det(A) = ∑ (−1)
j=1
t+ j
A tj Det (M (A) t , j )
⎢cA cA s 2 L cA sn ⎥
⎢ s1 ⎥
⎢ M M M ⎥ Sea t = 1. Luego,
⎢ ⎥
⎣ A n1 A n 2 A nn ⎦
Det(A) = (-1)1+1A11Det(M(A)1,1)+…+(-1)1+nA1nDet(M(A)1,n)
= (-1)1+1.0.Det(M(A)1,1)+…+(-1)1+n.0.Det(M(A)1,n)
Entonces por el apartado 7 se cumple que = 0.
Det(e3(A)) = Det(A)+Det(B). De forma análoga se demuestra si A tiene una columna nula.
Por el apartado 6 Det(B) = 0. Por consiguiente: 13. Supongamos que Rango(A) = n. En ese caso R = In y por
consiguiente Det(R) = Det(In) = 1. Supongamos ahora que
Det(e3(A)) = Det(A)+0 = Det(A). Rango(A) = r < n. En ese caso R tiene las últimas n-r nulas. Por
el apartado 10, Det(R) = 0.
La demostración para f3(A) es análoga.
14. CN(⇒): Si A es invertible entonces Det(A) ≠ 0.
11. Supongamos que E está definida por la operación elemental de
filas e1:rp↔rs. Luego, E = e1(In). En consecuencia por el apartado Utilicemos en este caso el método de reducción al absurdo, es
3: decir, supongamos que A es invertible y que Det(A) = 0. Como
A es invertible entonces existen matrices elementales E1, E2,… ,
Det(E) = Det(e1(In)) = -Det(In) = -1. Et tales que:
Por otra parte EA = e1(A). Luego, también por el apartado 3: In = Et-1Et…E1A
⇒ Det(In) = Det(Et-1Et…E1A)
Det(EA) = Det(e1(A)) = -Det(A) = -1.Det(A) = Det(E)Det(A)
⇒ Det(In) = Det(Et-1)Det(Et)…Det(E1)Det(A)
⇒ Det(In) = Det(Et-1)Det(Et)…Det(E1).0
Supongamos que E está definida por la operación elemental de
filas e2:rp→crp (c ≠ 0). Luego, E = e2(In). En consecuencia por ⇒ Det(In) = 0
el apartado 5:
Lo cual es una contradicción porque Det(In) = 1.
Det(E) = Det(e2(In)) = cDet(In) = c.1 = c.

Por otra parte EA = e2(A). Luego, también por el apartado 5: CS(⇐): Si Det(A) ≠ 0 entonces A es invertible.

Det(EA) = Det(e2(A)) = cDet(A) = Det(E)Det(A) Sea R∈Mnxn(K) la matriz escalonada reducida por filas de A.
Luego, existen matrices elementales E1, E2,… , Et tales que:
Supongamos que E está definida por la operación elemental de
filas e3:rp→rp+crs (c ≠ 0). Luego, E = e3(In). En consecuencia por R = Et-1Et…E1A
el apartado 8: ⇒ Det(R) = Det(Et-1Et…E1A)

Det(E) = Det(e3(In)) = Det(In) = 1. Aplicando el apartado 9, t veces se obtiene que

Por otra parte EA = e3(A). Luego, también por el apartado 8: Det(R) = Det(Et-1)Det(Et)…Det(E1)Det(A)

Det(EA) = Det(e3(A)) = Det(A) = 1.Det(A) = Det(E)Det(A) Por el apartado anterior el determinante de una matriz elemental
puede valer 1, -1 ó c (c ≠ 0), es decir, el determinante de una
De forma análoga se demuestra para las operaciones elementales matriz elemental es no nulo. Por consiguiente, como Det(Et-1) ≠
de columnas. 0, Det(Et) ≠ 0,… , Det(E1) ≠ 0 y Det(A) ≠ 0 entonces Det(R) ≠ 0.
Como Det(R) = 0 o Det(R) = 1 entonces Det(R) = 1, es decir,

83 84
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

R = In. Luego, A es equivalente por filas a R y por lo tanto A es ⇒ Det(AB) = Det(E1-1E2-1…Et-1)Det(B)


invertible. ⇒ Det(AB) = Det(A)Det(B)

15. CN(⇒): Si Rango(A) = n entonces Det(A) ≠ 0. 17. Por el apartado 1 se sabe que:

Si Rango(A) = n entonces A es invertible. Por lo tanto, Det(In) = 1


Det(A) ≠ 0.
Como A es no singular entonces A-1A = In. Luego,
CS((⇐): Si Det(A) ≠ 0 entonces Rango(A) = n.
Det(A-1A) = 1
Si Det(A) ≠ 0 entonces A es invertible. Por lo tanto, ⇒ Det(A-1)Det(A) = 1
Rango(A) = n. 1
⇒ Det(A-1) =
Det (A)
16. Supongamos que A y B son singulares. En ese caso:

Det(A) = Det(B) = 0 18. Por definición de Rango a través de determinantes se tiene que:

Por otro lado, si A y B son singulares entonces Rango(A) < n y Rango(A) = máximo{r: ∃ B∈Mrxr(K), sub-matriz de A tal que
Rango(B) < n. Por consiguiente, Rango(AB) ≤ Rango(A) < n, es Det(B) ≠ 0}
decir, AB es singular. Luego, Det(AB) = 0.
Como los menores principales de orden 1, 2,.. , r son matrices de
Por consiguiente, Det(AB) = 0 = 0.0 = Det(A)Det(B). orden rxr entonces al menos uno de los determinantes de los
menores principales de orden 1, 2,… , r son no nulos y todos los
Supongamos ahora que A es singular y B es no singular. En ese determinantes de los menores principales de orden r+1, r+2,… ,n
caso: son nulos.

Det(A) = 0 y Det(B) ≠ 0 19. Por definición:

Por otro lado, como A es singular y B es no singular entonces n

Rango(AB) = Rango(A) < n, es decir, AB es singular. Luego, Det(A) = ∑ (−1)


i =1
i+ j
A ij Det (M (A ) i , j )
Det(AB) = 0.

Por consiguiente, Det(AB) = 0 = 0.Det(B) = Det(A)Det(B). Fijando j = 1 se obtiene que:

n
Finalmente supongamos que A y B son no singulares. Por
consiguiente existen matrices elementales E1, E2,… , Et tales
Det(A) = ∑ (−1)
i =1
i +1
A i1Det (M (A) i,1 )
que:
Como A es diagonal Anxn(2,1) = … Anxn(n,1) = 0. Luego,
In = Et-1Et…E1A

Es decir, Det(A) = A11Det (M (A )1,1 )

A = E1-1E2-1…Et-1 Pero, M(A)1,1 es también una matriz diagonal de orden


AB = E1-1E2-1…Et-1B (n-1)x(n-1). Por ello, al aplicar el procedimiento anterior n-1
veces se obtiene que:
Luego,
n

Det(AB) = Det(E1-1E2-1…Et-1B) Det (A ) = ∏A


i =1
ii
⇒ Det(AB) = Det(E1-1)Det( E2-1…Et-1B)
⇒ Det(AB) = Det(E1-1)Det( E2-1)Det(E3-1 …Et-1B)
⇒ Det(AB) = Det(E1-1)Det(E2-1)…Det(Et-1B)
⇒ Det(AB) = Det(E1-1)Det(E2-1)…Det(Et-1)Det(B)
⇒ Det(AB) = Det(E1-1E2-1)…Det(Et-1)Det(B)

85 86
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

20. Supongamos que A es triangular superior. Por definición: a A3 solamente aplicando operaciones elementales de fila del tipo rp→rp + crs
entonces por la propiedad 10, Det(A3) = Det(T) y como T es triangular
n superior entonces Det(A3) es el producto de los elementos de la diagonal
Det(A) = ∑ (−1)
i =1
i+ j
A ij Det (M (A) i , j ) principal de T. Este es un nuevo procedimiento para hallar el determinante de
una matriz de cualquier orden. Veamos:

Fijando j = 1 se obtiene que: 1


⎡ 3 0 − 1⎤
r2 → r2 + r
3 ⎡3 0 − 1 ⎤ ⎡3 0 − 1 ⎤
⎢ ⎥ r3 →r3 − 3 r1 ⎢⎢
2 ⎥ r3 →r3 − 1 r2 ⎢ ⎥
3⎥ ⎯⎯⎯ ⎯→ 0 2 8 ⎥ ⎯⎯⎯ ⎯ ⎯→ ⎢0 2 8 ⎥ = T
n
A3 = ⎢ − 1 2 2
Det(A) = ∑ (−1) i +1
A i1Det (M (A) i,1 )
⎢⎣ 2 1 4⎥⎦
⎢ 3 ⎥ ⎢ 3 ⎥
i =1 ⎢⎣0 1 14 3 ⎥⎦ ⎢⎣0 0 10 3 ⎥⎦

Como A es triangular superior A21 = … An1 = 0. Luego,


Luego,
Det(A3) = Det(T) = 3.2.(10/3) = 20
Det(A) = A11Det (M (A )1,1 )
Ahora, utilizando las propiedades (teorema 2.1.) y los determinantes de A1, A2
Pero, M(A)1,1 es también una matriz triangular superior de orden y A3 hallaremos el determinante de cada una de las siguientes matrices:
(n-1)x(n-1). Por ello, al aplicar el procedimiento anterior n – 1
veces se obtiene que:
⎡2 2 3⎤
⎢ ⎥
n 1. B1 = ⎢1 0 − 1 ⎥ . Se aprecia que B1 se obtiene al intercambiar las
Det (A) = ∏A
i =1
ii ⎢⎣0 1 4⎥⎦
filas 1 y 2 de A1. Por la propiedad 3 se obtiene que
Análogamente se demuestra que si A es triangular inferior Det(B1) = -Det(A1) = -3
n ⎡0 1 4⎤
entonces Det (A) = ∏A
i =1
ii . 2.
⎢ ⎥
B 2 = ⎢1 0 − 1 ⎥ . Se aprecia que B2 se obtiene al intercambiar
⎣⎢2 2 3⎦⎥
Ejemplo 2.7. primero las filas 1 y 3 de A1 y luego intercambiar las filas 2 y 3 de
la matriz resultante. Aplicando la propiedad 3 2 veces de obtiene
Sean A1, A2, A3∈M3x3(ℜ) definidas por: que Det(B2) = -(-(Det(A1)) = Det(A1) = 3.
⎡ −1 0 1 ⎤
⎡1 0 −1 ⎤ ⎡ 1 0 −1 ⎤ ⎡ 3 0 −1 ⎤ ⎢ ⎥
3. B3 = ⎢ 3 2 2⎥ . Se aprecia que B3 se obtiene al intercambiar las
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A1 = ⎢ 2 2 3⎥ , A 2 = ⎢ − 1 1 − 1⎥ y A3 = ⎢ −1 2 3⎥ ⎢⎣ 4 1 0⎥⎦
⎢⎣0 1 4⎦⎥ ⎢⎣ 0 1 ⎥
4⎦ ⎢⎣ 2 1 4⎥⎦
columnas 1 y 3 de A1. Luego, por la propiedad 3 se tiene que
Det(B3) = -Det(A1) = -3.
Hallemos Det(A1), Det(A2) y Det(A3). ⎡1 0 −1 ⎤
⎢ ⎥
Para A1 y A2 aplicaremos la fórmula del determinante para una matriz de orden 4. B 4 = ⎢4 4 6⎥ . Se aprecia que B4 se obtiene al multiplicar la
3x3 generada en el ejemplo 2.4.: ⎢⎣0 1 4⎥⎦
fila 2 de A1 por 2. Luego, por la propiedad 5 se tiene que
Det(A1) = 1.2.4 + 2.1.(-1) + 0.3.0 – (0.2.(-1) + 1.3.1 + 2.0.4)
Det(B4) = 2Det(A1) = 2.3 = 6.
= 8 – 2 + 0 – (0 + 3 + 0) = 6 – 3 = 3
⎡1 0 3⎤
⎢ ⎥
Det(A2) = 1.1.4 + (-1).1.(-1) + 0.(-1).0 – (0.1.(-1) + 1.(-1).1 + (-1).0.4) 5. B5 = ⎢2 2 − 9 ⎥ . Se observa que B5 se obtiene al multiplicar la
= 4 + 1 + 0 – (0 – 1 + 0) = 5 + 1 = 6 ⎢⎣0 1 − 12⎥⎦

El determinante de A3 se puede calcular perfectamente por el procedimiento columna 3 por (-3). Luego, por la propiedad 5 se tiene que
anterior. Sin embargo, con fines académicos, para A3 utilizaremos las Det(B5) = (-3)Det(A1) = (-3).3 = -9.
propiedades de determinantes (teorema 2.1.), específicamente las propiedades
10 y 20. Si se determina una matriz T triangular superior equivalente por filas

87 88
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡0 1 4⎤ ⎡6 9 −9 ⎤
⎢ ⎥ 1 ⎢ ⎥
6. B6 = ⎢4 2 3⎥ . Se aprecia que B6 se obtiene al intercambiar Det(B) = Det ( ⎢a b c ⎥ ) =
3
⎢⎣2 0 − 1 ⎥⎦ ⎢⎣2 3 − 3⎥⎦
primero las filas 1 y 3 de A1 y luego a la matriz resultante ⎡ma + 6 mb + 9 mc − 9⎤
multiplicarle la columna 1 por 2. Luego, por las propiedades 3 y 5 1 ⎢ ⎥ 1
se tiene que Det(B6) = -(2Det(A1) = (-2).3 = -6. Det ( ⎢ a b c ⎥ ) = Det (A)
3 3
⎢⎣ 2 3 − 3 ⎥⎦
⎡1 0 −1 ⎤
⎢ ⎥
7. B7 = ⎢1 3 2⎥ . Se observa que las filas 1 y 3 de B7 son
⎢⎣0 1 4⎥⎦
Es decir, Det(A) = 3Det(B) y como B tiene 2 filas iguales Det(B) = 0. En
idénticas a las filas 1 y 3 de A1 y A2, en tanto que la fila 2 de B7 se consecuencia, Det(A) = 3.0 = 0.
obtiene al sumar la fila de 2 de A1 más la fila 2 de A2. Luego, por la
propiedad 8 se tiene que Det(B7) = Det(A1) + Det(A2) = 3 + 6 = 9. Este cálculo se puede hacer sin especificar necesariamente las operaciones
⎡4 0 −1 ⎤ elementales de filas de la siguiente manera:
⎢ ⎥
8. B8 = ⎢1 2 3⎥ . Se aprecia que las columnas 2 y 3 de B8 son
⎡ma+ 6 mb+ 9 mc− 9⎤ ⎡6 9 −9⎤
⎢⎣2 1 4⎥⎦ ⎢ ⎥ ⎢ ⎥
Det(A) = Det( ⎢ a b c ⎥ ) = Det( ⎢a b c ⎥ )
idénticas a las columnas 2 y 3 de A1 y A3, en tanto que la columna 1
⎢⎣ 2 3 −3 ⎦⎥ ⎣2 3 −3⎥⎦

de B8 se obtiene al sumar la columna 1 de A1 más la columna 1 de
A3. Luego, por la propiedad 9 se tiene que ⎡2 3 −3 ⎤
Det(B8) = Det(A1) + Det(A3) = 3 + 20 = 23. ⎢ ⎥
= 3Det( ⎢a b c ⎥ ) = 3.0 = 0
⎡1 0 −1 ⎤
⎢ ⎥ ⎢⎣2 3 − 3⎥⎦
9. B 9 = ⎢0 2 5⎥ . Se observa que B9 se obtiene al sustituir la fila
⎢⎣0 1 4⎥⎦
2.4. MATRIZ ADJUNTA.
2 de A1 por dicha fila menos 2 veces la fila 1 de A1. Luego, por la
propiedad 10 se tiene que Det(B9) = Det(A1) = 3. Definición 2.3.
⎡ 1 0 0⎤
⎢ ⎥ Sean A∈Mnxn(K) e i, j∈ℵ, 1≤ i ≤ n; 1≤ j ≤ n. Se define como Cofactor del
10. B10 = ⎢ − 1 1 − 2 ⎥ . Se observa que B10 se obtiene al sustituir la
elemento Aij y se denota por A(i|j) al número A(i|j)∈K:
⎢⎣ 0 1 4⎥⎦
columna 3 de A2 por dicha columna más la columna 1 de A2. A(i|j) = (-1)i+jDet(M(A)i,j)
Luego, por la propiedad 10 se tiene que Det(B10) = Det(A2) = 6.
Ejemplo 2.9.
Ejemplo 2.8.
Sea A∈M3x3(ℜ) definida por:
Hallemos el determinante de la siguiente matriz:
⎡ 1 0 2⎤
⎡ma + 6 mb + 9 mc − 9⎤ ⎢ ⎥
A = ⎢− 1 2 1⎥
⎢ ⎥
A=⎢ a b c ⎥ ⎢⎣ 1 1 3⎥⎦
⎢⎣ 2 3 − 3 ⎥⎦
Luego,
⎡ma + 6 mb + 9 mc − 9⎤ ⎡6 9 −9 ⎤ 1 ⎡2 3 −3 ⎤
⎢ ⎥ 1 →r1 −mr2 ⎢ ⎥ r1 → 3 r1 ⎢ ⎥ ⎡1 0⎤
A=⎢ a b c ⎥ ⎯r⎯ ⎯⎯→⎢a b c ⎥ ⎯⎯⎯ →⎢a b c ⎥ = B A(2|3) = (-1)2+3Det(M(A)2,3) = (-1)5Det( ⎢ ⎥ ) = (-1).(1) = -1
⎢⎣ 2 3 − 3 ⎥⎦ ⎢⎣2 3 − 3⎥⎦ ⎢⎣2 3 − 3⎥⎦ ⎣1 1⎦

Luego, por propiedades:

89 90
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Definición 2.4. Demostración

Sea A∈Mnxn(K). Se define como Matriz Adjunta o Matriz Adjugada de A y se La matriz adjunta de A tiene la siguiente estructura:
denota por Adj(A) a la matriz Adj(A)∈Mnxn(K) con elemento genérico:
⎡ A(1 1) A(2 1) L A(n 1) ⎤
⎢ ⎥
(Adj(A))ij = A(j|i) A(1 2) A(2 2) L A(n 2) ⎥
Adj(A) = ⎢⎢
M M M ⎥
Observación: ⎢ ⎥
⎣⎢ A (1 n ) A ( 2 n ) L A ( n n )⎥⎦
Si definimos a B∈Mnxn(K) la matriz Bij = A(i|j) entonces Adj(A) = Bt.
Luego,
Ejemplo 2.10.
n

Con respecto a la matriz A del ejemplo 2.9.:


(A(Adj(A)))ij = ∑A
r =1
ir ( Adj(A )) rj

n
⎡ 2 1⎤
A(1|1) = (-1)1+1Det(M(A)1,1) = (-1)2Det( ⎢ ⎥ )=5
⇒ (A(Adj(A)))ij = ∑A
r =1
ir A ( j r)
⎣1 3⎦
n
⎡−1 1⎤
A(1|2) = (-1)1+2Det(M(A)1,2) = (-1)3Det( ⎢ ⎥)=4
⇒ (A(Adj(A)))ij = ∑A
r =1
ir ( −1)
j+ r
Det(M(A) j, r )
⎣ 1 3⎦
n
⎡−1 2⎤
A(1|3) = (-1)1+3Det(M(A)1,3) = (-1)4Det( ⎢ ⎥ ) = -3
⇒ (A(Adj(A)))ij = ∑ (−1)
r =1
j+ r
A ir Det(M (A) j, r )
⎣ 1 1⎦
⎡0 2 ⎤ n
A(2|1) = (-1)2+1Det(M(A)2,1) = (-1)3Det( ⎢
⎣1 3⎦
⎥)=2 Si i = j entonces (A(Adj(A)))ij = ∑ (−1)
r =1
i+r
A ir Det (M (A) i , r ) = Det(A).

⎡1 2⎤
A(2|2) = (-1)2+2Det(M(A)2,2) = (-1)4Det( ⎢ ⎥ )=1 Ahora bien,
⎣1 3⎦
⎡1 0⎤ Sea B∈Mnxn(K) la matriz definida de la siguiente manera:
A(2|3) = (-1)2+3Det(M(A)2,3) = (-1)5Det( ⎢ ⎥ ) = -1
⎣1 1⎦ ⎡ A11 A12 L A1n ⎤
⎡0 2⎤ ⎢ ⎥
A(3|1) = (-1)3+1Det(M(A)3,1) = (-1)4Det( ⎢ ⎥ ) = -4 ⎢ M M M ⎥
⎣2 1 ⎦ ⎢ A i1 A i 2 L A in ⎥
⎢ ⎥
⎡ 1 2⎤ B=⎢ M M M ⎥
A(3|2) = (-1)3+2Det(M(A)3,2) = (-1)5Det( ⎢ ⎥ ) = -3 ⎢A A i 2 L A in ⎥ ← j − ésima fila
⎣− 1 1⎦ ⎢ i1 ⎥
⎡ 1 0⎤ ⎢ M M M ⎥
A(3|3) = (-1)3+3Det(M(A)3,3) = (-1)6Det( ⎢ ⎥ )=2 ⎢ ⎥
⎣ − 1 2⎦ ⎣A n1 A n 2 A nn ⎦

Luego, Como B tiene 2 filas iguales se cumple que Det(B) = 0. Además:


n
⎡ A(1 | 1) A(2 | 1) A(3 | 1) ⎤
⎢ ⎥
⎡ 5

2 −4 ⎤

Det(B) = ∑ (−1)
j=1
t+ j
B tj Det (M(B) t , j )
Adj(A) = ⎢A(1 | 2) A(2 | 2) A(3 | 2)⎥ = ⎢ 4 1 − 3⎥
n
⎢⎣ A(1 | 3) A(2 | 3) A(3 | 3) ⎥⎦ ⎢⎣ − 3 −1 2⎥⎦ ⇒ Det(B) = ∑ (−1)
r =1
t+r
B tr Det (M (B) t , r )

Teorema 2.2.
Sea t = j. Luego,
n

Sea A∈Mnxn(K). Si A es no singular entonces A-1 =


1
Det(A)
Adj(A) . Det(B) = ∑ (−1)
r =1
j+ r
B jr Det(M (B) j, r )

91 92
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Pero Bjr = Air y Det(M(B)j,r) = Det(M(A)j,r). Por consiguiente: EJERCICIOS PROPUESTOS.


n
Calcule el determinante de las siguientes matrices:
∑ (−1) j+ r 1.
Det(B) = A ir Det (M (A ) j, r ) = 0
r =1
⎡ 2 −2 1⎤
⎢ ⎥
n
A=⎢ 3 4 2⎥
∑ (−1) j+ r 1.1.
Luego si i ≠ j entonces (A(Adj(A)))ij = A ir Det (M (A) j, r ) = 0
r =1
⎢⎣ − 1 5 3⎥⎦

Es decir, ⎡5 0 −2 3⎤
⎢ ⎥
1 − 2 1 4⎥
⎧ Det (A ) si i = j 1.2. B=⎢
⎢3 1 2 4⎥
(A (Adj(A )))ij = ⎨ ⎢ ⎥
⎩ 0 si i ≠ j ⎢⎣0 6 0 5⎥⎦

Lo cual indica que (A(Adj(A))) es una matriz diagonal. Por lo tanto: ⎡1 2 0 0⎤


⎢ ⎥
0 3 4 0⎥
⎡Det(A) 0 L 0 ⎤ ⎡1 0 L 0⎤ 1.3. C=⎢
⎢2 0 −1 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
0 Det(A) L 0 ⎥ = Det(A)⎢0 1 L 0⎥
(A(Adj(A))) = ⎢ = Det(A)In ⎣⎢0 4 0 3⎦⎥
⎢ M M M ⎥ ⎢M M ⎥
⎢ ⎥ ⎢ ⎥
⎣⎢ 0 0 L Det(A)⎦⎥ ⎣⎢0 0 L 1⎦⎥ 2. Para la matriz A del ejercicio anterior halle el determinante de cada uno
los menores principales de orden 2 y para las matrices B y C halle el
Como A es no singular entonces Det(A) ≠ 0. En consecuencia: determinante de cada uno de los menores principales de orden 2 y 3,
respectivamente.
1 1
(A(Adj(A))) = I n ⇒ A( Adj(A)) = I n
Det (A) Det (A) 3. Determine los valores de k para los cuales las siguientes matrices son no
singulares:
De forma análoga se demuestra que (Adj(A)A) = Det(A)In lo cual trae como
consecuencia que: ⎡k −4 ⎤
3.1. A=⎢ ⎥
1 1 ⎣5 1 − k ⎦
(Adj(A)A) = I n ⇒ ( Adj(A)A) = I n
Det (A) Det (A) ⎡1 − k k 1+ k ⎤
⎢ ⎥
3.2. B=⎢ 2 1 4 ⎥
Por lo tanto,
⎢⎣2 + k k − 3 k − 5⎥⎦
1
A −1 = Adj(A)
Det(A)
4. Sea A∈Mnxn(K). Demuestre que si:
Ejemplo 2.11.
4.1. A es ortogonal entonces Det(A) = -1 ó Det(A) = 1.
Con respecto a la matriz A del ejemplo 2.9., se tiene que: 4.2. A es idempotente entonces Det(A) = 0 ó Det(A) = 1.
4.3. c∈K y c ≠ 0 entonces Det(cA) = cnDet(A); c ≠ 0.
⎡ 1 0 2⎤ 4.4. A es antisimétrica Det(At) = (-1)nDet(A).
⎢ ⎥ 4.5. A es antisimétrica y n es impar entonces Det(A) = 0.
A = ⎢− 1 2 1⎥
4.6. A = LU entonces Det(A) = Det(U).
⎢⎣ 1 1 3⎥⎦
Det( U)
4.7. PA = LU entonces Det(A) = = ± Det( U) .
Det (P)
Det(A) = (1.2.3 + (-1).1.2 + 0.1.1) – (1.2.2 + 1.1.1 + (-1).0.3)
= (6 – 2 + 0) – (4 + 1 + 0) = 4 – 5 = –1.
Luego, 5. Sea A∈Mnxn(K). Demuestre que la suma de los determinantes de los
menores principales de orden 1 es igual a la Traza de A.
⎡ 5 2 −4 ⎤ ⎡ −5 −2 4⎤
1 1 ⎢ ⎥ ⎢ ⎥
A −1 = Adj(A) = 4 1 − 3 = − 4 − 1 3⎥ Para cada una de las siguientes matrices resuelva la ecuación
(−1) ⎢ ⎥ ⎢ 6.
Det (A)
⎣⎢ − 3 − 1 2⎦⎥ ⎣⎢ 3 1 − 2 ⎦⎥ Det(A–λIn) = 0:

93 94
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

n
⎡ 3 0 0⎤ ⎡3 0 −1⎤ ⎡ 7 1 2⎤

A = ⎢0 1 1⎥
⎥ ⎢
A = ⎢0 1 1 ⎥
⎥ ⎢
A = ⎢− 1 7 0⎥
⎥ Demuestre que Det(A) = 1 + ∑X
i =1
i .

⎢⎣2 0 1⎥⎦ ⎢⎣1 0 1⎥⎦ ⎢⎣ 1 −1 6⎥⎦


11. Sean A(x1, y1), B(x2, y2) y C(x3, y3) los vértices de un triángulo ∆ABC.
⎡1 0 1 2⎤ ⎡1 0 0 −1 ⎤ Demuestre que el área de este triángulo es:
⎡ 3 2 −2 ⎤ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ 1 5 2 − 1⎥ 1 2 2 0⎥
A=⎢ 2 3 2⎥ A = ⎢ A=⎢
⎢1 2 5 − 1⎥ ⎢0 0 1 1⎥ ⎡1 x1 y1 ⎤
⎢⎣− 2 2 3⎥⎦ ⎢ ⎥ ⎢ ⎥ 1 ⎢ ⎥
⎣⎢2 −1 −1 6⎥⎦ ⎣⎢2 0 1 − 1 ⎦⎥ Area(∆ABC) = ± Det(A) ; siendo A = ⎢1 x 2 y2 ⎥
2
⎢⎣1 x 3 y 3 ⎥⎦
7. Sea A∈Mnxn(K) definida de la siguiente forma: ¿En qué caso Det(A) = 0?

⎡ 1 1 L 1 ⎤ 12. Sin desarrollar y tomando como insumo el dato que se da calcule el


⎢ ⎥ determinante de las siguientes matrices:
⎢ X 1 X 2 L Xn ⎥
A = ⎢ (X1 ) 2 (X 2 ) 2 L (X n ) 2 ⎥
⎢ ⎥ ⎡2x 2y + 2 2z 2w + 3⎤ ⎡x y z w⎤
⎢ M M M ⎥ ⎢ ⎥ ⎢ ⎥
⎢4 1 3 1 ⎥ 3 0 2 0⎥
⎢(X ) n −1 (X ) n −1
⎣ 1 L (X n ) n −1 ⎥⎦ 12.1. A=⎢ 1 ; Det(B) = 2 y B= ⎢
2
1 1 1 ⎥ ⎢1 1 1 1⎥
⎢ 3 ⎥ ⎢ ⎥
⎢0 1 0 ⎥ ⎢⎣0 − 2 0 −3⎥⎦
Demuestre que Det(A) = ∏ (X i − X j) . ⎣ 2 ⎦
i> j ⎡a b c⎤
⎡2a − 3d 2b − 3e 2c − 3f ⎤ ⎢ ⎥
Este determinante se llama Determinante de Van Der Monde.
i ⎥ ; Det(B) = 8 y B = ⎢d
12.2. ⎢ ⎥ e f⎥
A=⎢ g h
⎢⎣g h i ⎥⎦
8. Determine en qué casos el Determinante de Van Der Monde es nulo. ⎣⎢ d e f ⎦⎥
Obtenga además una fórmula para este determinante cuando n = 3 y ⎡c b 0 2a ⎤
cuando n = 4. ⎢ ⎥ ⎡a b c⎤
1 2 3 − 5⎥ ⎢ ⎥
12.3. A=⎢ ; Det(B) = -7 y B = ⎢ 2 3 4⎥
9. Utilizando el ejercicio anterior calcule el determinante de las siguientes ⎢4 3 0 4⎥
matrices:
⎢ ⎥ ⎣⎢ x y z ⎦⎥
⎣⎢ z y 0 2 x ⎦⎥
⎡ 3a 3b 3c ⎤ ⎡x y z ⎤
⎡1 1 1⎤ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ 12.4. A = ⎢2 x 2 y 2z ⎥ ; Det(B) = -4 y B = ⎢ a b c ⎥
9.1. A = ⎢1 2 3⎥
⎢⎣ u v w ⎥⎦ ⎢⎣u v w ⎥⎦
⎢⎣1 4 9⎥⎦

⎡1 1 1 1⎤ 13. Resuelva las siguientes ecuaciones:


⎢ ⎥
1 2 3 4⎥
9.2. B=⎢
⎢1 4 9 16 ⎥ ⎡ 3 x 3 3 ⎤
⎢ ⎥ ⎢ ⎥
⎢⎣1 8 27 64⎥⎦ x − 3 3 − x 0 0 ⎥
13.1. Det(A) = 0 con A = ⎢
⎢ 0 3− x x −3 0 ⎥
⎢ ⎥
10. Sea A∈Mnxn(K) la matriz definida de la siguiente forma: ⎣⎢ 0 3− x 0 x − 3⎦⎥
⎡log(2 x − 1) 1⎤
⎡1 + X1 X2 X3 L Xn ⎤ 13.2. Det(A) = 12 con A = ⎢ ⎥
⎢ ⎥ ⎣ −2 5⎦
⎢ X 1 1 + X 2 X 3 L Xn ⎥
A = ⎢ X1 X2 1 + X3 L Xn ⎥ ⎡ x 2 x 5 −3⎤
⎢ ⎥ ⎢ ⎥
0 0 1 0⎥
⎢ M M M M ⎥ 13.3. Det(A) = –4x con A = ⎢
⎢ X ⎢2 5 7 1 ⎥
⎣ 1 X2 X3 L 1 + X n ⎥⎦ ⎢ ⎥
⎣⎢ x 4 0 1 ⎦⎥

95 96
CAPÍTULO 2: DETERMINANTES

⎡ 2 −1 x −3⎤
⎢ ⎥
3 0 1 3x ⎥
13.4. Det(A) = –7 con A = ⎢
⎢4 2 5 6⎥
⎢ ⎥
⎣⎢− 2 1 1 2 ⎦⎥
⎡ 2 −3 1 ⎤
⎢ ⎥
13.5. Det(A) = 0 con A = ⎢ 1 senx 0 ⎥ ; x∈[0,2π]
⎢⎣− senx cos 2 x senx ⎥⎦

⎡ 1 −1 1 ⎤
⎢ ⎥
13.6. Det(A) = 0 con A = ⎢ctgx 3 0 ⎥ ; x∈[0,2π]
⎢⎣ 1 − 1 tgx ⎥⎦

14. Utilizando la matriz adjunta determinar en caso de que existan las


matrices inversas de las siguientes matrices:

⎡2 4 3⎤
⎢ ⎥
14.1. A = ⎢1 2 − 1⎥
⎣⎢1 −1 4⎥⎦
⎡ 1 1 −2 4⎤
⎢ ⎥
0 2 1 3⎥
14.2. B=⎢
⎢−1 2 1 0⎥
⎢ ⎥
⎣⎢ 4 3 2 − 1 ⎦⎥
⎡1 −1 −2 −1 ⎤
⎢ ⎥
0 3 4 − 1⎥
14.3. C=⎢
⎢4 1 2 1⎥
⎢ ⎥
⎢⎣3 3 1 2⎥⎦

15. Sea A∈M2x2(K) tal que A es no singular. Determine los valores de a y b


para que A2 – aA + bI2 = θ2x2 y halle la matriz inversa de A.

97
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Se dice que el SEL es consistente si el sistema tiene al menos una solución. En


Capítulo 3 caso contrario, se dice que es inconsistente. Si Y = θmx1 se dice que el SEL es
homogéneo. En tal caso, el sistema es consistente y la solución X = θnx1 se dice
que es la solución trivial de dicho SEL.
SISTEMAS DE
ECUACIONES LINEALES Ejemplo 3.1.

El conjunto de ecuaciones:

⎧ 2X1 − X 2 + 2X 3 = 7
3.1. INTRODUCCIÓN. ⎪
⎪ X1 − 3X 2 + 2X 3 = 8

En este capítulo se presenta una importante herramienta para el desarrollo del ⎪ 3X1 + X 2 + X 3 = 4
análisis de regresión multivariante como lo son los sistemas de ecuaciones ⎪2X1 − X 2 − 4X 3 = −5

lineales. Se exponen los 3 principales métodos para la resolución de sistemas
de ecuaciones lineales consistentes como lo son la Eliminación de Gauss, la
Es un SEL de 4 ecuaciones con 3 incógnitas. Dicho sistema se puede escribir
Eliminación de Gauss-Jordan y la Regla de Crámer, así como también se
matricialmente de la siguiente forma:
presentan aplicaciones como el Modelo de Insumo-Producto de Leontief.

3.2. DEFINICIONES, PROPIEDADES Y EJEMPLOS. ⎡ 2 −1 2⎤ ⎡ 7⎤


⎢ ⎥ ⎡ X1 ⎤ ⎢ ⎥
⎢ 1 − 3 2 ⎥ ⎢X ⎥ = ⎢ 8 ⎥
⎢3 1 ⎥ ⎢ ⎥ ⎢ 4⎥
Definición 3.1. 2
1
⎢ ⎥ ⎢⎣ X 3 ⎥⎦ ⎢ ⎥
Sean Aij, Yi∈K, con 1 ≤ i ≤ m, 1 ≤ j ≤ n, m, n∈ℵ*. Se define como sistema de ⎢⎣ 2 − 1 − 4 ⎥⎦ ⎢⎣ − 5 ⎥⎦
ecuaciones lineales (SEL) de m ecuaciones con n incógnitas al siguiente
conjunto de ecuaciones: Este SEL es consistente ya que:

⎧ A11X1 + A12 X 2 + K + A1n X n = Y1 ⎡2 −1 2⎤ ⎡ 7⎤


⎪ ⎡ 1⎤ ⎢ ⎥ ⎡ 1⎤ ⎢ ⎥
⎪ A 21X1 + A 22 X 2 + K + A 2 n X n = Y2 3 ⎢ ⎥ ⎢1 3 2⎥ ⎢ ⎥ ⎢ 8 ⎥
∃ X ∈ K ; X = ⎢ −1⎥ : −1 =

M ⎢3 1 1 ⎥ ⎢ ⎥ ⎢ 4⎥
⎪ ⎢⎣ 2⎥⎦ ⎢ ⎥ ⎢⎣ 2⎥⎦ ⎢ ⎥
⎪A m1X1 + A m 2 X 2 + K + A mn X n = Ym ⎣⎢2 − 1 − 4 ⎦⎥ ⎣⎢ − 5 ⎦⎥

Este conjunto de ecuaciones se puede escribir de forma matricial de la Definición 2.2.


siguiente manera:
Sean Aij, Yi∈K, con 1 ≤ i ≤ m, 1 ≤ j ≤ n, m, n∈ℵ*. Consideremos el SEL
siguiente:
A11X1 + A12 X 2 + K + A1n X n = Y1 ⎡ A11 A12 L A1n ⎤ ⎡ X1 ⎤ ⎡ Y1 ⎤
⎢ ⎥⎢ ⎥ ⎢ ⎥
A 21X1 + A 22 X 2 + K + A 2 n X n = Y2 A A 22 L A 2 n ⎥ ⎢ X 2 ⎥ ⎢ Y2 ⎥
⇒ ⎢ 21 = ⎧ A11X1 + A12 X 2 + K + A1n X n = Y1
M ⎢ M M M ⎥⎢ M ⎥ ⎢ M ⎥ ⎪
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎪ A 21X1 + A 22 X 2 + K + A 2 n X n = Y2
A m1X1 + A m 2 X 2 + K + A mn X n = Ym ⎢⎣A m1 A m 2 L A mn ⎥⎦ ⎢⎣X n ⎥⎦ ⎢⎣Ym ⎥⎦ ⎨ (1)
⎪ M
⇒ AX = Y ⎪A m1X1 + A m 2 X 2 + K + A mn X n = Ym

Donde A∈Mmxn(K), X∈Kn e Y∈Km. La matriz A se denomina matriz de
coeficientes y los vectores X e Y se denominan vector de incógnitas y vector Sean C1, C2,…, Cm∈K. La ecuación:
de términos independientes del SEL, respectivamente. La matriz particionada
1x2 [A | Y]∈Mmx(n+1)(K) se denomina matriz ampliada o aumentada del SEL. (C1A11+…+CmAm1)X1 +…+ (C1A1n+…+CmAmn)Xn = C1Y1 +…+CmYm (2)

Se dice que es una combinación lineal de las ecuaciones del SEL.


Un vector Z∈Kn se dice que es una solución del SEL si verifica la ecuación
matricial que lo define, es decir, si AZ = Y.

99
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Observación: ⎡ A11 A12 L A1n Y1 ⎤


⎢ ⎥
Cualquier solución del SEL (1) es solución de la ecuación (2). ⎢ M M M M ⎥
⎢ A p1 A p 2 L A pn Yp ⎥
⎢ ⎥
Ejemplo 3.2. [A | Y] = ⎢ M M M M ⎥ ⇒ rp → rp + crs ⇒
⎢A A L A sn Ys ⎥
En el ejemplo 3.1., una combinación lineal de las ecuaciones del SEL es: ⎢ s1 s2

⎢ M M M M ⎥
(2C1 + C2 + 3C3 + 2C4)X1 + (-C1 – 3C2 + C3 – C4)X2 + (2C1 + 2C2 + C3 – 4C4)X3 ⎢ ⎥
⎣A m1 A m 2 L A mn Ym ⎦
= 7C1 + 8C2 + 4C3 – 5C4
⎡ A11 A12 L A1n Y1 ⎤
Al sustituir una solución del SEL; X1 = 1, X2 = -1 y X3 = 2 se obtiene que ⎢ ⎥
⎢ M M M M ⎥
también es solución de la combinación lineal de las ecuaciones del SEL: ⎢A p1 + cA s1 A p 2 + cA s 2 L A pn + cA sn Yp + cYs ⎥
⎢ ⎥
(2C1+ C2 +3C3 + 2C4).1 + (-C1 – 3C2 +C3 – C4).(-1) + (2C1 +2C2 +C3 – 4C4).(2) ⎢ M M M M ⎥ = B’ = [A’ | Y’]
= 2C1+ C2 +3C3 + 2C4 +C1 + 3C2 – C3 + C4 + 4C1 +4C2 + 2C3 – 8C4 ⎢ A As2 L A sn Ys ⎥
= (2+1+4)C1+ (1+3+4)C2 + (3–1+2)C3 + (2+1–8)C4 ⎢ s1

⎢ M M M M ⎥
= 7C1+ 8C2 + 4C3 – 5C4 ⎢ ⎥
⎣ A m1 A m2 L A mn Ym ⎦
Definición 3.3.
Se obtiene así el sistema
Sean A, B∈Mmxn(K), X∈Kn e Y, Z∈Km. Se dice que los SEL AX = Y y
BX = Z son equivalentes si cada solución del SEL AX = Y es solución del A’X = Y’ ⇒
SEL BX = Z y viceversa.
⎧ A11X1 + A12 x 2 + ... + A1n X n = Y1
Ejemplo 3.3. ⎪
⎪ M
Los SEL: ⎪(A p1 + cA s1 )X1 + (A p 2 + cA s 2 )X 2 + ... + (A pn + cA sn )X n = Yp + cYs

⎨ M
⎧X1 − 2X 2 + 4X 3 = 22 ⎧ 3X1 + X 2 + X 3 = 8 ⎪ A s1X1 + A s 2 X 2 + ... + A sn X n = Ys
⎪ ⎪ ⎪
⎨ 2X1 − 3X 2 + X 3 = 14 y ⎨X1 − 2X 2 + 2X 3 = 14 ⎪ M
⎪ X −X −X =0 ⎪ X − 2X + X = 10 ⎪
⎩ 1 2 3 ⎩ 1 2 3
⎩ A m1X1 + A m 2 X 2 + ... + A mn X n = Ym

Son equivalentes ya que tienen una única solución común X1 = 2; X2 = -2 y Ahora bien, el SEL AX = Y es:
X3 = 4.

Teorema 3.1. ⎧ A11X1 + A12 x 2 + ... + A1n X n = Y1



⎪ M
Sean A, A’∈Mmxn(K), X∈Kn e Y, Y’∈Km. Si la matriz particionada [A’ | Y’] ⎪ A p1X1 + A p 2 X 2 + ... + A pn X n = Yp
se obtiene de la matriz particionada [A | Y] aplicándole una operación ⎪
elemental de filas entonces los sistemas AX = Y y A’X = Y’ son equivalentes. ⎨ M
⎪ A X + A X + ... + A X = Y
⎪ s1 1 s 2 2 sn n s
Demostración ⎪ M

Supongamos que sobre la matriz [A | Y] se aplica la operación elemental de ⎩A m1X1 + A m 2 X 2 + ... + A mn X n = Ym
filas rp → rp + crs, con c ≠ 0. Luego,
⎡ Z1 ⎤
⎢ ⎥
Z
Supongamos que Z = ⎢ 2 ⎥ es solución del SEL AX = Y. Luego,
⎢ M ⎥
⎢ ⎥
⎢⎣ Z n ⎥⎦

100 101
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

A11Z1 + A12 Z 2 + ... + A1n Z n = Y1 ⎡ Z1 ⎤


M ⎢ ⎥
Z
Es decir, Z = ⎢ 2 ⎥ es solución del SEL AX = Y.
A p1Z1 + A p 2 Z 2 + ... + A pn Z n = Yp ⎢ M ⎥
⎢ ⎥
M ⎢⎣ Z n ⎥⎦
A s1Z1 + A s 2 Z 2 + ... + A sn Z n = Ys
M Por consiguiente los SEL AX = Y y A’X = Y’ son equivalentes.
A m1Z1 + A m 2 Z 2 + ... + A mn Z n = Ym
Supongamos que sobre la matriz [A | Y] se aplica la operación elemental de
filas rp → crp, con c ≠ 0. Luego,
Si multiplicamos a ambos lados de la igualdad por c en la s-ésima ecuación y
luego con la ecuación obtenida sumamos a ambos lados de la igualdad con la
p-ésima ecuación se obtiene que: ⎡ A11 A12 L A1n Y1 ⎤
⎢ ⎥
⎢ M M M M ⎥
A11Z1 + A12 Z 2 + ... + A1n Z n = Y1 ⎢ A p1 A p 2 L A pn Yp ⎥
⎢ ⎥
M [A | Y] = ⎢ M M M M ⎥ ⇒ rp → crp ⇒
(A p1 + cA s1 ) Z1 + (A p 2 + cA s 2 ) Z 2 + ... + (A pn + cA sn ) Z n = Yp + cYs ⎢A A L A sn Ys ⎥
⎢ s1 s2

M ⎢ M M M M ⎥
A s1Z1 + A s 2 Z 2 + ... + A sn Z n = Ys ⎢ ⎥
⎣A m1 A m 2 L A mn Ym ⎦
M
⎡ A11 A12 L A1n Y1 ⎤
A m1Z1 + A m 2 Z 2 + ... + A mn Z n = Ym ⎢ ⎥
⎢ M M M M ⎥
⎢cA p1 cA p 2 L cA pn cYp ⎥
⎡ Z1 ⎤ ⎢ ⎥
⎢ ⎥ ⎢ M M M M ⎥ = B’ = [A’ | Y’]
Z ⎢A
Es decir, Z = ⎢ 2 ⎥ es solución del SEL A’X = Y’. A L A sn Ys ⎥
⎢ M ⎥ ⎢ s1 s2

⎢ ⎥ ⎢ M M M M ⎥
⎢⎣ Z n ⎥⎦ ⎢ ⎥
⎣ A m1 A m 2 L A mn Ym ⎦
⎡ Z1 ⎤
⎢ ⎥ Se obtiene así el sistema
Z
Si partimos de que Z = ⎢ 2 ⎥ es solución del SEL A’X = Y’, luego
⎢ M ⎥
⎢ ⎥ ⎧ A11X1 + A12 x 2 + ... + A1n X n = Y1
⎢⎣ Z n ⎥⎦ ⎪
⎪ M
multiplicamos a ambos lados de la igualdad de la s-ésima ecuación por (-c) y
finalmente con la ecuación obtenida sumamos a ambos lados de la igualdad ⎪cA p1X1 + cA p 2 X 2 + ... + cA pn X n = cYp

con la p-esima ecuación se obtiene que: A’X = Y’ ⇒ ⎨ M
⎪ A X + A X + ... + A X = Y
A11Z1 + A12 Z 2 + ... + A1n Z n = Y1 ⎪ s1 1 s 2 2 sn n s
⎪ M
M ⎪
⎩ A m1X1 + A m 2 X 2 + ... + A mn X n = Ym
A p1Z1 + A p 2 Z 2 + ... + A pn Z n = Yp
M Ahora bien, el SEL AX = Y es:
A s1Z1 + A s 2 Z 2 + ... + A sn Z n = Ys
M
A m1Z1 + A m 2 Z 2 + ... + A mn Z n = Ym

102 103
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎧ A11X1 + A12 x 2 + ... + A1n X n = Y1 A11Z1 + A12 Z 2 + ... + A1n Z n = Y1


⎪ M
⎪ M
⎪ A p1X1 + A p 2 X 2 + ... + A pn X n = Yp A p1Z1 + A p 2 Z 2 + ... + A pn Z n = Yp

⎨ M M
⎪ A X + A X + ... + A X = Y A s1Z1 + A s 2 Z 2 + ... + A sn Z n = Ys
⎪ s1 1 s2 2 sn n s
⎪ M M
⎪ A m1Z1 + A m 2 Z 2 + ... + A mn Z n = Ym
⎩A m1X1 + A m 2 X 2 + ... + A mn X n = Ym

⎡ Z1 ⎤ ⎡ Z1 ⎤
⎢ ⎥ ⎢ ⎥
Z Z
Supongamos que Z = ⎢ 2 ⎥ es solución del SEL AX = Y. Luego, Es decir, Z = ⎢ 2 ⎥ es solución del SEL AX = Y.
⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥
⎣⎢ Z n ⎦⎥ ⎢⎣ Z n ⎥⎦

A11Z1 + A12 Z 2 + ... + A1n Z n = Y1


Por consiguiente los SEL AX = Y y A’X = Y’ son equivalentes.
M
A p1Z1 + A p 2 Z 2 + ... + A pn Z n = Yp Supongamos que sobre la matriz [A | Y] se aplica la operación elemental de
M filas rp ↔ rs. Luego,
A s1Z1 + A s 2 Z 2 + ... + A sn Z n = Ys
⎡ A11 A12 L A1n Y1 ⎤
M ⎢ ⎥
A m1Z1 + A m 2 Z 2 + ... + A mn Z n = Ym ⎢ M M M M ⎥
⎢ A p1 A p2 L A pn Yp ⎥
⎢ ⎥
Si multiplicamos a ambos lados de la igualdad por c en la p-ésima ecuación se [A | Y] = ⎢ M M M M ⎥ ⇒ rp ↔ rs ⇒
obtiene que: ⎢A A s 2 L A sn Ys ⎥
⎢ s1 ⎥
⎢ M M M M ⎥
A11Z1 + A12 Z 2 + ... + A1n Z n = Y1 ⎢ ⎥
⎣A m1 A m 2 L A mn Ym ⎦
M
cA p1Z1 + cA p 2 Z 2 + ... + cA pn Z n = cYp ⎡ A11 A12 L A1n Y1 ⎤
⎢ ⎥
M ⎢ M M M M ⎥
⎢ A s1 A s 2 L A sn Ys ⎥
A s1Z1 + A s 2 Z 2 + ... + A sn Z n = Ys ⎢ ⎥
⎢ M M M M ⎥ = B’ = [A’ | Y’]
M
⎢A A p 2 L A pn Yp ⎥
A m1Z1 + A m 2 Z 2 + ... + A mn Z n = Ym ⎢ p1 ⎥
⎢ M M M M ⎥
⎢ ⎥
⎡ Z1 ⎤ ⎣ A m1 A m 2 L A mn Ym ⎦
⎢ ⎥
Z
Es decir, Z = ⎢ 2 ⎥ es solución del SEL A’X = Y’. Se obtiene así el sistema
⎢ M ⎥
⎢ ⎥
⎢⎣ Z n ⎥⎦ ⎧ A11X1 + A12 x 2 + ... + A1n X n = Y1

⎪ M
⎡ Z1 ⎤ ⎪ A s1X1 + A s 2 X 2 + ... + A sn X n = Ys
⎢ ⎥ ⎪
Z A’X = Y’ ⇒ ⎨
Si partimos de que Z = ⎢ 2 ⎥ es solución del SEL A’X = Y’, luego
M
⎢ M ⎥ ⎪ A X + A X + ... + A X = Y
⎢ ⎥ ⎪ p1 1 p 2 2 pn n p

⎣⎢ Z n ⎦⎥ ⎪ M
multiplicamos a ambos lados de la igualdad de la p-ésima ecuación por c-1 se ⎪
⎩A m1X1 + A m 2 X 2 + ... + A mn X n = Ym
obtiene que:

104 105
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Ahora bien, el SEL AX = Y es: ⎡ Z1 ⎤


⎢ ⎥
Z
⎧ A11X1 + A12 x 2 + ... + A1n X n = Y1 Si partimos de que Z = ⎢ 2 ⎥ es solución del SEL A’X = Y’, luego
⎪ ⎢ M ⎥
⎪ M ⎢ ⎥
⎢⎣ Z n ⎥⎦
⎪ A p1X1 + A p 2 X 2 + ... + A pn X n = Yp
⎪ intercambiamos las ecuaciones p-ésima y s-ésima se obtiene que:
⎨ M
⎪ A X + A X + ... + A X = Y
⎪ s1 1 s 2 2 sn n s A11Z1 + A12 Z 2 + ... + A1n Z n = Y1
⎪ M M

⎩A m1X1 + A m 2 X 2 + ... + A mn X n = Ym A p1Z1 + A p 2 Z 2 + ... + A pn Z n = Yp
M
⎡ Z1 ⎤ A s1Z1 + A s 2 Z 2 + ... + A sn Z n = Ys
⎢ ⎥
Z
Supongamos que Z = ⎢ 2 ⎥ es solución del SEL AX = Y. Luego,
M
⎢ M ⎥ A m1Z1 + A m 2 Z 2 + ... + A mn Z n = Ym
⎢ ⎥
⎢⎣ Z n ⎥⎦
⎡ Z1 ⎤
A11Z1 + A12 Z 2 + ... + A1n Z n = Y1 ⎢ ⎥
Z
Es decir, Z = ⎢ 2 ⎥ es solución del SEL AX = Y.
M ⎢ M ⎥
A p1Z1 + A p 2 Z 2 + ... + A pn Z n = Yp ⎢ ⎥
⎣⎢ Z n ⎦⎥
M
A s1Z1 + A s 2 Z 2 + ... + A sn Z n = Ys Por consiguiente los SEL AX = Y y A’X = Y’ son equivalentes.
M
3.3. ELIMINACIÓN DE GAUSS-JORDAN.
A m1Z1 + A m 2 Z 2 + ... + A mn Z n = Ym
Sean A∈Mmxn(K), X∈Kn e Y∈Km con Rango(A) = r. Si R = [RA | Z] es la
Si intercambiamos las ecuaciones s-ésima y p-ésima se obtiene que: matriz escalonada reducida por filas de [A | Y] entonces por el teorema
anterior los sistemas AX = Y y RAX = Z son equivalentes. El sistema RAX = Z
A11Z1 + A12 Z 2 + ... + A1n Z n = Y1 tiene la forma:
M
A s1Z1 + A s 2 Z 2 + ... + A sn Z n = Ys ⎡1 0 L 0 R1( r +1) L R 1n ⎤ ⎡ X1 ⎤ ⎡ Z1 ⎤
⎢ ⎥⎢ ⎥ ⎢ ⎥
M ⎢0 1 L 0 R 2( r +1) L R 2 n ⎥ ⎢ X 2 ⎥ ⎢ Z 2 ⎥
⎢M M M M M ⎥ ⎢ M ⎥ ⎢ M ⎥
A p1Z1 + A p 2 Z 2 + ... + A pn Z n = Yp ⎢ ⎥⎢ ⎥ ⎢ ⎥
M ⎢0 0 K 1 R r ( r +1) L R rn ⎥ ⎢ X r ⎥ = ⎢ Z r ⎥
A m1Z1 + A m 2 Z 2 + ... + A mn Z n = Ym
⎢0 0 L 0 0 L 0 ⎥ ⎢X r +1 ⎥ ⎢ Z r +1 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢M M M M M ⎥⎢ M ⎥ ⎢ M ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎡ Z1 ⎤ ⎣0 0 L 0 0 L 0 ⎦ ⎣ X n ⎦ ⎣ Zm ⎦
⎢ ⎥
Z
Es decir, Z = ⎢ 2 ⎥ es solución del SEL A’X = Y’. Por lo tanto se reduce a:
⎢ M ⎥
⎢ ⎥
⎣⎢ Z n ⎦⎥

106 107
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎧ n
⎧X1 − 3X 2 + X 3 = −2
⎪ X1 + ∑ R 1 jX j = Z1 ⎪
⎨2X1 + 2X 2 − X 3 = 3
⎪ j= r +1
⎪ n ⎪ X + 2X = 7
⎪X 2 +
⎨ ∑
j= r +1
R 2 jX j = Z 2 ⎩ 1 3

⎪ M
⎪ Utilizando la Eliminación de Gauss-Jordan, determinemos si este SEL es
n
⎪X +
∑ R
⎪ r j= r +1 rj j
X = Zr consistente:

⎡1 − 3 1 − 2⎤ r → r − 2 r ⎡1 − 3 1 − 2⎤ 1
⎡1 − 3 1 −2 ⎤
[A | Y] = ⎢⎢2 ⎥ ⎯⎯ ⎯ ⎯1 → ⎢ ⎥ r2 → 8 r2 ⎢ 7 ⎥
2 2
2 − 1 3⎥ r → r − r ⎢ 0 8 − 3 7 ⎥ ⎯⎯ ⎯ ⎯→ ⎢0 1 −3
Z r +1 = Z r + 2 = ... = Z m = 0 ⎯⎯3
⎯ ⎯→ ⎢
3 1 8 8⎥
⎢1 0 2 7 ⎥⎦ 0 3 1 9 ⎥ ⎢0 3 1 9 ⎥⎦
⎣ ⎣ ⎦ ⎣
Como R = [RA | Z] es escalonada reducida por filas puede ocurrir lo siguiente: ⎡ ⎤ ⎡1 − 3
⎢1 − 3 1 −2 ⎥ 8 1 − 2 ⎤ r →r + 3 r
r3 → r3 ⎢ 7 ⎥ ⎯⎯⎯ ⎯
2 2 3

⎯⎯⎯⎯→⎢0 7 ⎥ ⎯⎯ 8
r3 → r3 −3r2
1 −3 ⎯⎯→⎢0
17
1 −3
1. Zr+1 = 1. Esto contradice la igualdad anterior. Luego, el SEL ⎢ 8 8 ⎥ 8 8 ⎥ r1 →r1 − r3
AX = Y es inconsistente. ⎢0 0 17 51 ⎥ ⎢0 0 1 3 ⎥ ⎯⎯⎯ ⎯→
⎣ 8 8⎦ ⎣ ⎦
2. Zr+1 = 0 ó Zr+1 no existe. En este caso el SEL AX = Y es consistente
y las soluciones se obtienen dando valores arbitrarios a las ⎡1 − 3 0 − 5 ⎤ ⎡1 0 0 1 ⎤
incógnitas Xr+1, Xr+2,…, Xn. Además si r = n entonces el sistema ⎢ ⎥ r1 → r1 +3r2 ⎢ ⎥
⎢ 0 1 0 2 ⎥ ⎯⎯ ⎯ ⎯ → ⎢0 1 0 2⎥ = [R A | Z]
tiene una única solución X1 = Z1, X2 = Z2,… , Xn = Zn y si r < n
⎢0 0 1 3⎦ ⎥ ⎢ ⎥
entonces el sistema tiene infinitas soluciones las cuales son ⎣ ⎣0 0 1 3 ⎦
generadas por exactamente n – r + 1 vectores.
Como se puede observar RA = I3 y Rango(A) = 3. Por lo tanto, Zr+1 = Z3+1 = Z4
Ejemplo 3.4. no existe. En consecuencia, el SEL es consistente y como Rango(A) = 3 = n
entonces tiene una única solución la cual es X1 = Z1 = 1; X2 = Z2 = 2;
Consideremos el SEL: X3 = Z3 = 3.

⎧ X1 + 2X 2 + X 3 = 1 Ejemplo 3.6.

⎨ 2X1 − X 2 + 3X 3 = 2
⎪2 X + 4X + 2 X = 4 Consideremos el SEL:
⎩ 1 2 3

⎧ X1 + 2X 2 + X 3 = 1
Utilizando la Eliminación de Gauss-Jordan, determinemos si este SEL es ⎪
consistente: ⎨ 2X1 − X 2 + 3X 3 = 2
⎪2 X + 4 X + 2 X = 2
⎩ 1 2 3

⎡1 2 1 1⎤ r →r − 2 r ⎡1 2 1 1⎤ r2 →− 1 r2 ⎡1 2 1 1⎤
[A | Y] = ⎢⎢2 ⎥ ⎯⎯ ⎯ ⎯1 → ⎢ ⎥ ⎢
− 1 3 2⎥ r →r − 2r ⎢0 − 5 1 0⎥ ⎯⎯⎯1⎯→ ⎢0 1 − 1 0⎥
⎥ Utilizando la Eliminación de Gauss-Jordan, determinemos si este SEL es
2 2 5

⎯⎯
3
⎯3
⎯1 → ⎢ r3 →− r3 5 consistente:
⎢2 ⎥
4 2 4⎦ ⎥
0 0 2⎦ ⎯⎯⎯⎯→ ⎣0 0
2 ⎢ 0 1⎥⎦
⎣ ⎣0
⎡1 0 7 0⎤ ⎡1 2 1 1⎤ r →r − 2 r ⎡1 2 1 1⎤ ⎡1 2 1 1⎤
⎡1 2 1 0⎤ 1
5 ⎥ ⎢ ⎥ ⎯⎯
[A | Y] = ⎢2 − 1 3 2⎥ r3 →r3 −2r1 ⎢0 − 5 1 0⎥ ⎯⎯⎯⎯→⎢0 1 − 5 0⎥⎥
⎯ ⎯1 → ⎢ ⎥ r2 →− 5 r2 ⎢
2 2
⎢ 1 ⎥ r1 → r1 − 2 r2 ⎢ 1
r1 → r1 − r3
⎯⎯ ⎯⎯→⎢0 1 − 0 ⎯⎯ ⎯⎯→ ⎢0 1 − 1 0⎥ = [R A | Z] ⎯⎯⎯⎯→ ⎢
5 ⎥ ⎢ 5 ⎥ ⎢2 4 2 2⎥⎦ 0 0 0⎥⎦ ⎢0 0 0 0⎥⎦
⎢0 0 0 1⎥⎦ 0 0 0 1⎥ ⎣ ⎣0 ⎣
⎣ ⎣⎢ ⎦
⎡1 0 7 1⎤
⎢ 5 ⎥
Como se puede observar Rango(A) = 2. Por lo tanto, Zr+1 = Z2+1 = Z3 = 1. En ⎯⎯ ⎯⎯→ ⎢0 1 − 1 0⎥ = [R A | Z]
r1 → r1 − 2 r2

consecuencia, el SEL es inconsistente. ⎢ 5 ⎥


⎢⎣0 0 0 0⎥

Ejemplo 3.5.
Como se puede observar Rango(A) = 2. Por lo tanto, Zr+1 = Z2+1 = Z3 = 0. En
Consideremos el SEL: consecuencia, el SEL es consistente. Como Rango(A) = 2 < n = 3 el SEL tiene

108 109
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

infinitas soluciones generadas por exactamente n – r + 1 = 3 – 2 + 1 = 2 ⎡1 − 2 2⎤


3 ⎡1 − 2 3 2⎤
vectores. Dichos vectores se obtienen de la siguiente manera: ⎢ ⎥ ⎢ ⎥ 3 →r3 − 1 r4
⎢0 1 −1 0 2
⎥ r4 → 7 r4 ⎢0 1 − 1 0⎥ ⎯r⎯
⎯⎯ ⎯⎯ → ⎯⎯ 2
⎯→
⎢ ⎥
⎡1 0 7 1⎤ ⎧ 7 ⎧ 7 ⎢0 0 1 12 ⎥ ⎢0 0 1 1 ⎥ ⎯r⎯
1 → r1 − 2 r4
⎯⎯→
5 ⎥ ⎪ X1 + X 3 = 1 ⎪X1 = 1 − X 3 ⎢ 2⎥
⎢ ⎪ ⎪ ⎢0 0 7 ⎥
⎢0 1 − 1 0⎥ ⇒ 5 ⇒⎨ 5 0 2⎦ ⎢⎣0 0 0 1⎥⎦
5 ⎥ ⎨ ⎣
⎢ 1 1
⎪ X − X = 0 ⎪ X = X ⎡1 − 2
⎢⎣0 0 0 0⎥ ⎪ 2 3 ⎪⎩ 2 5 3 3 0⎤ ⎡1 − 2 0 0⎤ ⎡1 0 0 0⎤
⎦ ⎩ 5
⎢ ⎥ r2 →r2 +r3 ⎢ ⎥ ⎢ ⎥
⎢ 0 1 − 1 0 ⎥ ⎯⎯ ⎯ ⎯ → ⎢0 1 0 0⎥ r1 →r1 +2r2 ⎢0 1 0 0⎥
⎢0 0 ⎯⎯ ⎯ ⎯ → = [R A | Z]
Luego, la solución del SEL toma la forma: 1 0⎥ ⎯r⎯ ⎯⎯→ ⎢0 0
1 →r1 −3r3 1 0⎥ ⎢0 0 1 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣0 0 0 1⎥⎦ ⎢⎣0 0 0 1⎥⎦ ⎢⎣0 0 0 1⎥⎦
⎡ 7 ⎤
⎢1 − X 3 ⎥ ⎡− 7 ⎤
⎡ X1 ⎤ ⎢ 5 ⎥ ⎡1⎤ ⎢ 5⎥ Como se puede observar Rango(A) = 3. Por lo tanto, Zr+1 = Z3+1 = Z4 = 1. En
⎢ ⎥ ⎢ 1 ⎥ ⎢ ⎥ 1
⎢X 2 ⎥ = ⎢ 5 X 3 ⎥ = ⎢0⎥ + X 3 ⎢⎢ 5 ⎥⎥; X 3 ∈ ℜ consecuencia, el SEL es inconsistente.
⎢⎣ X 3 ⎥⎦ ⎢ X ⎥ ⎢⎣0⎥⎦ ⎢⎣ 1 ⎥⎦
3 Ejemplo 3.8.
⎢ ⎥
⎣ ⎦
Consideremos el SEL:
⎡1⎤ ⎡− 7 ⎤
⎢ ⎥ ⎢ 5⎥ ⎧ X1 − 2X 2 + 3X 3 + X 4 = 2
Los vectores que generan las soluciones son Z = ⎢0⎥ y Z = ⎢ 1 ⎥ y el
1 2

⎢⎣0⎥⎦ ⎢ 5⎥ ⎨2X1 + X 2 + X 3 − 2X 4 = 4
⎢⎣ 1 ⎥⎦ ⎪ X − 2X + X + X = 1
⎩ 1 2 3 4

{
conjunto de infinitas soluciones del SEL es S = Z ∈ ℜ3 : Z = Z1 + cZ2 ; c ∈ ℜ . }
Utilizando la Eliminación de Gauss-Jordan, determinemos si este SEL es
Ejemplo 3.7. consistente:

Consideremos el SEL: ⎡1 − 2 3 1 2⎤ r → r − 2 r ⎡1 − 2 3 1 2⎤ 1
⎢ ⎥ ⎯⎯
2

2
⎯1 → ⎢ ⎥ r2 → 5 r2
[A | Y] = ⎢2 1 1 − 2 4⎥ r → r − r ⎢ 0 5 − 5 − 4 0⎥ ⎯⎯ ⎯ ⎯→
⎧X1 − 2X 2 + 3X 3 = 2 ⎢1 − 2 1 ⎥ ⎯⎯ ⎯⎯→ ⎢0
3 3 1

⎪ ⎣ 1 1 ⎦ ⎣ 0 − 2 0 − 1 ⎦
⎪ 2X1 + X 2 + X 3 = 4
⎨ ⎡1 − 2
⎪ X1 − 2X 2 + X 3 = 1 ⎡1 − 2 3 1 2⎤ 3 1 2⎤ r → r + r
⎢ ⎥
1
r3 → − r3 ⎢ ⎥ ⎯⎯2
⎯ ⎯→
2 3
⎪ 2X 2 + 3X 3 = 6 1 −1 − 4 0⎥ ⎯⎯⎯⎯→⎢0 −1 − 4 0⎥ r → r − 3r
⎢0 1
2
⎩ 5 5
⎢0 ⎥ ⎢ ⎥ ⎯⎯1
⎯1
⎯3 →
0 − 2 0 − 1 0 0 1 0 1 ⎥
Utilizando la Eliminación de Gauss-Jordan, determinemos si este SEL es
⎣ ⎦ ⎣⎢ 2⎦
consistente: ⎡ ⎤ ⎡1 0 0 − 3 3 ⎤
⎢1 − 2 0 1 1 2⎥ ⎢ 5 2⎥
⎢0 1 0 − 4 1 ⎥ ⎯⎯ ⎯⎯→⎢0 1 0 − 4 1 ⎥ = [R A | Z]
r1 → r1 + 2 r2
⎡1 − 2 3 2⎤ ⎡1 − 2 3 2⎤ ⎡1 − 2 3 2⎤ ⎢ 5 2⎥ ⎢ 5 2⎥
⎢ ⎥ r2 →r2 −2r1 ⎢ ⎥ 1 ⎢ ⎥ ⎢0 0 1 0 1 ⎥ ⎢0 0 1 0 1 ⎥
2 1 1 4 ⎯⎯ ⎯ ⎯ → 0 5 − 5 0 0 1 − 1 0⎥ ⎣ 2 ⎦ 2⎦
[A | Y] = ⎢⎢ ⎥ ⎢ ⎥ ⎯⎯⎯ ⎯→⎢⎢ ⎣
r2 → r2
5
⎥ r3 →r3 −r1
1 − 2 1 1 ⎯⎯⎯⎯→ 0 0 − 2 − 1 ⎢ ⎥ 0 0 − 2 − 1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣0 2 3 6⎥⎦ ⎢⎣0 2 3 6⎥⎦ ⎢⎣0 2 3 6⎥⎦ Como se puede observar Rango(A) = 3. Por lo tanto, Zr+1 = Z3+1 = Z4. Como Z4
no existe entonces el SEL es consistente. Como Rango(A) = 3 < n = 4 el SEL
⎡1 − 2 3 2⎤ ⎡1 − 2 3 2⎤ tiene infinitas soluciones generadas por exactamente n – r + 1 = 4 – 3 + 1 = 2
⎢ ⎥ 1 ⎢ ⎥ vectores. Dichos vectores se obtienen de la siguiente manera:
0 1 − 1 0 0 1 − 1 0⎥ r4 →r4 −5 r3
⎯ ⎯→ ⎢⎢ ⎥ ⎯⎯ ⎯2⎯→⎢
r3 → − r3
4 → r4 − 2 r2
⎯r⎯ ⎥ ⎢ ⎯⎯⎯⎯→
0 0 − 2 −1 0 0 11 ⎥
⎢ ⎥ ⎢ 2⎥ ⎡1 0 0 − 3 3 ⎤ ⎧ X − 3 X = 3 ⎧ X1 = 3 + 3 X 4
⎢⎣0 0 5 6⎥⎦ ⎢⎣0 0 5 6⎥⎦ ⎢ 5 2⎥ ⎪ 1 5 4 2 ⎪ 2 5
⎢0 1 0 − 4 1 ⎥ ⇒ ⎪⎨X 2 − 4 X 4 = 1 ⇒ ⎪⎨X 2 = 1 + 4 X 4
⎢ 5 2⎥ 5 2 2 5
⎢0 0 1 0 1 ⎥ ⎪⎪ X3 = 1

X3 = 1
⎣ 2⎦ ⎩ 2 ⎩⎪ 2

110 111
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Luego, la solución del SEL toma la forma: Supongamos que X1∈Mnx1(K) es también solución del SEL homogéneo
AX = θnx1. Luego se cumple que:
⎡ X1 ⎤ ⎡ 3 2 + 3 5 X 4 ⎤ ⎡ 3 2 ⎤ ⎡3 ⎤
⎢ ⎥ ⎢1 4
⎥ ⎢ ⎥
1
⎢ 5⎥ AX1 = θnx1
X ⎢ ⎥ ⎢ ⎥
⎢ 2 ⎥ = 2 + 5 X 4 = 2 + X ⎢ 4 5 ⎥; X ∈ ℜ ⇒ A-1AX1 = A-1θnx1
⎢X3 ⎥ ⎢ ⎥ ⎢ ⎥ 4⎢ ⎥ 4
⎢ ⎥ ⎢
1
2 ⎥ ⎢ 1 2⎥ ⎢0⎥ ⇒ X1 = θnx1
⎣⎢X 4 ⎦⎥ ⎢⎣ X4 ⎥ ⎢0⎥
⎦ ⎣ ⎦
⎢1 ⎥
⎣ ⎦
La cual es la solución trivial. Por tanto el SEL homogéneo AX = θnx1 tiene una
única solución.
⎡3 ⎤ ⎡3 ⎤
⎢ 2⎥ ⎢ 5⎥ CS(⇐): Si el SEL homogéneo AX = θnx1 tiene una única solución entonces A
1
⎢ ⎥ ⎢4 ⎥
Los vectores que generan las soluciones son Z1 = ⎢ 2 ⎥ y Z2 = ⎢ 5 ⎥ y el es no singular.
1
⎢ 2⎥ ⎢0⎥
⎢0⎥ ⎢1 ⎥ Si el SEL homogéneo AX = θnx1 tiene una única solución entonces
⎣ ⎦ ⎣ ⎦
Rango(A) = n. Por consiguiente A es no singular.
{
conjunto de infinitas soluciones del SEL es S = Z ∈ ℜ : Z = Z + cZ ; c ∈ ℜ .
4 1 2
}
Teorema 3.4.
Teorema 3.2. (Teorema de Rouché-Frobenius)
Sean A∈Mnxn(K), X∈Kn e Y∈Km. Si A es no singular entonces el SEL
n m
Sean A∈Mmxn(K), X∈K e Y∈K . El SEL AX = Y es consistente si y sólo si AX = Y tiene una única solución y ésta es X = A-1Y.
Rango(A) = Rango([A | Y]).
Demostración
Demostración
Si A es no singular entonces Rango(A) = n. Por lo tanto, el SEL es consistente
CN (⇒): Si el SEL AX = Y es consistente entonces y tiene además una única solución. Esta solución es:
Rango(A) = Rango([A | Y]).
AX = Y
Sea R = [RA | Z] la matriz escalonada reducida por filas de [A | Y] y ⇒ A-1AX = A-1Y
supongamos que Rango(A) = r. Si el SEL AX = Y es consistente entonces ⇒ X = A-1Y
Zr+1 = 0 en cuyo caso el número de filas no nulas de R es igual a r, es decir,
Rango([A | Y]) = r = Rango(A). Ejemplo 3.9.

CS (⇐): Si Rango(A) = Rango([A | Y]) entonces el SEL AX = Y es En el ejemplo 3.5., se puede verificar que la matriz de coeficientes A es no
consistente. singular y su matriz inversa es:

Si Rango(A) = Rango([A | Y]) entonces Zr+1 = 0. Por lo tanto el SEL AX = Y ⎡ 4 6 1 ⎤


es consistente. ⎢ 17 17 17⎥
A = ⎢− 5
−1 1 3 ⎥
⎢ 17 17 17⎥
Teorema 3.3. ⎢− 2 17 − 317 8 ⎥
⎣ 17⎦
Sean A∈Mnxn(K) y X∈Kn. A es no singular si y sólo si el SEL homogéneo
AX = θnx1 tiene una única solución (la solución trivial). Luego, el SEL es consistente con una única solución y dicha solución es:

Demostración ⎡ 4 6 1 ⎤ 2
⎢ 17 17 17⎥ ⎡− ⎤ ⎡1 ⎤
X = A −1Y = ⎢ − 5 1 3 ⎥ ⎢ 3⎥ = ⎢2⎥
CN(⇒): Si A es no singular entonces el SEL homogéneo AX = θnx1 tiene una ⎢ 17 17 17⎥ ⎢ ⎥ ⎢ ⎥
única solución. ⎢⎣ − 2 17 − 317 8 ⎥ ⎢⎣ 7 ⎥⎦ ⎢⎣3⎥⎦
17⎦
El SEL AX = θnx1 es consistente. La solución trivial X = θnx1 es solución de
este sistema. Veamos que esta solución es única.

112 113
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

3.4. USO DE LA FACTORIZACIÓN LU PARA RESOLVER UN ⎡ n n n



SISTEMA DE ECUACIONES LINEALES. ∑
⎢ A1r B r1 ∑A 1r Br 2 L ∑A B rn ⎥
1r
⎢ r =1 r =1 r =1 ⎥
⎢ n n n

Sean A∈Mnxn(K), X∈Mnx1(K) e Y∈Mmx1(K). Supongamos que A es no
singular. En ese caso existen matrices únicas L∈Mnxn(K) triangular inferior con

In = ⎢ A 2 r B r1 ∑A 2r Br 2 L ∑
A 2 r B rn ⎥
⎢ r =2 r =2 r =2 ⎥
unos en la diagonal principal y U∈Mnxn(K) triangular superior tales que ⎢ M M M ⎥
A = LU. Luego el SEL AX = Y se puede escribir de la forma LUX = Y. Como ⎢ 0 0 L 0 ⎥
⎣ ⎦
L y U son matrices no singulares entonces la única solución del SEL
consistente AX = Y es X = U-1L-1Y.
Lo cual es una contradicción.
Igualmente si existe una matriz de permutación P∈Mnxn(K) tal que PA = LU,
De forma análoga se demuestra si A es triangular inferior.
siendo L∈Mnxn(K) una matriz triangular inferior con unos en la diagonal
principal y U∈Mnxn(K) una matriz triangular superior, entonces el SEL
CS (⇐): Sea A∈Mnxn(K) tal que A es una matriz triangular. Si ∀ i = 1, 2,… , n
AX = Y se puede escribir de la forma PAX = PY, es decir, LUX = PY. Como
se cumple que Aii ≠ 0 entonces A es no singular.
L y U son matrices no singulares entonces la única solución del SEL
consistente AX = Y es X = U-1L-1PY.
Sea R la matriz escalonada reducida por filas de A. Si A es triangular y ∀ i = 1,
2,… , n se cumple que Aii ≠ 0 entonces R = In. Por consiguiente, A es no
3.5. ELIMINACIÓN DE GAUSS.
singular.
Teorema 3.5.
Observación:
Sea A∈Mnxn(K) tal que A es una matriz triangular. A es no singular si y sólo si
Sean A∈Mnxn(K), X∈Kn e Y∈Kn tales que A es triangular superior y no
∀ i = 1, 2,… , n se cumple que Aii ≠ 0.
singular. Consideremos el SEL AX = Y, es decir:
Demostración
⎡A11 A12 L A1n ⎤ ⎡ X1 ⎤ ⎡ Y1 ⎤
CN (⇒): Sea A∈Mnxn(K) tal que A es una matriz triangular. Si A es no ⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ 0 A 22 L A 2 n ⎥ ⎢ X 2 ⎥ = ⎢ Y2 ⎥
singular entonces ∀ i = 1, 2,… , n se cumple que Aii ≠ 0. ⎢ M M ⎥⎢ M ⎥ ⎢ M ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
Utilicemos el método de reducción al absurdo. Supongamos que A es ⎣⎢ 0 0 L A nn ⎦⎥ ⎣⎢X n ⎦⎥ ⎣⎢Yn ⎦⎥
triangular y no singular y que ∃ i = 1, 2,… , n tal que Aii = 0. Supongamos
que A es triangular superior y sin pérdida de generalidad que para i = n se Luego,
cumple que Aii = 0. Luego A tiene la última fila nula. Sea B∈Mnxn(K) la matriz
inversa de A. En ese caso se cumple que AB = BA = In. Pero, ⎧ A11X1 + A12 X 2 + ... + A1n X n = Y1

⎪ A 22 X 2 + ... + A 2 n X n = Y2
⎡A11 A12 L A1n ⎤ ⎡ B11 B12 L B1n ⎤ ⎨
⎢ ⎥ ⎢ ⎥ ⎪ M
0 A 22 L A 2 n ⎥ ⎢B21 B22 L B2 n ⎥ ⎪
AB = ⎢ ⎩ A nn X n = Yn
⎢ M M M ⎥ ⎢ M M M ⎥
⎢ ⎥ ⎢ ⎥
⎣⎢ 0 0 L 0 ⎦⎥ ⎣⎢Bn1 Bn 2 L Bnn ⎥⎦ Por lo tanto,
⎡ n n n


⎢ A1r B r1 ∑A 1r Br 2 L ∑A B rn ⎥
1r
Xn =
Yn
⎢ r =1 r =1 r =1 ⎥ A nn
⎢ n n n


= ⎢ A 2 r B r1 ∑A 2r Br 2 L ∑A 2 r B rn ⎥
⎢ r =2 r =2 r =2 ⎥ Haciendo sustitución hacia atrás se despejan las restantes incógnitas:
⎢ M M M ⎥
⎢ 0 0 L 0 ⎥
⎣ ⎦ Yn −1 − A ( n −1) n X n
X n −1 =
A ( n −1)( n −1)
Es decir:
En general,

114 115
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

n
⎡ ⎤
Yi − ∑A X ij j ⎢1 − 3 1 −2 ⎥ 8
⎡1 − 3

1 −2 ⎤
7 ⎥ = [C | Z]
r3 → r3
Xi =
j=i +1
; i = n-1, n-2,… , 1 ⎯⎯ ⎯⎯→ ⎢0
r3 → r3 −3r2
1 −3 7 ⎥ ⎯⎯ ⎯⎯→ ⎢0
17
1 −3
A ii ⎢ 8 8 ⎥ 8 8⎥
⎢0 17 51 ⎥ ⎢0 0 1 3 ⎥⎦
0 ⎣
⎣ 8 8⎦
De forma análoga se despejan las incógnitas cuando A es triangular inferior.
Como se puede observar Rango(C) = 3. Por lo tanto, Zr+1 = Z3+1 = Z4 no existe.
Definición 3.4. En consecuencia, el SEL CX = Z es consistente y al ser equivalente al SEL
AX = Y, éste último también es consistente. Haciendo sustitución hacia atrás
Sea C∈Mnxn(K). Se dice que C es una matriz escalonada por filas si se se obtienen las incógnitas:
verifican las siguientes condiciones:
⎡1 − 3 1 − 2 ⎤ ⎧X1 − 3X 2 + X 3 = −2 ⎧X1 − 3X 2 + X 3 = −2
1. ∃ r∈ℵ, 1 ≤ r ≤ n, tal que las primeras r filas de C son no nulas y ⎢ 3 7 ⎥ ⇒ ⎪⎨ X − 3 X = 7 ⇒ ⎪⎨ X − 3 (3) = 7
⎢ 0 1 −
las restantes n – r filas son nulas. 8 8⎥ 2 8 3 8 2 8 8
2. Si el pivote de la i-ésima fila de C pertenece a la columna si, ⎢0
⎣ 0 1 3 ⎥⎦ ⎪⎩ X3 = 3 ⎪
⎩ X3 = 3
i = 1, 2,… , p entonces s1 < s2 < … < sp.
3. Todos los elementos de la columna si, i = 1, 2,… , p ⎧X1 − 3X 2 + X 3 = −2 ⎧X1 − 3X 2 + X 3 = −2 ⎧X1 − 3X 2 + X 3 = −2
⎪ ⎪ ⎪
correspondientes a las filas i+1, i+2,… , n son nulos. ⎨ X2 − 9 8 = 7 8 ⇒ ⎨ X2 = 9 8 + 7 8 ⇒ ⎨ X2 = 2
⎪ X = 3 ⎪ X = 3 ⎪ X3 = 3
Observaciones: ⎩ 3 ⎩ 3 ⎩
⎧X1 − 3(2) + 3 = −2 ⎧X1 − 6 + 3 = −2 ⎧X1 = 6 − 3 − 2 ⎧ X1 = 1
1. Una matriz escalonada por filas es una matriz triangular superior. ⎪ ⎪ ⎪ ⎪
⇒⎨ X2 = 2 ⇒⎨ X2 = 2 ⇒ ⎨ X 2 = 2 ⇒ ⎨X 2 = 2
2. Sea A∈Mnxn(K). Entonces A siempre es equivalente por filas a una ⎪ ⎪ ⎪ X =3 ⎪X = 3
matriz escalonada por filas C∈Mnxn(K). Además Rango(A) = r si y ⎩ X3 = 3 ⎩ X3 = 3 ⎩ 3 ⎩ 3
sólo si la matriz C tiene r filas no nulas.
3. Sea A∈Mnxn(K), X∈Mnx1(K) e Y∈Mnx1(K). La matriz aumentada 3.6. REGLA DE CRAMER.
[A | Y] es equivalente por filas a una matriz particionada [C | Z].
Por consiguiente, los SEL AX = Y y CX = Z son equivalentes. Teorema 3.6. (Regla de Gabriel Cramer)

Ejemplo 3.10. Sean A∈Mnxn(K), X∈Kn e Y∈Kn tales que A es no singular y por consiguiente
el SEL AX = Y es consistente con una única solución. Entonces dicha
Utilizando la Eliminación de Gauss, determinemos si el SEL del ejemplo 3.4., Det (D(A) j )
es consistente: solución es X = [X1 X2 … Xn]t, siendo X j = ; ∀ j = 1, 2,... , n ,
Det (A)
⎡1
donde D(A)j es la matriz D(A)j∈Mnxn(K) que se obtiene sustituyendo la j-ésima
2 1 1⎤ r →r −2r ⎡1 2 1 1⎤ r2 →− 1 r2 ⎡1 2 1 1⎤
columna de A por la matriz columna Y.
[A | Y] = ⎢⎢2 ⎥ ⎯⎯ ⎯ ⎯1 → ⎢ ⎥ ⎢ ⎥
− 1 3 2⎥ r →r −2r ⎢0 − 5 1 0⎥ ⎯⎯⎯1⎯→ ⎢0 1 − 1 0⎥ = [C | Z]
2 2 5

⎯⎯3

3
⎯1
→ r3 →− r3 5
⎢2 4 2 4⎥⎦ ⎢0 0 0 2⎥⎦ ⎯⎯⎯⎯→ ⎢⎣0 0
2
0 1⎥⎦ Demostración
⎣ ⎣

Como se puede observar Rango(C) = 2. Por lo tanto, Zr+1 = Z2+1 = Z3 = 1. En La solución única del sistema AX = Y es X = A-1Y. En consecuencia:
consecuencia, el SEL CX = Z es inconsistente y al ser equivalente al SEL
AX = Y, éste último también es inconsistente. 1
X= Adj(A)Y
Det (A)
Ejemplo 3.11.
Ahora bien,
Utilizando la Eliminación de Gauss, determinemos si el SEL del ejemplo 3.5.,
es consistente:
⎡ A(1 1) A(2 1) L A(n 1) ⎤ ⎡ Y1 ⎤
⎢ ⎥⎢ ⎥
A(1 2) A(2 2) L A(n 2) ⎥ ⎢ Y2 ⎥
⎡1 − 3 1 − 2⎤ r →r −2r ⎡1 − 3 1 − 2⎤ ⎡1 − 3 1 −2 ⎤ Adj(A)Y = ⎢⎢
M ⎥⎢ M ⎥
1
⎢ ⎥ ⎯⎯ ⎯⎯1→⎢ ⎥ r2→8 r2 ⎢ 7 ⎥
[A| Y] = ⎢2 2 −1 3⎥ r3→r3−r1 ⎢0 8 −3 7⎥ ⎯⎯⎯
2 2
3 M M
⎯→⎢0 1 − ⎢ ⎥⎢ ⎥
⎯⎯ ⎯⎯ → 8 8⎥
⎢1 0 2 7⎥ ⎢0 3 1 9⎥ ⎢0 3 1 9 ⎥⎦ ⎣⎢A(1 n ) A(2 n ) L A(n n )⎦⎥ ⎣⎢Yn ⎦⎥
⎣ ⎦ ⎣ ⎦ ⎣

116 117
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ A(1 1)Y1 + A(2 1)Y2 + ... + A(n 1)Yn ⎤ ⎡ Det (D(A)1 ) ⎤


⎢ ⎥ ⎢ ⎥
A(1 2)Y1 + A(2 2)Y2 + ... + A(n 2)Yn ⎥ ⎡ Det (D(A)1 ) ⎤ ⎢ Det (A) ⎥
⇒ Adj(A)Y = ⎢⎢ ⎥ ⎢ ⎥ ⎢ Det (D(A) 2 ) ⎥
M 1 1 ⎢ Det (D(A) 2 ) ⎥
⎢ ⎥ X= Adj(A)Y = =⎢ ⎥
+ + + Det (A) Det (A) ⎢ M ⎥ ⎢ Det (A) ⎥
⎣⎢ A (1 n ) Y1 A ( 2 n ) Y2 ... A ( n n ) Y ⎥
n⎦ ⎢ ⎥ ⎢ M
⎢⎣Det (D(A) n )⎥⎦ Det (D(A) n ) ⎥
⎢ ⎥
Consideremos ahora la matriz D(A)j, es decir: ⎣⎢ Det (A) ⎦⎥

⎡ A11 L Y1 L A1n ⎤ Es decir,


⎢ ⎥
A L Y2 L A 2 n ⎥
D(A) j = ⎢ 21 Det (D(A) j )
⎢ M M M ⎥ X = [X1 X2 … Xn]t, siendo X j = ; ∀ j = 1, 2,... , n
⎢ ⎥ Det (A)
⎣⎢A n1 L Yn L A nn ⎦⎥
Ejemplo 3.12.
Por definición:
Consideremos el SEL del ejemplo 3.5.:
n
Det(D(A)j) = ∑ (−1)
i =1
i+ t
(D(A) j ) it Det (M(D(A) j )i , t )
⎧X1 − 3X 2 + X 3 = −2

⎨2X1 + 2X 2 − X 3 = 3
Sea t = j. Luego, ⎪ X + 2X = 7
⎩ 1 3

n
Det(D(A)j) = ∑ (−1)
i =1
i+ j
(D(A) j ) ij Det (M (D(A) j )i , j ) Este SEL es consistente con una única solución. Utilizando la Regla de Cramer
determinemos la solución de dicho sistema:
Det(D(A)j) = (-1)1+j(D(A)j)1jDet(M(D(A)j)1,j)+
+…+(-1)n+j(D(A)j)njDet(M(D(A)j)n,j) ⎡1 −3 1⎤ ⎡ −2 ⎤
= (-1)1+jY1Det(M(D(A)j)1,j)+…+(-1)n+jYnDet(M(D(A)j)n,j) ⎢ ⎥ ⎢ ⎥
A = ⎢2 2 − 1 ⎥ ; Y = ⎢ 3⎥
= Y1(-1)1+jDet(M(D(A)j)1,j)+…+ Yn(-1)n+jDet(M(D(A)j)n,j)
⎢⎣1 0 2⎥⎦ ⎢⎣ 7⎥⎦
Pero Det(M(D(A)j)i,j) = Det(M(A)i,j) ∀ i = 1, 2,… , n.
⎡ −2 −3 1⎤ ⎡1 −2 1⎤ ⎡1 −3 −2 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Luego, D(A)1 = ⎢ 3 2 − 1 ⎥ ; D( A ) 2 = ⎢ 2 3 − 1 ⎥ ; D( A ) 3 = ⎢ 2 2 3⎥
⎢⎣ 7 0 2⎥⎦ ⎢⎣1 7 2⎥⎦ ⎢⎣1 0 7 ⎥⎦
Det(D(A)j) = Y1(-1)1+jDet(M(A)1,j)+…+ Yn(-1)n+jDet(M(A)n,j)
= Y1A(1|j) +… + YnA(n|j)
Se puede verificar fácilmente que:
= A(1|j)Y1 +… + A(n|j)Yn
Det(A) = 17, Det(D(A)1) = 17, Det(D(A)2) = 34 y Det(D(A)3) = 51
Por consiguiente,
Luego,
⎡ A(1 1)Y1 + A(2 1)Y2 + ... + A(n 1)Yn ⎤ ⎡ Det (D(A)1 ) ⎤
⎢ ⎥ ⎢ ⎥
A(1 2)Y1 + A(2 2)Y2 + ... + A(n 2)Yn ⎥ ⎢ Det (D(A) 2 ) ⎥ Det (D(A)1 ) 17 Det (D(A) 2 ) 34
Adj(A)Y = ⎢⎢ =
⎥ ⎢
X1 = = = 1 ; X2 = = =2;
M M ⎥ Det (A) 17 Det (A) 17
⎢ ⎥ ⎢ ⎥
⎢⎣A(1 n )Y1 + A(2 n )Y2 + ... + A(n n )Yn ⎥⎦ ⎣⎢Det (D(A) n )⎦⎥ Det (D(A) 3 ) 51
X3 = = =3
Det (A) 17
En consecuencia,

118 119
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

3.7. APLICACIÓN DE LOS SISTEMAS DE ECUACIONES LINEALES Como se puede observar Rango(C) = 3. Por lo tanto, Zr+1 = Z3+1 = Z4 no existe.
PARA LA RESOLUCIÓN DE PROBLEMAS. En consecuencia, el SEL CX = Z es consistente y al ser equivalente al SEL
AX = Y, éste último también es consistente. Esto prueba que el registro del
Ejemplo 3.13. viajero esta correcto. Haciendo sustitución hacia atrás se obtienen las
incógnitas:
Un viajero recién llegado de Europa gastó en alojamiento por día $30 en
Inglaterra, $20 en Francia y $20 en España. En comida, por día gastó $20 en ⎡1 2 2 34 ⎤ ⎧X1 + 2 X 2 + 2 X3 = 34 ⎧X + 2 X 2 + 2 X3 = 34
Inglaterra, $30 en Francia y $20 en España. Adicionalmente desembolsó $10 ⎢ 3 3 3⎥ ⎪ 3 3 3 ⎪ 1 3 3 3
⎢0 1 28 ⎥⇒ ⎪ 28 ⎪
por día en cada país por gastos varios. El registro del viajero indica que gastó 2 2
X 2 + X3 = ⇒⎨ X2 = 28 − 2 X3
⎢ 5 5⎥ ⎨ 5 5 5 5
un total de $340 en alojamiento, $320 en comida y $140 en gastos varios en su
⎢0 0 1 4 ⎥ ⎪ X3 = 4 ⎪ X3 = 4
recorrido por estos 3 países. Determine si el registro esta correcto y en caso ⎣ ⎦ ⎪⎩ ⎪⎩
afirmativo determine el número de días que el viajero permaneció en cada país. ⎧X1 + 2 X2 + 2 X3 = 34 ⎧ 2 2 34 ⎧ 2 2 34
3 3 3 ⎪X1 + 3 X2 + 3 X3 = 3 ⎪X1 + 3 (4) + 3 (4) = 3
Definamos las incógnitas: ⎪⎪ 28 2 ⎪ ⎪
⇒ ⎨ X2 = − (4) ⇒⎨ X2 = 4 ⇒⎨ X2 = 4
5 5
⎪ X3 = 4 ⎪ X3 = 4 ⎪ X3 = 4
⎪ ⎪
X1: Número de días que pasó el viajero en Inglaterra. ⎩⎪ ⎩ ⎩
X2: Número de días que pasó el viajero en Francia. ⎧X1 = 34 − 8 − 8 X =6
X3: Número de días que pasó el viajero en España. ⎪⎪ 3 3 3 ⎧⎪ 1
⇒⎨ X2 = 4 ⇒ ⎨X 2 = 4
Los datos del problema se pueden reducir en el siguiente cuadro: ⎪ X3 = 4 ⎪X = 4
⎪⎩ ⎩ 3
Gasto/País Inglaterra Francia España Total
Alojamiento 30 20 20 340 El viajero permaneció 6 días en Inglaterra, 4 días en Francia y 4 días en
Comida 20 30 20 320 España.
Varios 10 10 10 140
3.8. MODELO DE INSUMO-PRODUCTO DE LEONTIEF.
De allí se pueden extraer las siguientes ecuaciones:
Supongamos un sistema económico que tiene n industrias. Existen 2 tipos de
30X1 + 20X2 + 20X3 = 340 demandas en cada industria: Primero, una demanda externa desde afuera del
20X1 + 30X2 + 20X3 = 320 sistema y segundo, la demanda que hace una industria a otra industria en el
10X1 + 10X2 + 10X3 = 140 mismo sistema. Supongamos que Ei representa la demanda externa ejercida
sobre la i-ésima industria. Supongamos que Aij representa la demanda interna
Dando lugar al siguiente SEL: que la j-ésima industria ejerce sobre la i-ésima industria, es decir, Aij
representa el número de unidades de producción de la i-ésima industria que se
necesitan para producir una unidad de la j-esima industria. Sea Xi la
⎧30X1 + 20X 2 + 20X 3 = 340 producción de la i-ésima industria. Supongamos ahora que la producción de

⎨20X1 + 30X 2 + 20X 3 = 320 cada industria es igual a su demanda. La demanda total es igual a la suma de
⎪ 10X + 10X + 10X = 140 las demandas internas y externas. Igualando la demanda total a la producción
⎩ 1 2 3
de cada industria se obtiene el siguiente SEL:
Como la matriz de coeficientes es cuadrada (3x3) apliquemos eliminación de
Gauss: ⎧ A11X1 + A12 X 2 + ... + A1n X n + E1 = X1

⎪ A 21X1 + A 22 X 2 + ... + A 2 n X n + E 2 = X 2

⎡30 20 20 340⎤ ⎡ 1 2 2 34 ⎤ ⎡1 2 2 34 ⎤ ⎪ M
⎥ r1 →30 r1 ⎢
1 3 3 3⎥ ⎯r⎯ 2 →r2 −20r1 ⎢ 3 3 3⎥
⎢ ⎯⎯ ⎯→⎢ 50 20 280 ⎥ ⎪A n1X1 + A n 2 X 2 + ... + A nn X n + E n = X n
[A | Y] = ⎢20 30 20 320⎥ ⎯⎯⎯ ⎯→⎢20 30 20 320⎥ r →r −10r 0
3 3 3⎥

⎢10 10 10 140⎥ ⎢ ⎥ ⎯⎯
3
⎯3
⎯1 → ⎢

⎣ ⎦ ⎢⎣10 10 10 140⎥⎦ ⎢0 10 10 80 ⎥
⎣ 3 3 3⎦ Dicho sistema se puede escribir también de la siguiente forma:
⎡1 2 2 34 ⎤ ⎡1 2 2 34 ⎤ ⎡1 2 2 34 ⎤
⎢3 3 3 3⎥ r →r −10r ⎢ 3 3 3 ⎥ r →1 r ⎢ 3 3 3⎥
r2 → r2

⎯⎯⎯⎯→ 0 1
50 2 28 ⎥ 3 3
⎯⎯⎯⎯ 3
2

⎯→ 0 1 2 28 ⎥ 3
⎯⎯⎯⎯→⎢0 1 2 28 ⎥
2
3 ⎧ (1 − A11 )X1 − A12 X 2 − ... − A1n X n = E1
⎢ 5 5⎥ ⎢ 5 5⎥ ⎢ 5 5⎥ ⎪
⎢0 10 10 80 ⎥ ⎢0 0 2 8 ⎥ ⎢0 0 1 4 ⎥ ⎪ − A 21X1 + (1 − A 22 )X 2 − ... − A 2 n X n = E 2
⎣ 3 3 3⎦ ⎣ ⎦ ⎣ ⎦ ⎨
⎪ M
⎪− A n1X1 − A n 2 X 2 − ... + (1 − A nn )X n = E n

120 121
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

La solución del sistema indica la producción de cada industria. EJERCICIOS PROPUESTOS.

Este modelo recibe el nombre de modelo de insumo-producto de Leontief en 1. Determine si los siguientes sistemas de ecuaciones lineales son
honor a su autor Wassily W. Leontief. consistentes. En caso afirmativo determine su solución o su conjunto de
todas las soluciones:
Ejemplo 3.14.
⎧3X1 + 2X 2 + X 4 = 0
Las demandas externas de un sistema económico con 3 industrias son 10, 25 y ⎪
20, respectivamente. Se sabe que se requieren 0,2 unidades de la primera 1.1. ⎨X1 + 2X 2 + X 3 = 1
industria para producir una unidad de dicha industria, mientras que se ⎪5X + 6X + 2X + X = 2
⎩ 1 2 3 4
requieren 0,4 unidades de la segunda industria y 0,25 unidades de la tercera
industria para producir una unidad de la primera industria. También se conoce ⎧2X1 − X 2 + 2X 3 = 1

que se requieren 0,1 unidades de la segunda industria para producir una unidad 1.2. ⎨X1 + X 2 + X 3 = 2
de dicha industria, mientras que se requieren 0,5 unidades de la primera ⎪2 X − X + X = 5
⎩ 1 2 3
industria y 0,5 unidades de la tercera industria para producir una unidad de la
segunda industria. Por último se sabe que se necesitan 0,15 unidades de la ⎧2X1 − 3X 2 + X 3 = 0
tercera industria para producir una unidad de dicha industria, mientras que se ⎪
⎪X1 + X 2 − X 3 = 0
requieren 0,15 unidades de la primera industria y 0,3 unidades de la segunda 1.3. ⎨
industria para producir una unidad de la tercera industria. Determinemos la ⎪3X1 + 4X 2 = 0
producción de cada industria de manera que la oferta sea exactamente igual a ⎪5X1 + X 2 + X 3 = 0

la demanda.
⎧X1 + X 2 − 3X 3 = −1

En este caso, n = 3, A11 = 0,2, A21 = 0,4, A31 = 0,25, A22 = 0,1, A12 = 0,5, A32 = ⎪2X1 + X 2 − 2X 3 = 1
0,5, A33 = 0,15, A13 = 0,15, A23 = 0,3. Luego, 1 – A11 = 0,8, 1 – A22 = 0,9 y 1.4. ⎨
1 – A33 = 0,85. Luego, el SEL del modelo es: ⎪X1 + X 2 + X 3 = 3
⎪X1 + 2X 2 − 3X 3 = 1

⎧ 0,8X1 − 0,5X 2 − 0,15X 3 = 10
⎪ 2. Discutir el sistema según los valores de k.
⎨ − 0,4X1 + 0,9X 2 − 0,3X 3 = 25
⎪− 0,25X − 0,5X + 0,85X = 20
⎩ 1 2 3 ⎧
⎪2X1 + kX 2 − kX 3 = 2k

Se resuelve el SEL y la solución es X1 = 110,30, X2 = 118,74 y X3 = 125,82. 2.1. ⎨2kX1 + X 2 − 2X 3 = − k
En consecuencia, la producción necesaria para que la oferta sea ⎪ 15
aproximadamente igual a la demanda es X1 = 110, X2 = 119 y X3 = 126. ⎪X1 + 3kX 2 + 2kX 3 = 16k +
⎩ 2

⎪2X1 + kX 2 + X 3 = 2k

2.2. ⎨kX1 + X 2 + 3kX 3 = 4
⎪ 11
⎪X1 + X 3 = k
⎩ 2
⎧X1 + 2X 2 − 3X 3 = 4

2.3. ⎨3X1 − X 2 + 5X 3 = 2
⎪4X + X + (k 2 − 14)X = k + 2
⎩ 1 2 3

⎧2X1 − kX 2 + X 3 = −2k + 5

2.4. ⎨X1 + X 2 − kX 3 = 1
⎪4X + X − kX = k
⎩ 1 2 3

3. Determine los valores de k para que el siguiente sistema de ecuaciones


lineales homogéneo tenga soluciones distintas de la solución trivial:

122 123
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎧X1 + (k + 1)X 2 + X 3 = 0 ⎧2X1 + 2X 2 + X 3 = 7


⎪ ⎪
⎨X1 + X 2 + (k + 1)X 3 = 0 6.3. ⎨X1 + 2X 2 + X 3 = 0
⎪(k + 1)X + X + X = 0 ⎪− X + X + 3X = 1
⎩ 1 2 3 ⎩ 1 2 3

⎧2X1 + X 2 − X 3 = 4
4. Determine si el sistema AX = Y es consistente. En caso afirmativo ⎪
determine su solución o su conjunto de todas las soluciones: 6.4. ⎨X1 + X 3 = 2
⎪− X + 5X = 1
⎩ 2 3

⎡1 1 1 1⎤
⎢ ⎥ ⎧X1 − X 4 = 7
1 5 3 3⎥ ⎪
A=⎢ ⎪2X 2 + X 3 = 2
⎢1 3 10 5⎥ 6.5. ⎨
⎢ ⎥ ⎪4X1 − X 2 = −3
⎢⎣1 3 5 15⎥⎦ ⎪3X 3 − 5X 4 = 2

⎡1 ⎤ 7. Considere el siguiente SEL:


⎢ ⎥
2
4.1. Y=⎢ ⎥
⎢1 ⎥ ⎧ 2X1 − X 2 + 3X 3 = a
⎢ ⎥ ⎪
⎣⎢1⎦⎥ ⎨ 3X1 + X 2 − 5X 3 = b
⎪− 5X − 5X + 21X = c
⎡0 ⎤ ⎩ 1 2 3
⎢ ⎥
1
4.2. Y=⎢ ⎥ Demuestre que el SEL es inconsistente si y sólo si c ≠ 2a – 3b.
⎢1⎥
⎢ ⎥
⎣⎢1⎦⎥ 8. Considere el siguiente SEL:
⎡ 2⎤
⎢ ⎥ ⎧2X1 + 3X 2 − X 3 = a
0
4.3. Y=⎢ ⎥ ⎪
⎢1 ⎥ ⎨ X1 − X 2 + 3X 3 = b
⎢ ⎥ ⎪3X + 7 X − 5X = c
⎣⎢2⎦⎥ ⎩ 1 2 3

⎡1 ⎤
⎢ ⎥ Encuentre las condiciones sobre a, b y c para que el SEL sea
0
4.4. Y=⎢ ⎥ inconsistente.
⎢ 2⎥
⎢ ⎥
⎣⎢0⎦⎥ 9. Suponga que las demandas externas en un sistema económico con 3
1
industrias son 10, 15 y 30, respectivamente. Suponga que a 11 = ,
5. Para cada una de las matrices del ejercicio 6 del capítulo 2, verifique para 3
cada valor de λ que el sistema de ecuaciones lineales homogéneo 1 1 1 1 1 1 1
(A–λIn)X = θnx1 tiene soluciones distintas de la solución trivial y a12 = , a13 = , a 21 = , a 22 = , a 23 = , a 31 = , a 32 = y
2 6 4 4 8 12 3
determine además el conjunto de todas las soluciones para cada valor de
λ. 1
a 33 = . Encuentre la producción de cada industria tal que la oferta sea
6
6. Resuelva los siguientes sistemas de ecuaciones lineales utilizando la igual a la demanda.
Regla de Cramer:
10. Suponga que las demandas externas en un sistema económico con 3
⎧ 2X1 + 3X 2 = −1 industrias son 10, 25 y 20, respectivamente. Suponga que a11 = 0,30 ,
6.1. ⎨
⎩− 7 X1 + 4X 2 = 47 a12 = 0,40 , a13 = 0,50 , a 21 = 0,25 , a 22 = 0,25 , a 23 = 0,20 , a 31 = 0,10 ,

⎧2X1 + X 2 + X 3 = 6 a 32 = 0,30 y a 33 = 0,15 . Encuentre la producción de cada industria tal


⎪ que la oferta sea igual a la demanda.
6.2. ⎨3X1 − 2X 2 − 3X 3 = 5
⎪8X + 2X + 5X = 11
⎩ 1 2 3

124 125
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

11. En cierta región existen 3 industrias A, B y C. Cada mes la industria A 1, 4 unidades de alimento 2 y 5 unidades del alimento 3. Cada pez de la
recibe una demanda de 20 unidades de las demás regiones del país y para especie 3 consume cada semana un promedio de 2 unidades del alimento
producir cada unidad de su producto necesita 0,4 unidades del producto 1, 1 unidad del alimento 2 y 5 unidades del alimento 3. Cada semana se
de la industria B y de 0,25 unidades del producto de la industria C. De proporcionan al lago 15.000 unidades del alimento 1, 10.000 unidades
igual manera la industria B tiene una demanda de 15 unidades de las del alimento 2 y 35.000 unidades del alimento 3. Suponiendo que los 3
demás regiones y para producir cada unidad de su producto necesita 0,5 alimentos se consumen completamente, ¿qué población de cada especie
unidades del producto A y 0,3 unidades del producto C. Finalmente de se encontrará en coexistencia en el lago? ¿Existe una solución única?
las demás regiones se origina una demanda mensual de 30 unidades del Estime la población de la tercera especie.
producto de la industria C, la cual para producir una unidad necesita 0,15
unidades del producto de A y de 0,7 unidades del producto de B. 16. En la caja de cierto banco hay cheques de Bs. 25.000, Bs. 50.000, Bs.
Suponiendo que para cada industria hay equilibrio entre la producción y 100.000 y Bs. 500.000. Todos los cheques suman en total Bs.
la demanda, determinar las cantidades producidas mensualmente por 61.050.000. La cantidad de cheques de Bs. 25.000 es tres veces la
cada industria de la región considerada. cantidad de cheques de Bs. 500.000. Dos veces el número de cheques de
Bs. 500.000 es la cantidad de cheques de Bs. 50.000. Por último se sabe
12. Un inversionista le afirma a un corredor de bolsa que todas sus acciones que la cantidad de cheques de Bs. 25.000 es el doble de la cantidad de
son de 3 empresas A, B y C y que hace 2 días el precio de sus acciones cheques de Bs. 100.000. Determine el número de cheques de cada monto
bajó en $350 pero que subió $600 el día de ayer. El corredor recuerda que hay en la caja del banco.
que hace 2 días el precio por acción de la empresa A bajó $1, que el de la
empresa B bajó $1,5 pero que el precio de la empresa C subió $0,5. 17. Un granjero desea determinar la selección de ganado para su granja.
También recordó el corredor que el día de ayer los precios por acción de Puede comprar ovejas, reses o cabras. Cada oveja cuesta $20 y necesita 1
las 3 empresas se comportaron de la siguiente manera: subió el de la acre de pastura y $15 de alimentación y tratamiento. Para las reses estos
empresa A en $1,5, el de la empresa B bajó en $0,5 y el de la empresa C valores son: $40, 4 acres y $30. Para las cabras estos valores son: $10,
subió en $1. Demuestre que el corredor no posee información suficiente 0,5 acres y $5. La granja tiene 350 acres de pastura y el granjero dispone
para calcular el número de acciones del inversionista. Si el inversionista de $7.500 Por último el granjero ha fijado un límite inferior al número de
dice que tiene 200 acciones de la empresa C, determine cuántas acciones animales que desea adquirir; este límite inferior es de 20 para las ovejas,
tiene de las otras 2 empresas. 45 para las reses y 100 para las cabras. Determine el número de animales
que debe criar el granjero para utilizar completamente sus recursos.
13. Una pequeña constructora ofrece 3 tipos de casas. El primer tipo requiere
3 unidades de concreto, 2 unidades de cerámica y 5 unidades de madera. 18. Se va a demoler un barrio de 15 acres y el gobierno municipal debe
Los tipos segundo y tercero requieren 2, 3, 5 y 4, 2, 6 unidades de decidir sobre un plan de desarrollo habitacional. Dispone de $4.020.000 y
concreto, cerámica y madera, respectivamente. Cada mes la compañía considera 3 tipos de viviendas: tipo A, B y C. Se pueden construir por
dispone de 150 unidades de concreto, 100 unidades de cerámica y 250 acre 20 viviendas de tipo A ó 15 de tipo B ó 12 de tipo C. Los costos de
unidades de madera. ¿Cuántas casas de cada tipo podrá construir construcción son de $12.000 para una vivienda de tipo A, $18.000 para
mensualmente si usa todos los materiales de que dispone? ¿Existe una una vivienda de tipo B y $21.000 para una vivienda de tipo C. Se estima
solución única? Determine el número de casas de tipo 1 y de tipo 2 que que el mercado potencial combinado es de 225 viviendas. ¿Cuántas
se pueden construir mensualmente si usa todos los materiales de que viviendas de cada tipo se deberán construir para utilizar todos los
dispone y construye 5 casas de tipo 3. recursos y satisfacer la demanda?

14. Una empresa compra café en granos a cooperativas agrícolas, lo procesa 19. Un joyero tiene 4 láminas de plata para fabricar 3 tipos de dijes. Con una
y lo vende. Utiliza dos tipos de granos: tipo A y tipo B. En el proceso de lámina de plata puede obtener 20 dijes de tipo 1 ó 15 de tipo 2 ó 25 de
torrefacción y molienda se pierde el 5% del café de tipo A y el 7% del tipo 3. Los dijes de tipo 1 llevan una piedra azul, los de tipo 3 una piedra
tipo B. Luego, se mezclan los granos molidos para producir el café verde y los de tipo 2 pueden llevar una piedra azul o una piedra verde. El
superior que contiene 30% de granos de tipo A y 70% de granos de tipo joyero dispone de 40 piedras azules y 20 piedras verdes. Para elaborar un
B y el café familiar con un contenido de 60% de granos de tipo A y 40% dije de tipo 1 el joyero necesita 15 minutos, para fabricar un dije de tipo
de granos de tipo B. Actualmente la empresa tiene en existencia 1,2 2 necesita media hora y elaborar un dije de tipo 3 le toma 6 minutos. El
toneladas de granos de tipo A y 1,75 toneladas de granos de tipo B. joyero tiene 30 horas disponibles. Determinar el número de dijes de cada
¿Cuántos kilogramos de café superior y de café familiar puede producir tipo que puede elaborar el joyero si quiere utilizar toda su materia prima
la empresa para utilizar toda su existencia? así como todas las horas de trabajo disponibles.

15. Un departamento de caza y pesca estatal suministra tres tipos de 20. Maira y María están confrontadas. Maira alega haber estado más tiempo
alimentos a un lago que mantiene a tres especies de peces. Cada pez de la en Estados Unidos que María en sus vacaciones del invierno pasado.
especie 1 consume cada semana un promedio de 1 unidad del alimento 1, Ambas llegaron a ese país el mismo día, María a Chicago y Maira a
1 unidad del alimento 2 y 2 unidades del alimento 3. Cada pez de la Boston. En su viaje Maira gastó $1.590 en comida, $4.600 en compras y
especie 2 consume cada semana un promedio de 3 unidades del alimento $1.190 en gastos varios. No gastó nada en alojamiento porque llegó a la

126 127
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES

casa de un amigo en cada ciudad que visitó. Por su parte María gastó
$4.260 en alojamiento, $1.360 en gastos varios, $1.370 en comida y
$2.900 en compras. Se sabe que en Chicago María gastó $100 por día en
comida, $300 por día en alojamiento, $150 por día en compras y $100
por día en gastos varios. En New York, en comida María gastó $75 por
día y Maira $120 por día, en compras María $200 por día y Maira $300
por día, en gastos varios María $150 por día y Maira $100 por día y en
alojamiento María $250 por día. En Boston, en comida María gastó $90
por día y Maira $110 por día, en compras María $50 por día y Maira
$400 por día, en gastos varios María $20 por día y Maira $50 por día y en
alojamiento María $320 por día. En Miami, María gastó en comida $100
por día, en compras $300 por día, en gastos varios $80 por día y en
alojamiento $280 por día. Por último, Maira gastó en Philadelphia en
comida $80 por día, en compras $200 por día y en gastos varios $85 por
día. ¿Quién tiene la razón, Maira o María?

128
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡X1 ⎤ ⎡Y1 ⎤ ⎡ X1 +Y1 ⎤


Capítulo 4 ⎢ ⎥
X
⎢ M ⎥
⎢ ⎥
Y
⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢
X2 Y2
. Si α = ⎢ 2 ⎥ ∈ ℜ n y β = ⎢ 2 ⎥ ∈ ℜ n entonces α+β = ⎢ ⎥ + ⎢ ⎥ = ⎢
⎢M ⎥ ⎢M⎥ ⎢ M ⎥

X2 +Y2 ⎥ n
∈ℜ
ESPACIOS VECTORIALES ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣X n ⎥⎦ ⎢⎣Yn ⎥⎦ ⎢⎣Xn ⎥⎦ ⎢⎣Yn ⎥⎦ ⎢⎣Xn +Yn ⎥⎦
⎡ X1 ⎤ ⎡ X1 ⎤ ⎡ cX1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X X cX
. Si α = ⎢ 2 ⎥ ∈ ℜ n y c∈ℜ entonces c • α = c • ⎢ 2 ⎥ = ⎢ 2 ⎥ ∈ ℜ n
4.1. INTRODUCCIÓN. ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣X n ⎥⎦ ⎢⎣X n ⎥⎦ ⎢⎣cX n ⎥⎦
En este capítulo se presentará una importante herramienta para lograr la
reducción de datos en el análisis de datos multivariante, como lo son los
espacios vectoriales. Se expondrán sus principales conceptos asociados como Ahora verificamos que tales operaciones satisfacen las 8 propiedades:
lo son: Subespacios, Combinación Lineal, Independencia y Dependencia
Lineal, Bases y Espacio Nulo, Nulidad, Imagen, Espacio Columna y Espacio ⎡ X1 ⎤ ⎡ Y1 ⎤
Fila de una Matriz. ⎢ ⎥ ⎢ ⎥
X Y
1. Si α = ⎢ 2 ⎥ y β = ⎢ 2 ⎥ tales que α, β∈V entonces:
⎢ M ⎥ ⎢ M ⎥
4.2. DEFINICIONES, PROPIEDADES Y EJEMPLOS. ⎢ ⎥ ⎢ ⎥
⎢⎣X n ⎥⎦ ⎢⎣Yn ⎥⎦
Definición 4.1.
⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡ X1 + Y1 ⎤ ⎡ Y1 + X1 ⎤ ⎡ Y1 ⎤ ⎡ X1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Sea K un cuerpo. Se dice que un conjunto no vacío V es un K-espacio vectorial X Y X + Y2 ⎥ ⎢ Y2 + X 2 ⎥ ⎢Y2 ⎥ ⎢X 2 ⎥
α +β = ⎢ 2⎥ + ⎢ 2⎥ = ⎢ 2 = = + =β+α
o un espacio vectorial sobre K si en V están definidas dos operaciones; una ⎢ M ⎥ ⎢M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢M ⎥ ⎢ M ⎥
interna denominada adición denotada por + que asigna a cada par ordenado ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣X n ⎥⎦ ⎢⎣Yn ⎥⎦ ⎢⎣X n + Yn ⎥⎦ ⎢⎣Yn + X n ⎥⎦ ⎢⎣Yn ⎥⎦ ⎢⎣X n ⎥⎦
(α,β) ∈ VxV un único elemento (α+β) ∈ V y otra externa con dominio de
operadores K denominada multiplicación por escalares, denotada por • que ⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡ Z1 ⎤
asigna a cada par ordenado (c,α) ∈ KxV un único elemento (c•α) ∈ V, las ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X Y Z
cuales verifican las siguientes propiedades: 2. Si α = ⎢ 2 ⎥ , β = ⎢ 2 ⎥ y δ = ⎢ 2 ⎥ tales que α, β, δ∈V entonces:
⎢ M ⎥ ⎢ M ⎥ ⎢M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
1. ∀ α, β ∈ V se cumple que α + β = β + α. ⎢⎣X n ⎥⎦ ⎢⎣Yn ⎥⎦ ⎢⎣ Z n ⎥⎦
2. ∀ α, β, δ ∈ V se cumple que α + (β + δ) = (α + β) + δ.
3. ∃ θ ∈ V tal que ∀ α ∈ V se cumple que α + θ = α.
⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡ Z1 ⎤ ⎡ X1 ⎤ ⎡ Y1 + Z1 ⎤
4. ∀ α ∈ V, ∃ (-α) ∈ V tal que α + (-α) = θ. ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X Y Z X Y + Z2 ⎥
5. ∀ α ∈ V se cumple que 1•α = α. α + (β + δ) = ⎢ 2 ⎥ + ( ⎢ 2 ⎥ + ⎢ 2 ⎥ ) = ⎢ 2 ⎥ + ⎢ 2
6. ∀ α, β ∈ V, c ∈ K se cumple que c•(α + β) = c•α + c•β. ⎢ M ⎥ ⎢ M ⎥ ⎢M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
7. ∀ α ∈ V, c, d ∈ K se cumple que (c+d)•α = c•α + d•α. ⎣⎢X n ⎦⎥ ⎣⎢Yn ⎦⎥ ⎣⎢ Z n ⎦⎥ ⎣⎢X n ⎦⎥ ⎣⎢Yn + Z n ⎦⎥
8. ∀ α ∈ V, c, d ∈ K se cumple que (cd)•α = c•(d•α).
⎡ X1 + Y1 + Z1 ⎤ ⎡ X1 + Y1 ⎤ ⎡ Z1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Los elementos de V se denominan vectores y los elementos de K se denominan X + Y2 + Z 2 ⎥ ⎢ X 2 + Y2 ⎥ ⎢ Z 2 ⎥
escalares. =⎢ 2 = +
⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Ejemplo 4.1. ⎣⎢X n + Yn + Z n ⎦⎥ ⎣⎢X n + Yn ⎦⎥ ⎣⎢ Z n ⎦⎥
⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡ Z1 ⎤
⎧ ⎡ X1 ⎤ ⎫ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X Y Z
⎪ ⎢ ⎥
X
⎪ = ( ⎢ 2 ⎥ + ⎢ 2 ⎥ ) + ⎢ 2 ⎥ + (α + β) + δ
⎪ ⎪ ⎢ M ⎥ ⎢ M ⎥ ⎢M ⎥
Sea V = ℜ = ⎨α = ⎢ ⎥; X j ∈ ℜ, j = 1, 2, ..., n ⎬ . En este conjunto están
n 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ M ⎥
⎪ ⎢ ⎥ ⎪ ⎣⎢X n ⎦⎥ ⎣⎢Yn ⎦⎥ ⎣⎢ Z n ⎦⎥
⎪ ⎢ X ⎥ ⎪
⎩ ⎣ n ⎦ ⎭
definidas las operaciones de adición y multiplicación por escalares ya que:

130
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ X1 ⎤ ⎡0 ⎤ ⎡ cX1 ⎤ ⎡ cY1 ⎤ ⎡ X1 ⎤ ⎡ Y1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X 0 cX cY X Y
3. Si α = ⎢ 2 ⎥ tal que α∈V entonces ∃ θ ∈ V; θ = ⎢ ⎥ , tal que: = ⎢ 2 ⎥ + ⎢ 2 ⎥ = c• ⎢ 2 ⎥ + c• ⎢ 2 ⎥ = c•α + c•β
⎢ M ⎥ ⎢M⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣X n ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣cX n ⎥⎦ ⎢⎣cYn ⎥⎦ ⎢⎣X n ⎥⎦ ⎢⎣Yn ⎥⎦
⎡ X1 ⎤ ⎡0⎤ ⎡ X1 ⎤ ⎡ X1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X 0 X X
α +θ = ⎢ 2⎥ + ⎢ ⎥ = ⎢ 2⎥ = α 7. Si α = ⎢ 2 ⎥ tal que α∈V y c, d∈ℜ entonces:
⎢ M ⎥ ⎢M⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣X n ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣X n ⎥⎦ ⎢⎣X n ⎥⎦
⎡ X1 ⎤ ⎡ − X1 ⎤ ⎡ X1 ⎤ ⎡ (c + d )X1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X − X2 ⎥ X (c + d ) X 2 ⎥
4. Si α = ⎢ 2 ⎥ tal que α∈V entonces ∃ (-α) ∈ V; (−α) = ⎢ , tal (c + d ) • α = (c + d ) • ⎢ 2 ⎥ = ⎢ )
⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣X n ⎥⎦ ⎢⎣− X n ⎥⎦ ⎢⎣X n ⎥⎦ ⎢⎣(c + d )X n ⎥⎦
que: ⎡ cX 1 + dX 1 ⎤ ⎡ cX 1 ⎤ ⎡ dX 1 ⎤
⎡ X1 ⎤ ⎡ − X1 ⎤ ⎡ X1 + (−X1 ) ⎤ ⎡ X1 − X1 ⎤ ⎡0⎤ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
cX + dX 2 ⎥ ⎢cX 2 ⎥ ⎢dX 2 ⎥
⎢ ⎥ ⎢
X
⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
− X 2 ⎥ ⎢ X 2 + ( − X 2 ) ⎥ ⎢ X 2 − X 2 ⎥ ⎢0 ⎥ =⎢ 2 = +
⎢ ⎥ ⎢ M ⎥ ⎢ M ⎥
α + ( −α ) = ⎢ 2 ⎥ + ⎢ = = = =θ ⎢
M
⎥ ⎢ ⎥ ⎢ ⎥
⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢⎣cX n + dX n ⎥⎦ ⎢⎣cX n ⎥⎦ ⎢⎣dX n ⎥⎦
⎣⎢X n ⎦⎥ ⎣⎢− X n ⎦⎥ ⎣⎢X n + (−X n )⎦⎥ ⎣⎢X n − X n ⎦⎥ ⎣⎢0⎦⎥
⎡ X1 ⎤
⎢ ⎥ ⎡ X1 ⎤ ⎡ X1 ⎤
X
5. Si α = ⎢ 2 ⎥ tal que α∈V entonces: ⎢ ⎥
X
⎢ ⎥
X
⎢ M ⎥
⎢ ⎥ = c• ⎢ ⎥ + d • ⎢ 2 ⎥ = c• α + d •β
2
⎢ M ⎥ ⎢ M ⎥
⎣⎢X n ⎦⎥ ⎢ ⎥ ⎢ ⎥
⎣⎢X n ⎦⎥ ⎣⎢X n ⎦⎥
⎡ X1 ⎤ ⎡1.X1 ⎤ ⎡ X1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎡ X1 ⎤
X 1.X X
1•α = 1 • ⎢ 2 ⎥ = ⎢ 2 ⎥ = ⎢ 2 ⎥ = α . ⎢ ⎥
X
⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 8. Si α = ⎢ 2 ⎥ tal que α∈V y c, d∈ℜ entonces:
⎢ M ⎥
⎣⎢X n ⎦⎥ ⎣⎢1.X n ⎦⎥ ⎣⎢X n ⎦⎥ ⎢ ⎥
⎣⎢X n ⎦⎥
⎡ X1 ⎤ ⎡ Y1 ⎤
⎢ ⎥ ⎢ ⎥ ⎡ X1 ⎤ ⎡ (cd)X1 ⎤ ⎡ dX1 ⎤ ⎡ X1 ⎤
X Y
6. Si α = ⎢ 2 ⎥ , β = ⎢ 2 ⎥ tales que α, β∈V y c∈ℜ entonces: ⎢ ⎥ ⎢
X ( cd ) X
⎥ ⎢
dX
⎥ ⎢ ⎥
⎢ M ⎥ ⎢ M ⎥
(cd) • α = (cd ) • ⎢ ⎥ = ⎢
2 2 ⎥ = c•⎢ 2 ⎥ = c • (d • ⎢ X 2 ⎥ ) = c • (d • α )
⎢ ⎥ ⎢ ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎣⎢X n ⎦⎥ ⎣⎢Yn ⎦⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣⎢X n ⎦⎥ ⎣⎢(cd)X n ⎦⎥ ⎣⎢dX n ⎦⎥ ⎣⎢X n ⎦⎥
⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡ X1 + Y1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X Y X + Y2 ⎥
c • (α + β) = c • ( ⎢ 2 ⎥ + ⎢ 2 ⎥ ) = c • ( ⎢ 2 ) Luego, V es un espacio vectorial.
⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Observación:
⎣⎢X n ⎦⎥ ⎣⎢Yn ⎦⎥ ⎣⎢X n + Yn ⎦⎥
⎡ c(X1 + Y1 ) ⎤ ⎡ cX1 + cY1 ⎤ Las operaciones de adición y multiplicación por escalares de ℜn del ejemplo
⎢ ⎥ ⎢ ⎥ anterior son las operaciones usuales. De ahora en adelante, cada vez que se
c(X 2 + Y2 ) ⎥ ⎢ cX 2 + cY2 ⎥
=⎢ = mencione a ℜn como espacio vectorial se supondrá que es con las operaciones
⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ de adición y multiplicación por escalares usuales, salvo que se mencione lo
⎣⎢ c ( X n + Y )
n ⎦ cX
⎥ ⎣⎢ n + cYn⎦⎥ contrario.

131 132
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Ejemplo 4.2. = an xn + an−1xn−1 + ...+ a0 − an xn − an−1xn−1 −...− a0 = 0 = 0xn + 0xn−1 + ...+ 0


Sea V = {0}. En V están definidas las operaciones de adición y multiplicación 5. Si α = a n x n + a n −1 x n −1 + ... + a 0 tal que α∈V entonces:
por escalares ya que 0 + 0 = 0∈V y c•0 = 0∈V. V es un espacio vectorial ya
1•α = 1 • (a n x n + a n −1x n −1 + ... + a 0 ) = a n x n + a n −1x n −1 + ... + a 0 = α
que:
6. Si α = a n x n + a n −1x n −1 + ... + a 0 , β = b n x n + b n −1x n −1 + ... + b 0 tales
1. 0+0 = 0+0.
que α, β∈V y c∈ℜ entonces:
2. 0+(0+0) = (0+0)+0.
3. 0+0 = 0. c • (α + β) = c • (a n x n + a n −1x n −1 + ... + a 0 + b n x n + b n −1x n −1 + ... + b 0 )
4. 0+(-0) = 0+0 = 0.
= ca n x n + ca n −1x n −1 + ... + ca 0 + cb n x n + cb n −1x n −1 + ... + cb 0 )
5. 1•0 = 0.
6. c•(0+0) = c•0 + c•0; c∈ℜ. = c • (a n x n + a n −1x n −1 + ... + a 0 ) + c • (b n x n + b n −1x n −1 + ... + b 0 )
7. (c+d)•0 = c•0 + d•0; c, d∈ℜ. = c•α + c•β
8. (cd) •0 = c•(d•0).
7. Si α = a n x n + a n −1 x n −1 + ... + a 0 tal que α∈V y c, d∈ℜ entonces:
Este conjunto se denomina espacio vectorial trivial. (c + d) • α = (c + d ) • (a n x n + a n −1x n −1 + ... + a 0 )

Ejemplo 4.3. = c • (a n x n + a n −1x n −1 + ... + a 0 ) + d • (a n x n + a n −1x n −1 + ... + a 0 )


= c•α +d•α
Sea V = Pn, el conjunto de polinomios con coeficientes reales de grado menor
8. Si α = a n x n + a n −1 x n −1 + ... + a 0 tal que α∈V y c, d∈ℜ entonces:
o igual a n, es decir, si p∈Pn entonces p(x) = anxn + an-1xn-1 + … + a1x + a0. En
V existen operaciones naturales de adición y multiplicación por escalares de (cd) • α = (cd) • (a n x n + a n −1x n −1 + ... + a 0 )
forma tal que la suma de 2 polinomios es un polinomio y la multiplicación de
un escalar por un polinomio es también un polinomio. V es un espacio = cda n x n + cda n −1x n −1 + ... + cda 0
vectorial ya que cumple con las 8 propiedades: = c • (da n x n + da n −1x n −1 + ... + da 0 )

1. Si α = a n x n + a n −1x n −1 + ... + a 0 y β = b n x n + b n −1x n −1 + ... + b 0 = c • (d • (a n x n + da n −1x n −1 + ... + da 0 ))


tales que α, β∈V entonces:
Observación:
α + β = (a n x n + a n −1x n −1 + ... + a 0 ) + (b n x n + b n −1x n −1 + ... + b 0 )
= (b n x n + b n −1x n −1 + ... + b 0 ) + (a n x n + a n −1x n −1 + ... + a 0 ) = β + α Las operaciones de adición y multiplicación por escalares de Pn del ejemplo
anterior son las operaciones usuales. De ahora en adelante, cada vez que se
2. Si α = a n x n + a n −1x n −1 + ... + a 0 , β = b n x n + b n −1x n −1 + ... + b 0 y mencione a Pn como espacio vectorial se supondrá que es con las operaciones
n n −1 de adición y multiplicación por escalares usuales, salvo que se mencione lo
δ = c n x + c n −1x + ... + c 0 tales que α, β, δ∈V entonces:
contrario.
α + (β + δ) =
an xn + an−1xn−1 + ...+ a0 + (bn xn + bn−1xn−1 + ...+ b0 + cn xn + cn−1xn−1 + ...+ c0 ) Ejemplo 4.4.

= an xn + an−1xn−1 + ...+ a0 + bn xn + bn−1xn−1 + ...+ b0 + cn xn + cn−1xn−1 + ...+ c0 Sea V = {5}. En V no está definida la operación de adición ya que
n n−1 n n−1 n n−1 5+5 = 10∉V. Luego, V no es un espacio vectorial.
= (an x + an−1x +...+ a0 + bn x + bn−1x +...+ b0 ) + cn x + cn−1x +...+ c0
= (α + β) + δ Ejemplo 4.5.
3. Si α = a n x n + a n −1 x n −1 + ... + a 0 tal que α∈V entonces ∃ θ ∈ V;
Sea V el conjunto de matrices en M2x2(ℜ) con la suma y multiplicación por
θ = 0x n + 0x n −1 + ... + 0 = 0, tal que: escalares definidas por:
α + θ = (a n x n + a n −1x n −1 + ... + a 0 ) + 0 = a n x n + a n −1x n −1 + ... + a 0 = α
⎡ X1 X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ X1 + Y1 + 1 X 2 + Y2 + 1⎤
4. Si α = a n x n + a n −1x n −1 + ... + a 0 tal que α∈V entonces ∃ (-α) ∈ V; ⎢ ⎥ + ⎢ ⎥ = ⎢ ⎥ y
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ ⎣X 3 + Y3 + 1 X 4 + Y4 + 1⎦
(−α) = −a n x n − a n −1x n −1 − ... − a 0 , tal que:
⎡X X2 ⎤ ⎡ c + cX1 − 1 c + cX 2 − 1⎤
c•⎢ 1 ⎥ = ⎢ ⎥
α + (−α) = a n x n + a n −1x n −1 + ... + a 0 + (−a n x n − a n −1x n −1 − ... − a 0 )
⎣X 3 X4 ⎦ ⎣c + cX 3 − 1 c + cX 4 − 1⎦

133 134
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ X + Y1 + 1 X 2 + Y2 + 1⎤ ⎡ −1 −1⎤
V es un espacio vectorial ya que definiendo α = ⎢ 1 ⎥,β= ⎢ ⎥ y ⇒ ⎢ 1 ⎥ = ⎢ ⎥
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ X
⎣ 3 + Y3 + 1 X 4 + Y4 + 1⎦ ⎣− 1 − 1⎦
⎡Z Z2 ⎤ ⎧ X1 + Y1 + 1 = −1 ⎧ Y1 = −X1 − 2
δ= ⎢ 1 ⎥ se verifican las siguientes propiedades: ⎪ ⎪
⎣ Z3 Z4 ⎦ ⎪ X + Y + 1 = − 1 ⎪Y = − X 2 − 2
⇒ ⎨ 2 2
⇒ ⎨ 2
X
⎪ 3 + Y3 + 1 = −1 ⎪ Y3 = −X 3 − 2
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ X1 + Y1 + 1 X 2 + Y2 + 1⎤ ⎪X 4 + Y4 + 1 = −1 ⎪Y4 = −X 4 − 2
⎩ ⎩
1. α+β= ⎢ 1 ⎥ + ⎢ ⎥ = ⎢ ⎥
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ ⎣X 3 + Y3 + 1 X 4 + Y4 + 1⎦ ⎡ −X − 2 −X 2 − 2 ⎤ ⎡ − X1 − 1 − 1 − X 2 − 1 − 1⎤
⇒ (-α) = ⎢ 1 ⎥ = ⎢ ⎥
⎡ Y + X1 + 1 Y2 + X 2 + 1⎤ ⎡ Y1 Y2 ⎤ ⎡ X1 X2 ⎤ ⎣ − X 3 − 2 − X 4 − 2 ⎦ ⎣− X 3 − 1 − 1 − X 4 − 1 − 1⎦
= ⎢ 1 ⎥= ⎢ ⎥ + ⎢ ⎥ = β + α.
⎣Y3 + X 3 + 1 Y4 + X 4 + 1⎦ ⎣Y3 Y4 ⎦ ⎣X 3 X4 ⎦ ⎡ −1 − X1 − 1 −1 − X 2 − 1⎤ ⎡ X1 X2 ⎤
= ⎢ ⎥ = (-1)• ⎢ ⎥
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ Z1 Z2 ⎤ ⎣ − 1 − X 3 − 1 − 1 − X 4 − 1⎦ ⎣X 3 X4 ⎦
2. α + (β + δ) = ⎢ 1 ⎥ +( ⎢ ⎥ + ⎢ ⎥)
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ ⎣ Z3 Z4 ⎦ ⎡X X2 ⎤ ⎡1 + X1 − 1 1 + X 2 − 1⎤ ⎡ X1 X2 ⎤
5. (1)•α = (1)• ⎢ 1 ⎥= ⎢ ⎥ = ⎢ ⎥ =α
⎣X 3 X4 ⎦ ⎣1 + X 3 − 1 1 + X 4 − 1⎦ ⎣X 3 X4 ⎦
⎡X X2 ⎤ ⎡ Y1 + Z1 + 1 Y2 + Z 2 + 1⎤
= ⎢ 1 ⎥ + ⎢ ⎥ ⎡X X2 ⎤ ⎡ Y1 Y2 ⎤
⎣X 3 X4 ⎦ ⎣Y3 + Z3 + 1 Y4 + Z 4 + 1⎦ 6. c•(α + β) = c•( ⎢ 1 ⎥ + ⎢ ⎥)
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦
⎡ X + (Y1 + Z1 + 1) + 1 X 2 + (Y2 + Z 2 + 1) + 1⎤
= ⎢ 1 ⎥ ⎡ X + Y1 + 1 X 2 + Y2 + 1⎤
⎣X 3 + (Y3 + Z3 + 1) + 1 X 4 + (Y4 + Z 4 + 1) + 1⎦ = c• ⎢ 1 ⎥
⎣X 3 + Y3 + 1 X 4 + Y4 + 1⎦
⎡ X + Y1 + Z1 + 1 + 1 X 2 + Y2 + Z 2 + 1 + 1⎤
= ⎢ 1 ⎥ ⎡ c + c(X1 + Y1 + 1) − 1 c + c(X 2 + Y2 + 1) − 1⎤
⎣X 3 + Y3 + Z3 + 1 + 1 X 4 + Y4 + Z 4 + 1 + 1⎦ = ⎢ ⎥
⎣c + c(X 3 + Y3 + 1) − 1 c + c(X 4 + Y4 + 1) − 1⎦
⎡ (X + Y1 + 1) + Z1 + 1 (X 2 + Y2 + 1) + Z 2 + 1⎤
= ⎢ 1 ⎥ ⎡ c + cX1 + cY1 + c − 1 c + cX 2 + cY2 + c − 1⎤
⎣(X 3 + Y3 + 1) + Z3 + 1 (X 4 + Y4 + 1) + Z 4 + 1⎦ = ⎢ ⎥
⎣c + cX 3 + cY3 + c − 1 c + cX 4 + cY4 + c − 1⎦
⎡ X + Y1 + 1 X 2 + Y2 + 1⎤ ⎡ Z1 Z2 ⎤
= ⎢ 1 ⎥ + ⎢ ⎥ ⎡ c + cX1 + cY1 + c − 1 + 1 − 1 c + cX 2 + cY2 + c − 1 + 1 − 1⎤
⎣X 3 + Y3 + 1 X 4 + Y4 + 1⎦ ⎣ Z3 Z4 ⎦ = ⎢ ⎥
⎣c + cX 3 + cY3 + c − 1 + 1 − 1 c + cX 4 + cY4 + c − 1 + 1 − 1⎦
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ Z1 Z2 ⎤
=(⎢ 1 ⎥ + ⎢ ⎥)+ ⎢ ⎥ = (α + β) + δ ⎡ (c + cX1 − 1) + (c + cY1 − 1) + 1 (c + cX 2 − 1) + (c + cY2 − 1) + 1⎤
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ ⎣ Z3 Z4 ⎦ = ⎢ ⎥
⎣(c + cX 3 − 1) + (c + cY3 − 1) + 1 (c + cX 4 − 1) + (c + cY4 − 1) + 1⎦
⎡X X2 ⎤ ⎡ θ1 θ2 ⎤ ⎡ X1 X2 ⎤
3. α+θ=α⇒ ⎢ 1 ⎥ + ⎢ ⎥ = ⎢ ⎥ ⎡ c + cX1 − 1 c + cX 2 − 1⎤ ⎡ c + cY1 − 1 c + cY2 − 1⎤
⎣X 3 X4 ⎦ ⎣θ 3 θ4 ⎦ ⎣X 3 X4 ⎦ = ⎢
+ − + −
⎥ + ⎢ ⎥
⎣ c cX 3 1 c cX 4 1⎦ ⎣c + cY3 − 1 c + cY4 − 1⎦
⎡ X + θ + 1 X 2 + θ 2 + 1⎤ ⎡ X1 X2 ⎤
⇒ ⎢ 1 1 ⎥ = ⎢ ⎥ ⎡X X2 ⎤ ⎡ Y1 Y2 ⎤
⎣X 3 + θ3 + 1 X 4 + θ 4 + 1⎦ ⎣X 3 X4 ⎦ = c• ⎢ 1 ⎥ + c• ⎢ ⎥ = c•α + c•β
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦
⎧ X1 + θ1 + 1 = X1 ⎧ θ1 + 1 = 0 ⎧ θ1 = −1
⎪ ⎪ ⎪ ⎡X X2 ⎤
⎪X 2 + θ 2 + 1 = X 2 ⎪θ2 + 1 = 0 ⎪θ = −1 7. (c+d)•α = (c+d)• ⎢ 1 ⎥
⇒ ⎨ ⇒ ⎨ ⇒ ⎨ 2 ⎣X 3 X4 ⎦
⎪ X 3 + θ3 + 1 = X 3 ⎪ θ3 + 1 = 0 ⎪θ3 = −1
⎪X 4 + θ 4 + 1 = X 4 ⎪θ4 + 1 = 0 ⎪θ 4 = −1 ⎡ c + d + (c + d )X1 − 1 c + d + (c + d )X 2 − 1⎤
⎩ ⎩ ⎩ = ⎢ ⎥
⎡ −1 −1⎤ ⎣c + d + (c + d )X 3 − 1 c + d + (c + d )X 4 − 1⎦
⇒ θ=⎢ ⎥
⎣− 1 − 1⎦ ⎡ c + d + cX1 + dX1 − 1 c + d + cX 2 + dX 2 − 1⎤
= ⎢ ⎥
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ −1 −1⎤ ⎣c + d + cX 3 + dX 3 − 1 c + d + cX 4 + dX 4 − 1⎦
4. α + (-α) = θ ⇒ ⎢ 1 ⎥ + ⎢ ⎥ = ⎢ ⎥
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ ⎣− 1 − 1⎦

135 136
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ c + d + cX1 + dX1 − 1 + 1 − 1 c + d + cX 2 + dX 2 − 1 + 1 − 1⎤ Demostración


= ⎢ ⎥
⎣c + d + cX 3 + dX 3 − 1 + 1 − 1 c + d + cX 4 + dX 4 − 1 + 1 − 1⎦ 1. Sea α ∈ V. Supongamos que existen vectores θ1, θ2 ∈ V tales que
⎡ (c + cX1 − 1) + (d + dX1 − 1) + 1 (c + cX 2 − 1) + (d + dX 2 − 1) + 1⎤ α + θ1 = α y α + θ2 = α. Luego,
= ⎢ ⎥
⎣(c + cX 3 − 1) + (d + dX 3 − 1) + 1 (c + cX 4 − 1) + (d + dX 4 − 1) + 1⎦ θ1 = α + (-α) y θ2 = α + (-α) ⇒ θ1 = θ y θ2 =θ ⇒ θ1 = θ2 =θ.
⎡ c + cX1 − 1 c + cX 2 − 1⎤ ⎡ d + dX1 − 1 d + dX 2 − 1⎤
= ⎢ ⎥ + ⎢ ⎥ Por consiguiente el vector θ ∈ V es único.
⎣ c + cX 3 − 1 c + cX 4 − 1⎦ ⎣d + dX 3 − 1 d + dX 4 − 1⎦
⎡X X2 ⎤ ⎡ X1 X2 ⎤ 2. Sea α ∈ V. Supongamos que existen vectores (-α1), (-α2) ∈ V tales
= c• ⎢ 1 ⎥ + d• ⎢ ⎥ = c•α + d•α que α + (-α1) = θ y α + (-α2) = θ. Luego,
⎣X 3 X4 ⎦ ⎣X 3 X4 ⎦

⎡X X2 ⎤ ⎡ cd + cdX1 − 1 cd + cdX 2 − 1⎤ α = θ +(-(-α1)) y α = θ + (-(-α2)) ⇒ θ +(-(-α1)) = θ + (-(-α2))


8. (cd)•α = (cd)• ⎢ 1 ⎥ = ⎢ ⎥ ⇒ (-(-α1)) = (-(-α2))
⎣X 3 X4 ⎦ ⎣cd + cdX 3 − 1 cd + cdX 4 − 1⎦
⇒ (-α1) = (-α2).
⎡ cd + cdX1 − 1 + c − c cd + cdX 2 − 1 + c − c⎤
= ⎢ ⎥ Por consiguiente el vector (-α) ∈ V es único.
⎣cd + cdX 3 − 1 + c − c cd + cdX 4 − 1 + c − c⎦
3. Sean α, β ∈ V. Consideremos la ecuación α + X = β. Entonces se
⎡ c + cd + cdX1 − c − 1 c + cd + cdX 2 − c − 1⎤ cumple que:
= ⎢ ⎥
⎣c + cd + cdX 3 − c − 1 c + cd + cdX 4 − c − 1⎦
(-α) + (α + X) = (-α) + β.
⎡ c + c(d + dX1 − 1) − 1 c + c(d + dX 2 − 1) − 1⎤ ⇒ ((-α) + α) + X = (-α) + β.
= ⎢ ⎥
⎣c + c(d + dX 3 − 1) − 1 c + c(d + dX 4 − 1) − 1⎦ ⇒ θ + X = (-α) + β.
⇒ X = β + (-α).
⎡ d + dX1 − 1 d + dX 2 − 1⎤
= c• ⎢ ⎥
⎣d + dX 3 − 1 d + dX 4 − 1⎦ Luego, la solución de la ecuación es X = β + (-α) y es única ya que
(-α) es único.
⎡X X2 ⎤
= c•( d• ⎢ 1 ⎥ ) = c•(d•α)
⎣X 3 X4 ⎦ 4. Sean α, β, δ ∈ V. Si α + β = α + δ entonces:

Observación: (-α) + (α + β) = (-α) + (α + δ) ⇒ ((-α) + α) + β = ((-α) + α) + δ


⇒θ+β=θ+δ
Notemos que el vector nulo del espacio vectorial del ejemplo anterior, es decir, ⇒ β = δ.
⎡ −1 −1⎤
θ=⎢ ⎥ no es un vector formado por ceros. 5. CN(⇒): Sean α ∈ V y c ∈ K. Si c•α = θ entonces c = 0 ó α = θ.
⎣− 1 − 1⎦
Por hipótesis c•α = θ. Para que esto se cumpla debe ocurrir que
Teorema 4.1. c = 0 ó α = θ.
Sean K un cuerpo y V un espacio vectorial sobre K. Entonces se cumple que: CS(⇐): Sean α ∈ V y c ∈ K. Si c = 0 ó α = θ entonces c•α = θ.
1. El elemento θ ∈ V definido en la propiedad 3 es único y se Por hipótesis c = 0 ó α = θ. Veamos cada caso:
denomina el vector nulo o vector cero de V.
2. ∀ α ∈ V el vector -α ∈ V definido en la propiedad 4 es único y se Si c = 0 entonces c•α = 0•α = θ.
denomina el vector opuesto de α. Si α = θ entonces c•α = c•θ = θ.
3. ∀ α, β ∈ V se cumple que la ecuación α + X = β tiene una única
solución X = β + (-α). 6. Sean α ∈ V y c ∈ K. Luego,
4. ∀ α, β, δ ∈ V se cumple que si α + β = α + δ entonces β = δ.
5. ∀ α ∈ V, c ∈ K se cumple que c•α = θ si y sólo si c = 0 ó α = θ. (-c)•α = (-1c)•α = (-1)(c)•α = (c)(-1)•α = (c)•(-1α) = c•(-α).
6. ∀ α ∈ V, c ∈ K se cumple que (-c)•α = c•(-α) = -(c•α) y (-c)•(-α) (-c)•α = (-1c)•α = (-1)(c)•α = -(c•α).
= c•α. En particular, (-1)•α = -α.
Por consiguiente, (-c)•α = c•(-α) = -(c•α)

137 138
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

(-c)•(-α) = (-1c)•(-α) = (c)(-1)•(-α) = (c)•((-1)-α) = c•α. 1


Por hipótesis, ∀ α, β ∈ W, c ∈ K se cumple que (c•α + β) ∈ W. Sea α = •δ,
c
4.3. SUBESPACIOS.
1 1
con c ≠ 0. Es claro que •δ ∈ W. Luego, (c• •δ + β) ∈ W, es decir,
Definición 4.2. c c
(δ + β) ∈ W. Sea β = θ. Luego, (c•α + θ) ∈ W, es decir, (c•α) ∈ W. Por
Sean K un cuerpo y V un espacio vectorial sobre K. Se dice que un consiguiente, W es un subespacio de V.
subconjunto no vacío W de V es un subespacio de V si se verifican las
siguientes condiciones: Observaciones

1. W es estable respecto a la adición, es decir, ∀ α, β ∈ W se cumple 1. Sean K un cuerpo y V un espacio vectorial sobre K. Para demostrar
que (α + β) ∈ W. que un subconjunto no vacío W de V es un subespacio de V basta
2. W es estable respecto a la multiplicación por escalares, es decir, ∀ con demostrar que:
α ∈ W, c ∈ K se cumple que (c•α) ∈ W.
1. θ ∈ W.
2. ∀ α, β ∈ W, c ∈ K se cumple que (c•α + β)∈W.
Teorema 4.2.
2. Sean K un cuerpo y V un espacio vectorial sobre K. Los conjuntos
Sean K un cuerpo y V un espacio vectorial sobre K. Si W es un subespacio de V y {θ} son subespacios de V denominados los subespacios
V entonces W es un espacio vectorial sobre K con las operaciones de adición y triviales de V. Los subespacios distintos a V y {θ} se denominan
multiplicación por escalares inducidas sobre W. subespacios propios.

Demostración Ejemplo 4.6.

Por hipótesis W es un subespacio de V, es decir, W es estable respecto a la ⎡X ⎤


adición y a la multiplicación por escalares. Verifiquemos que θ ∈ W y que Sea W = { ⎢ ⎥ ∈ℜ2: Y = mX}. W es una recta en ℜ2 de pendiente m que pasa
∀ α ∈ W se tiene que (-α) ∈ W. Como W ≠ ∅ entonces ∃ α ∈ W. Luego, ⎣Y ⎦
0•α = θ ∈ W y (-1)•α = (-α) ∈ W. por el origen. W es un subespacio de V = ℜ2 ya que:

Teorema 4.3. 1. θ ∈ W, ya que 0 = m.0


⎡X ⎤ ⎡X ⎤
Sean K un cuerpo y V un espacio vectorial sobre K. El subconjunto no vacío 2. Si α = ⎢ 1 ⎥ , β = ⎢ 2 ⎥ y c∈ℜ son tales que α, β∈W entonces:
W de V es un subespacio de V si y sólo si ∀ α, β ∈ W, c ∈ K se cumple que ⎣ Y1 ⎦ ⎣ Y2 ⎦
(c•α + β)∈W. Y1 = mX1; Y2 = mX2
⎡X ⎤ ⎡X ⎤ ⎡cX ⎤ ⎡X ⎤ ⎡cX + X2 ⎤ ⎡ cX1 + X2 ⎤
c • α + β = c • ⎢ 1⎥ + ⎢ 2 ⎥ = ⎢ 1⎥ + ⎢ 2 ⎥ = ⎢ 1 ⎥=⎢ ⎥ ∈W
Demostración ⎣ Y1 ⎦ ⎣ Y2 ⎦ ⎣ cY1 ⎦ ⎣ Y2 ⎦ ⎣ cY1 + Y2 ⎦ ⎣cmX1 + mX2 ⎦
ya que cmX1 + mX2 = m(cX1 + X2)
CN(⇒): Si W es un subespacio de V entonces ∀ α, β ∈ W, c ∈ K se cumple
que (c•α + β) ∈ W. W es un subespacio propio de V = ℜ2.
Por hipótesis, W es un subespacio de V, es decir, se cumplen las siguientes Ejemplo 4.7.
condiciones:
Sea W = Pm, el conjunto de polinomios con coeficientes reales de grado menor
1. W es estable respecto a la adición, es decir, ∀ α, β ∈ W se cumple o igual a m. Si 0 ≤ m < n entonces W es un subespacio de V = Pn ya que:
que (α + β) ∈ W.
2. W es estable respecto a la multiplicación por escalares, es decir, 1. θ ∈ W, ya que 0 = 0xm + 0xm-1 + … + 0.
∀ α ∈ W, c ∈ K se cumple que (c•α) ∈ W.
2. Si α = a m x m + a m −1 x m −1 + ... + a 0 y β = b m x m + b m −1x m−1 + ... + b 0
Por las propiedades anteriores como (c•α) ∈ W y β ∈ W entonces tales que α, β∈W y c∈ℜ entonces:
(c•α + β) ∈ W.

CS(⇐): Si ∀ α, β ∈ W, c ∈ K se cumple que (c•α + β) ∈ W entonces W es un


subespacio de V.

139 140
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

c • α + β = c • (a m x m + a m −1x m −1 + ... + a 0 ) + (b m x m + b m −1x m −1 + ... + b 0 ) α + β ∈ W2. Por consiguiente, α + β ∈ W1 ∩ W2. Igualmente ∃ c ∈ K tal que
m m −1 m m −1
c•α ∈ W1 y tal que c•α ∈ W2. Por consiguiente c•α ∈ W1 ∩ W2. En
= ca m x + ca m−1x + ... + ca 0 + b m x + b m −1x + ... + b 0 consecuencia, W1 ∩ W2 es un subespacio de V.
m m −1
= (ca m + b m ) x + (ca m −1 + b m −1 ) x + ... + (ca 0 + b 0 ) ∈ W
Teorema 4.5.
ya que la suma y el producto de números reales es un número real. Sean K un cuerpo y V un espacio vectorial sobre K. Si W1 y W2 son
subespacios de V entonces W1 ∪ W2 es un subespacio de V si y sólo si
W es un subespacio propio de V = Pn.
W1 ⊆ W2 o W2 ⊆ W1.
Ejemplo 4.8. Demostración
En el ejemplo 4.1., si fijamos n = 1 se obtiene que V = ℜ es un espacio
CN(⇒): Sean K un cuerpo y V un espacio vectorial sobre K y W1 y W2
vectorial. Sea W = {3}. W no es un subespacio vectorial de V=ℜ ya que subespacios de V. Si W1 ∪ W2 es un subespacio de V entonces W1 ⊆ W2 o
0∉W. En general, V = ℜ no tiene subespacios propios.
W2 ⊆ W1.
Ejemplo 4.9.
Si W1 y W2 son subespacios de V y W1 ∪ W2 es un subespacio de V entonces
W1 ∩ W2 ≠ ∅. Utilicemos reducción al absurdo. Supongamos que no se
En el ejemplo 4.5., sea W el conjunto de matrices simétricas en M2x2(ℜ). W es
cumple que W1 ⊆ W2 o W2 ⊆ W1, es decir, W1 ⊄ W2 y W2 ⊄ W1. Esto
un subespacio de V ya que:
significa que W1 ∩ W2 = ∅, lo cual es una contradicción.
⎡ −1 −1⎤ ⎡ −1 −1⎤
1. θ=⎢ ⎥ ∈W ya que θ = ⎢ ⎥ es una matriz simétrica. CS(⇐): Sean K un cuerpo y V un espacio vectorial sobre K y W1 y W2
⎣− 1 − 1⎦ ⎣− 1 − 1⎦ subespacios de V. Si W1 ⊆ W2 o W2 ⊆ W1 entonces W1 ∪ W2 es un subespacio
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ de V.
2. Si α = ⎢ 1 ⎥,β= ⎢ ⎥ y c∈ℜ y α, β∈W entonces:
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ Si W1 ⊆ W2 o W2 ⊆ W1 entonces W1 ∪ W2 = W1 o W1 ∪ W2 = W2. Luego,
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ como W1 y W2 son subespacios de V entonces W1 ∪ W2 es un subespacio de
c•α + β = c• ⎢ 1 ⎥ + ⎢ ⎥ V.
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦

⎡ c + cX1 − 1 c + cX 2 − 1⎤ ⎡ Y1 Y2 ⎤ Definición 4.3.


= ⎢ ⎥ + ⎢ ⎥
⎣ c + cX 3 − 1 c + cX 4 − 1⎦ ⎣Y3 Y4 ⎦ Sean K un cuerpo y V un espacio vectorial sobre K. Sea S un subconjunto de
⎡ c + cX1 − 1 + Y1 + 1 c + cX 2 − 1 + Y2 + 1⎤ V. Se define como familia de subespacios que contienen a S y se denota por
= ⎢ ⎥ F(S) a la clase de conjuntos formado por todos los subespacios que contienen a
⎣c + cX 3 − 1 + Y3 + 1 c + cX 4 − 1 + Y4 + 1⎦ S, es decir, W∈F(S) si y sólo si W es un subespacio de V y S ⊆ W.
⎡ c + cX1 + Y1 c + cX 2 + Y2 ⎤ Gráficamente se puede apreciar en la figura 4.1.
= ⎢ ⎥ ∈W
⎣c + cX 3 + Y3 c + cX 4 + Y4 ⎦

ya que como α y β son simétricas, es decir, X2 = X3 y Y2 = Y3


entonces c + cX2 + Y2 = c + cX3 + Y3, es decir, c•α + β es
simétrica.

Teorema 4.4.

Sean K un cuerpo y V un espacio vectorial sobre K. Si W1 y W2 son


subespacios de V entonces W1 ∩ W2 es un subespacio de V.

Demostración
Figura 4.1.
Como W1 y W2 contienen a θ entonces W1 ∩ W2 ≠ ∅. Sean α, β ∈ W1 ∩ W2.
Luego, como W1 y W2 son subespacios de V entonces α + β ∈ W1 y

141 142
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Observación: Demostración

F(S) ≠ ∅ ya que V∈F(S); esto porque V es un subespacio trivial que n

evidentemente contiene a S. Sea W = { ∑c


i =1
i • α i ; n ∈ℵ*, ci ∈ K, αi ∈ S, i = 1, 2, …, n}

4.4. COMBINACIÓN LINEAL.


Veamos que [S] = W.
Definición 4.4.
Sean α1, α2, …, αn ∈ S y c1, c2, …, cn ∈ K. Luego,
Sean K un cuerpo y V un espacio vectorial sobre K. Sean α1, α2, …, αn ∈ V.
Un vector α ∈ V se dice que es una combinación lineal de los vectores α1, α1, α2, …, αn ∈ [S] y c1•α1, c2•α2, …, cn•αn ∈ [S], por consiguiente
n
α2, …, αn si existen escalares c1, c2, …, cn ∈ K tales que:
∑c α
i =1
i i ∈ [S]
n
α= ∑c • α
i =1
i i
Por lo tanto, W ⊆ [S] (1).

Ejemplo 4.10. Es claro que S ⊆ W ya que si α ∈ S entonces α = 1•α ∈ W.


Veamos que W es un subespacio de V.
⎡ 4⎤ ⎡ −1 ⎤ ⎡ 2⎤
Sea V=ℜ2. α = ⎢ ⎥ es combinación lineal de β = ⎢ ⎥ y δ = ⎢ ⎥ ya que n m
⎣0⎦ ⎣ 3⎦ ⎣ − 2⎦ Sean α, β ∈ W y c ∈ K. Entonces α = ∑c • α i i , β= ∑d j • β j , ci ∈ K,
α = 2•β + 3•δ. i =1 j=1

αi ∈ S, i = 1, 2, …, n, dj ∈ K, βj ∈ S, j = 1, 2, …, m.
Definición 4.5.
En consecuencia,
Sean K un cuerpo y V un espacio vectorial sobre K. Sea S un subconjunto de
V. Se define como subespacio generado por S y se denota por [S] al conjunto: n m n m
(c•α + β) = (c• ∑c i • αi + ∑d j • βj ) = ( ∑ (cc ) • α i i + ∑d j • β j ) ∈ W.
[S] = I W i =1 j=1 i =1 j=1

W∈F (S)
Esto significa que W es un subespacio de V tal que S ⊆ W y por consiguiente
Observaciones: [S] ⊆ W (2).

1. [S] es el menor subespacio o subespacio más pequeño que contiene Finalmente, por (1) y (2) se deduce que W = [S].
a S, es decir, verifica las siguientes condiciones:
1.1. S ⊆ [S] Ejemplo 4.11.
1.2. Si U es un subespacio de V tal que S ⊆ U entonces
[S] ⊆ U. ⎡ 1⎤ ⎡ 2⎤
⎢ ⎥ ⎢ ⎥
2. [∅] = {θ}. Sean V = ℜ3 y S = { α1 = ⎢ 0⎥ , α 2 = ⎢3⎥ }. Determinemos explícitamente
⎢⎣ − 1 ⎥⎦ ⎢⎣5⎥⎦
Teorema 4.6.
[S].
Sean K un cuerpo y V un espacio vectorial sobre K. Si S es un subconjunto no
vacío de V entonces [S] es el conjunto formado por todas las combinaciones ⎡a ⎤
finitas de elementos de S, es decir, α ∈ [S] si y sólo si existen n ∈ ℵ*, vectores ⎢ ⎥
α = ⎢b⎥ ∈ [S] si y sólo si existen escalares c1, c2 ∈ ℜ tales que:
α1, α2, …, αn ∈ S y escalares c1, c2, …, cn ∈ K tales que: ⎢⎣ c ⎥⎦
n α = c1•α1 + c2•α2
α= ∑c • α
i =1
i i
Luego,

143 144
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡a ⎤ ⎡ 1⎤ ⎡ 2⎤ ⎡ c1 ⎤ ⎡ 2c 2 ⎤ ⎡ c1 + 2c 2 ⎤ Demostración
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥b = c1 • ⎢ ⎥ 0 + c2 • 3
⎢ ⎥ = ⎢ 0 ⎥ + 3c
⎢ 2⎥ = ⎢ 3c 2 ⎥ 1. Por el teorema anterior [S2] es el conjunto formado por todas las
⎢⎣ c ⎥⎦ ⎢⎣ −1⎥⎦ ⎢⎣5⎥⎦ ⎢⎣− c1 ⎥⎦ ⎢⎣5c 2 ⎥⎦ ⎢⎣− c1 + 5c 2 ⎥⎦ combinaciones finitas de elementos de S2, es decir, β ∈ [S2] si y
sólo si existen n ∈ ℵ*, vectores β1, β2, …, βn ∈ S2 y escalares c1,
Esto es equivalente a resolver el sistema de ecuaciones lineales: c2, …, cn ∈ K tales que:

n
⎡ 1 2 a⎤ ⎡1 2 a ⎤
⎧ c1 + 2c 2 = a
⎪ ⎢ ⎥ ⎢ ⎥
β= ∑c • β i i
⎨ 3c 2 = b ⎢ 0 3 b ⎥3r → r3 + r1 ⎢0 3 b ⎥ i =1
⎪− c + 5c = c ⎢− 1 5 c ⎥ ⎢0 7 a + c ⎥
⎩ 1 2 ⎣ ⎦ ⎣ ⎦ A su vez, [S1] es el conjunto formado por todas las combinaciones
⎡ 3a − 2b ⎤ finitas de elementos de S1. Luego, como S1 ⊆ S2 entonces δ ∈ [S1]
⎡1 2 a ⎤ ⎢ 3 ⎥ si y sólo si δ se puede expresar como combinación lineal de los
⎢1 0 ⎥
1 ⎢ b ⎥ r1 → r1 − 2r2 ⎢ b ⎥
vectores β1, β2, …, βm ∈ S2, m < n, es decir,
r2 → r2 ⎢0 1 ⎥ r → r − 7r 0 1
3 ⎢ 3 ⎥ 3 3 2⎢ 3 ⎥
0 7a+c ⎢0 0 3a + 3c − 7 b ⎥ m
⎣ ⎦

⎣ 3


δ= ∑c
i =1
i • βi

3a + 3c − 7b
Este sistema es consistente si y sólo si = 0, es decir,
3 Y además se cumple que:
3a + 3c – 7b = 0. Luego,
m n n

⎡a ⎤
δ= ∑c
i =1
i • βi + ∑0 • β = ∑c
i = m +1
i
i =1
i • βi ; con cm+1 = cm+2 = … = cn = 0
⎢ ⎥ Por consiguiente, δ ∈ [S2] y se cumple que [S1] ⊆ [S2].
[S] = { ⎢b⎥ ∈ ℜ3: 3a + 3c – 7b = 0}
⎢⎣ c ⎥⎦
2. S1 – {α} ⊆ S1. Luego, por el apartado anterior [S1 – {α}] ⊆ [S1]
(3). Por hipótesis α ∈ S1 y α ∈ [S1 – {α}]. Luego, α ∈ [S1]. Por lo
3a + 3c – 7b = 0 ⇒ 3a = 7b – 3c ⇒ a = 7 b − c tanto, [S1] ⊆ [S1 – {α}] (4). Por (3) y (4) se cumple que [S1] = [S1
3
– {α}].
Luego,
4.5. INDEPENDENCIA Y DEPENDENCIA LINEAL.
⎡a ⎤ ⎡ 7 3 b − c⎤ ⎡7 ⎤ ⎡− 1⎤
⎢ ⎥ ⎢ ⎥ ⎢ 3⎥ ⎢ ⎥
⎢ ⎥b = ⎢ b ⎥ = b • ⎢ 1 ⎥ + c • ⎢0⎥
Definición 4.6.
⎢ ⎥ ⎢ ⎥
⎣⎢ c ⎦⎥ ⎣⎢ c ⎦⎥ 0
⎣⎢ ⎦⎥ ⎣⎢ 1 ⎦⎥ Sean K un cuerpo y V un espacio vectorial sobre K. Sea S un subconjunto de
V. Se dice que S es linealmente dependiente (L.D.) si existe un subconjunto
De manera que [S] también se puede escribir como: finito {α1, α2, …, αn} de S formado por vectores distintos y escalares c1, c2, …,
cn ∈ K no todos iguales a cero tales que:
⎡a ⎤ ⎡a ⎤ ⎡7 ⎤ ⎡− 1⎤
⎢ ⎥ ⎢ ⎥ ⎢ 3⎥ ⎢ ⎥
n
[S] = { ⎢b⎥ ∈ ℜ3: ⎢ ⎥b = b • ⎢ 1 ⎥ + c • ⎢ 0 ⎥ ; b, c∈ℜ} ∑c i • αi = θ
⎢⎣ c ⎥⎦ ⎢⎣ c ⎥⎦ ⎢0⎥ ⎢⎣ 1 ⎥⎦ i =1
⎣⎢ ⎦⎥
La igualdad anterior se dice que es una relación lineal entre los vectores α1, α2,
Teorema 4.7. …, αn. En este caso se dice también que los vectores α1, α2, …, αn son
linealmente dependientes (L.D.).
Sean K un cuerpo y V un espacio vectorial sobre K. Sean S1 y S2 subconjuntos
de V y α ∈ S1. Se dice que S es linealmente independiente (L.I.) si S no es L.D. En este caso
se dice también que los vectores α1, α2, …, αn son linealmente independientes
1. Si S1 ⊆ S2 entonces [S1] ⊆ [S2]. (L.I.).
2. Si α ∈ [S1 – {α}] entonces [S1] = [S1 – {α}]

145 146
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Observaciones: ⎡1⎤ ⎡ −1⎤ ⎡2⎤ ⎡0⎤ ⎡ c1 − c2 + 2c3 ⎤ ⎡0⎤


⎢⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
1. S es L.I. si y sólo si para cualquier subconjunto finito c1 • α + c2 • β + c3 • δ = θ ⇒ c1 • ⎢1⎥ + c2 • ⎢ 2⎥ + c3 • ⎢8⎥ = ⎢0⎥ ⇒ ⎢ c1 + 2c2 + 8c3 ⎥ = ⎢0⎥
{α1, α2, …, αn} de S formado por vectores distintos y escalares ⎢⎣3⎥⎦ ⎢⎣− 2⎥⎦ ⎢⎣8⎥⎦ ⎢⎣0⎥⎦ ⎢⎣3c1 − 2c2 + 8c3 ⎥⎦ ⎢⎣0⎥⎦
n
c1, c2, …, cn ∈ K se tiene que la relación lineal ∑c i • αi = θ ⎧ c1 − c 2 + 2c3 = 0

⎡1 −1

2⎤ ⎡ c1 ⎤ ⎡0⎤
⎥⎢ ⎥ ⎢ ⎥
i =1 ⇒ ⎨ c1 + 2c 2 + 8c3 = 0 ⇒ ⎢1 2 8 ⎥ ⎢c 2 ⎥ = ⎢0 ⎥
implica que c1 = c2 = … = cn = 0. ⎪3c − 2c + 8c = 0 ⎢3 − 2 8 ⎥⎦ ⎢⎣c3 ⎥⎦ ⎢⎣0⎥⎦
2. ∅ es L.I. ⎩ 1 2 3 ⎣
⎡1 − 1 2 0⎤ r → r − r ⎡1 − 1 2 0⎤ 1
⎡1 − 1 2 0⎤ ⎡1 −1 2 0⎤
⎢ ⎥ ⎯⎯ 2
⎯ ⎯→ ⎢
2 1
⎥ r2 → r2 + 3 r2 ⎢ ⎥ 3 → r3 − r3 ⎢ ⎥
Ejemplo 4.12. ⎢1 2 8 0⎥ r → r −3r ⎢0 3 6 0⎥ ⎯⎯ ⎯ ⎯ ⎯→ ⎢0 1 2 0⎥ ⎯r⎯ ⎯⎯→⎢0 1 2 0⎥
⎢3 − 2 ⎯⎯3

3
⎯ 1

⎡ 2⎤ ⎡ −6 ⎤ ⎣ 8 0⎥⎦ ⎢0
⎣ 1 2 0⎥⎦ ⎢0
⎣ 1 2 0⎥⎦ ⎢0
⎣ 0 0 0⎥⎦
⎢ ⎥ ⎢ ⎥ ⇒ c2 + 2c3 = 0 y c1 – c2 + 2c3 = 0.
− 1 3
Sea V=ℜ4. Los vectores α = ⎢ ⎥ y β = ⎢ ⎥ son L.D., ya que: ⇒ c2 = –2c3 y c1 – c2 + 2c3 = 0.
⎢ 0⎥ ⎢ 0⎥
⎢ ⎥ ⎢ ⎥ ⇒ c2 = –2c3 y c1 – (–2c3) + 2c3 = 0.
⎢⎣ 3⎥⎦ ⎢⎣ − 9 ⎥⎦ ⇒ c2 = –2c3 y c1 + 2c3 + 2c3 = 0.
⇒ c2 = –2c3 y c1 = –4c3.
3• α + β = θ .
1
Ejemplo 4.13. Si se elige arbitrariamente c3 = entonces c1 = –2 y c2 = –1. Luego, existen
2
escalares c1, c2, c3 no todos iguales a cero tales que c1 • α + c 2 • β + c 3 • δ = θ .
⎡1 ⎤ ⎡ 2⎤
⎢ ⎥ ⎢ ⎥
Sea V=ℜ3. Los vectores α = ⎢2⎥ y β = ⎢ 5⎥ son L.I., ya que: Ejemplo 4.15.
⎢⎣4⎥⎦ ⎢⎣ − 3 ⎥⎦
Sea V = P2. Los polinomios p1(x) = 1, p2(x) = x, p3(x) = x2 son L.I. ya que:

⎡1⎤ ⎡ 2⎤ ⎡0⎤ ⎡ c ⎤ ⎡ 2d ⎤ ⎡0⎤ ⎡ c + 2d ⎤ ⎡0⎤ a•p1 + b•p2 + c•p3 = 0 ⇒ a.1+ b.x + c.x2 = 0 ⇒ a + bx + cx2 = 0 ⇒ a = b = c =
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
c • α + d • β = θ ⇒ c • ⎢2⎥ + d • ⎢ 5⎥ = ⎢0⎥ ⇒ ⎢2c⎥ + ⎢ 5d ⎥ = ⎢0⎥ ⇒ ⎢2c + 5d⎥ = ⎢0⎥ 0.
⎢⎣4⎥⎦ ⎢⎣ − 3⎥⎦ ⎢⎣0⎥⎦ ⎢⎣4c⎥⎦ ⎢⎣− 3d⎥⎦ ⎢⎣0⎥⎦ ⎢⎣4c − 3d⎥⎦ ⎢⎣0⎥⎦
Ejemplo 4.16.

⎧ c + 2d = 0 ⎡1 2⎤ ⎡0 ⎤ Sean V = ℜn y B = {e1, e2, …, en} un subconjunto de V, siendo:


⎪ ⎢ ⎥ ⎡c ⎤ ⎢ ⎥
⇒ ⎨2c + 5d = 0 ⇒ ⎢2 5 ⎥ ⎢ ⎥ = ⎢0 ⎥
⎪4c − 3d = 0 ⎢4 − 3 ⎥ ⎣d ⎦ ⎢0⎥ ⎡0 ⎤
⎩ ⎣ ⎦ ⎣ ⎦ ⎢ ⎥
⎢M⎥
⎡1 2 0⎤ r →r − 2 r ⎡1 2 0⎤ ⎡1 2 0⎤ ⎡1 0 0⎤ e = ⎢1⎥ ← j - ésima coordenada
j
⎢ ⎥ ⎯⎯
2
⎯2
⎯1 → ⎢ ⎥ r3 →r3 +11r2 ⎢ ⎥ r1 → r1 − 2 r2 ⎢ ⎥ ⎢ ⎥
⎢ 2 5 0 ⎥ r3 →r3 − 4 r1 ⎢0 1 0 ⎥ ⎯⎯ ⎯ ⎯⎯ → ⎢ 0 1 0 ⎥ ⎯⎯ ⎯ ⎯ → ⎢0 1 0 ⎥ ⎢M⎥
⎢4 − 3 0⎥ ⎯⎯⎯⎯→ ⎢0 − 11 0⎥ ⎢0 0 0 ⎥ ⎢0 0 0 ⎥ ⎢0 ⎥
⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

⇒ c = d = 0. Veamos que B es L.I.

Ejemplo 4.14. Verifiquemos que para cualesquiera escalares c1, c2, …, cn ∈ K se tiene que la
igualdad c1•e1 + c2•e2 + … + cn•en = θ implica que c1 = c2 = … = cn = 0.
⎡1⎤ ⎡ −1 ⎤ ⎡ 2⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ En efecto,
Sea V=ℜ3. Los vectores α = ⎢1⎥ , β = ⎢ 2⎥ y δ = ⎢8 ⎥ son L.D., ya que:
⎣⎢3⎦⎥ ⎣⎢ − 2 ⎦⎥ ⎣⎢8 ⎦⎥

147 148
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡1⎤ ⎡0 ⎤ ⎡0 ⎤ entonces existen escalares c1, c2, …, cm ∈ K no todos iguales a cero


⎢ ⎥ ⎢ ⎥ ⎢ ⎥ m
0
⎢M ⎥
1
⎢M ⎥
0
c1•e1 + c2•e2 + … + cn•en = c1• ⎢ ⎥ + c2• ⎢ ⎥ + … + cn• ⎢ ⎥
⎢M ⎥
tales que ∑c
i =1
i • α i = θ . Por consiguiente, S2 es L.D.
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣⎢0⎦⎥ ⎣⎢0⎦⎥ ⎣⎢1⎦⎥ 3. Supongamos que S1 = {α1, α2, …, αn}, con αi ≠ αj; i ≠ j; i,
j = 1, 2, …, n. Por hipótesis, S1 es L.D., es decir, existen escalares
⎡c1 ⎤ ⎡0⎤ ⎡0⎤ ⎡ c1 ⎤ ⎡0 ⎤ n

=
⎢ ⎥
⎢ 0⎥
⎢ ⎥
c
+ ⎢ 2⎥ + … +
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 0 ⎥ = ⎢ c 2 ⎥ = ⎢0 ⎥
c1, c2, …, cn ∈ K no todos iguales a cero tales que ∑c
i =1
i • αi = θ .
⎢M⎥ ⎢M⎥ ⎢M⎥ ⎢M⎥ ⎢M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Supongamos, sin pérdida de generalidad que los primeros m
⎣⎢ 0 ⎦⎥ ⎣⎢ 0 ⎦⎥ ⎣⎢c n ⎦⎥ ⎢⎣c n ⎥⎦ ⎣⎢0⎦⎥ escalares son no nulos y que los últimos n–m escalares son nulos.
n

Esto implica que c1 = c2 = … = cn = 0 por lo cual B es L.I.


Consideremos la relación lineal ∑c
i =1
i • α i = θ . Esta relación se

m n
Teorema 4.8. puede escribir como ∑c • α + ∑c • α
i =1
i i
i = m +1
i i =θ. Como
Sean K un cuerpo y V un espacio vectorial sobre K. Sean S1 y S2 subconjuntos cm+1 = cm+2 = … = cn = 0 entonces la relación anterior concluye en
de V y α ∈ V. que existen escalares no nulos c1, c2, …, cm tales que
m
1. Si S1 ⊆ S2 y S2 es L.I. entonces S1 es L.I. ∑c i • α i = θ , es decir, el conjunto {α1, α2, …, αm} es L.D. Ahora
2. Si S1 ⊆ S2 y S1 es L.D. entonces S2 es L.D. i =1

3. Si S1 es L.D. entonces existe un subconjunto S3 de V con S3 ⊆ S1 tal bien, un conjunto formado por un vector no nulo es L.I. ya que
que S3 es L.I. c•α = θ implica que c = 0. Al unir cualquiera de estos m vectores,
4. Si θ ∈ S1 entonces S1 es L.D. digamos el vector αm, con los n–m vectores restantes
5. {α} es L.I. si y sólo si α ≠ θ. αm+1, αm+2, …, αn se obtiene el conjunto de n–m+1 vectores
n

Demostración S3 = {αm, αm+1, …, αn} tales que la relación lineal ∑c


i=m
i • αi = θ

1. Supongamos que S2 = {α1, α2, …, αn}, con αi ≠ αj; i ≠ j; i, implica que cm = cm+1 = … = cn = 0. En consecuencia, existe un
j = 1, 2, …, n. Por hipótesis, S2 es L.I., es decir, para escalares subconjunto S3 de V con S3 ⊆ S1 tal que S3 es L.I. Nótese que si a
n S3 se le agrega alguno de los vectores α1, α2, …, αm-1 se obtiene un
c1, c2, …, cn ∈ K se tiene que la relación lineal ∑c i • αi = θ conjunto L.D.
i =1 4. Por hipótesis θ ∈ S1. Sea {θ, α} un subconjunto finito de S1 con α
implica que c1 = c2 = … = cn = 0. Como S1 ⊆ S2 entonces, de S2 ≠ θ. Luego existen escalares c1 = 1 y c2 = 0 tales que
existen sin pérdida de generalidad vectores α1, α2, …, αm, (m < n), 1•θ + 0•α = θ. Por consiguiente S1 es L.D.
tales que S1 = {α1, α2, …, αm}. Consideremos la relación lineal 5. CN(⇒):Si {α} es L.I. entonces α ≠ θ.
m

∑c
i =1
i • αi = θ . Dicha relación se puede escribir como Utilicemos reducción al absurdo. Supongamos que α = θ. Luego
{α} es L.D. ya que {α} = {θ} lo cual es una contradicción ya que
m n n

∑c
i =1
i • αi + ∑0 • α
i = m +1
i = θ , es decir, ∑c
i =1
i • α i = θ la cual implica por hipótesis {α} es L.I.

por hipótesis que c1 = c2 = … = cn = 0. En consecuencia, CS(⇐):Si α ≠ θ entonces {α} es L.I.


c1 = c2 = … = cm = 0, es decir, S1 es L.I.
2. Supongamos que S1 = {α1, α2, …, αn}, con αi ≠ αj; i ≠ j; i, Utilicemos el método contrarecíproco, es decir, probemos que si
j = 1, 2, …, n. Por hipótesis, S1 es L.D., es decir, existen escalares {α} es L.D. entonces α = θ.. Si {α} es L.D. entonces existe un
n escalar c ≠ 0 tal que cα = θ. En ese caso se cumple α = θ.
c1, c2, …, cn ∈ K no todos iguales a cero tales que ∑c
i =1
i • αi = θ .
Teorema 4.9.
Como S1 ⊆ S2 entonces, existen vectores αn+1, αn+2, …, αm, (n < m),
tales que S2 = {α1, α2, …, αm}. Consideremos la relación lineal Sean K un cuerpo y V un espacio vectorial sobre K. Sea S = {α1, α2, …, αn}
m un subconjunto de V. S es L.D. si y sólo si existe j ∈ ℵ, 1 ≤ j ≤ n tal que
∑c • α
i =1
i i = θ . Luego, si se fija previamente cn+1 = cn+2 = … = cm= 0 αj ∈ [S – {αj}].

149 150
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Demostración 1
− 2•α = β− •δ
2
CN(⇒): Si S es L.D. entonces existe j ∈ ℵ, 1 ≤ j ≤ n tal que αj ∈ [S – {αj}].
1 1
⇒ α = − β+ •δ
Por hipótesis existen escalares c1, c2, …, cn ∈ K no todos iguales a cero tal que: 2 4

n Por lo tanto, α es combinación lineal de β y δ, es decir, α ∈ [{β, δ}]


∑c
i =1
i • αi = θ
Teorema 4.10.

Sea j ∈ ℵ, 1 ≤ j ≤ n tal que cj ≠ 0. Luego, Sean el espacio vectorial V = ℜn, A∈Mnxn(ℜ) y B = {A1, A2, …, An}⊆V. B es
L.I. si y sólo si A es no singular.
j−1 n

∑c • α
i =1
i i + cj •αj + ∑c • α
i = j+1
i i =θ Demostración

CN(⇒): Si B es L.I. entonces A es no singular.


j−1 n
⇒ cj •αj = − ∑c • α − ∑c • α
i =1
i i
i = j+1
i i Si B es L.I. entonces para cualesquiera escalares c1, c2, …, cn ∈ K se tiene que
n
c

⇒ α j = −( ( i ) • α i +
j−1
n
c
( i ) • αi ) ∑
la relación lineal ∑c • A
j=1
j
j
= θ nx1 implica que c1 = c2 = … = cn = 0. Esto
i =1 c j i = j+1 c j
indica que:
⇒ αj ∈ [S – {αj}]
c1•A1 + c2•A2 + … + cn•An = θnx1 ⇒ c1 = c2 = … = cn = 0, es decir,
CS(⇐): Si existe j ∈ ℵ, 1 ≤ j ≤ n tal que αj ∈ [S – {αj}] entonces S es L.D.
⎡ c1 ⎤ ⎡0⎤ ⎡ c1 ⎤ ⎡0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Por hipótesis, existen escalares c1, c2, …, cj-1, cj+1, …, cn ∈ K tales que:
[A1
A2
c
] 0 c
⎢ M ⎥ ⎢M⎥ ⎢ M ⎥ ⎢M⎥
0
L A n ⎢ 2 ⎥ = ⎢ ⎥ ⇒ ⎢ 2 ⎥ = ⎢ ⎥ , es decir,
j−1 n ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
αj = ∑c • α + ∑c • α
i =1
i i
i = j+1
i i
⎢⎣c n ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣c n ⎥⎦ ⎢⎣0⎥⎦
⎡ c1 ⎤
j−1 n ⎢ ⎥
⇒ ∑c • α
i =1
i i + (−1) • α j + ∑c • α
i = j+1
i i =θ c
AX = θ nx1 ⇒ X = θ nx1 ; siendo X = ⎢ 2 ⎥
⎢M⎥
⎢ ⎥
⎢⎣c n ⎥⎦
Por consiguiente, existen escalares c1, c2, …, cn ∈ K no todos iguales a cero
n
(al menos cj = (-1)) tal que ∑c • α
i =1
i i = θ . Luego, S es L.D. Por lo tanto el SEL AX = θ nx1 tiene como única solución la solución trivial lo
cual implica que A es no singular.

Ejemplo 4.17. CS(⇐): Si A es no singular entonces B es L.I.

⎡1⎤ ⎡ −1 ⎤ ⎡2⎤ Si A es no singular entonces el SEL AX = θ nx1 tiene como única solución la
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
En relación al ejemplo 4.12., los vectores α = ⎢1⎥ , β = ⎢ 2⎥ y δ = ⎢8 ⎥ son solución trivial. Luego,
⎢⎣3⎥⎦ ⎢⎣ − 2 ⎥⎦ ⎢⎣8 ⎥⎦ ⎡ c1 ⎤
⎢ ⎥
L.D., ya que existen escalares c1, c2, c3 no todos iguales a cero c
AX = θ nx1 ⇒ X = θ nx1 ; siendo X = ⎢ 2 ⎥ , es decir,
1 ⎢M⎥
(c1 = –2, c2 = –1, c3 = ) tales que c1 • α + c 2 • β + c 3 • δ = θ , es decir, ⎢ ⎥
⎣⎢c n ⎦⎥
2
1
− 2 • α + (−1) • β + • δ = θ . Luego,
2

151 152
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ c1 ⎤ ⎡0⎤ ⎡ c1 ⎤ ⎡0⎤ Teorema 4.11.


⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[A 1
A2
c
] 0 c
⎢ M ⎥ ⎢M⎥ ⎢ M ⎥ ⎢M⎥
0
L A n ⎢ 2 ⎥ = ⎢ ⎥ ⇒ ⎢ 2 ⎥ = ⎢ ⎥ , es decir, Sean K un cuerpo y V un espacio vectorial sobre K finito dimensional con
V ≠ {θ}. Si S es un conjunto de generadores finito de V entonces existe un
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣c n ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣c n ⎥⎦ ⎢⎣0⎥⎦ subconjunto B de S L.I. tal que B es un conjunto de generadores de V.

Demostración
c1•A1 + c2•A2 + … + cn•An = θ ⇒ c1 = c2 = … = cn = 0
Sea S = {α1, α2, …, αn} un conjunto de generadores de V, es decir, [S] = V.
Por consiguiente, B es L.I.
Como V ≠ {θ} existe algún j, tal que αj ≠ θ. Si S es L.I. entonces el teorema
esta demostrado. Si S es L.D. entonces existe p tal que αp ∈ [S – {αp}]. Luego,
Observaciones:
[S – {αp}] = V.
1. Sean el espacio vectorial V = ℜn, A∈Mnxn(ℜ) y B = {A1, A2, …, An}⊆V.
Repitiendo este proceso a lo sumo n-1 veces se obtiene un subconjunto B de S
L.I. tal que [B] = V, ya que un conjunto formado por un solo vector no nulo es
1.1. B es L.I. si y sólo si Det(A) ≠ 0.
L.I.
1.2. B es L.I. si y sólo si Rango(A) = n.
Definición 4.8.
2. B es L.D. si y sólo si A no es invertible (singular). Por el teorema 4.8.,
apartado 3, B es L.D., si y sólo si existen r columnas de A A1, A2, …, Ar
Sean K un cuerpo y V un espacio vectorial sobre K. Un subconjunto B de V se
tales que el conjunto C = {A1, A2, …, Ar} es L.I.
dice que es una base de V si B es L.I. y B es un conjunto de generadores de V.
3. Si A es no singular entonces At es no singular y (At)-1 = (A-1)t. Luego, A
Observaciones:
es no singular si y sólo si sus filas son vectores L.I.
1. V es finito dimensional si y sólo si V tiene una base finita.
4. El Rango de A es el número máximo de filas o columnas de A L.I.
2. Sea V un espacio vectorial finito dimensional. Si S es un conjunto
de generadores finito de V entonces existe una base B de V tal que
4.6. BASES.
B ⊆ S.
Definición 4.7.
Ejemplo 4.20.
Sean K un cuerpo y V un espacio vectorial sobre K. Un subconjunto S de V se
dice que es un conjunto de generadores de V si [S] = V. Si V tiene un conjunto Sean V = ℜn y B = {e1, e2, …, en}. B es L.I. y es también un conjunto de
de generadores finito entonces V se dice que es un espacio finito-dimensional generadores de V. Por consiguiente B es una base de V. Este conjunto
o finitamente generado. B = {e1, e2, …, en} se conoce como la base canónica de V = ℜn.

Ejemplo 4.18. Teorema 4.12.

Si V = {θ} entonces V es finito dimensional ya que [∅] = V. Sean K un cuerpo, V un espacio vectorial sobre K, B = {α1, α2,…, αn} un
subconjunto de V y α ∈ V. Si B es una base de V entonces existe un conjunto
n
Ejemplo 4.19.
único de escalares c1, c2, …, cn ∈ K tales que α = ∑c
i =1
i • αi .
Sea V = ℜn. Veamos que B = {e1, e2, …, en} es un conjunto de generadores de
V. Demostración

Como B es una base de V entonces B es un conjunto de generadores de V. Por


⎡ X1 ⎤ ⎡1⎤ ⎡ 0⎤ ⎡0 ⎤ consiguiente, existe al menos un conjunto de escalares c1, c2, …, cn ∈ K tales
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ X2 ⎥ ⎢ 0⎥ ⎢ 1⎥ 0 n
+ ... + X n • ⎢ ⎥ , es decir,
Sea α =
⎢ M ⎥
∈ V. En efecto, α = X1 •
⎢M⎥
+ X2 •
⎢M⎥ ⎢M⎥ que α = ∑c i • α i . Supongamos que α se puede escribir de 2 maneras
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ i =1

⎣⎢X n ⎦⎥ ⎣⎢0⎦⎥ ⎣⎢0⎦⎥ ⎣⎢1⎦⎥ distintas como una combinación lineal de los vectores de la base, es decir:

α = X1•e1 + X2•e2 + … + Xn•en. Luego, [B] = V y V es finito dimensional. n n


α= ∑c
i =1
i • αi = ∑d
i =1
i • αi

153 154
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Restando se obtiene que: Demostración

n 1. Sea B = {α1, α2,…, αn} una base de V y supongamos que


α= ∑ (c − d ) • α
i =1
i i i =θ S = {β1, β2,…, βm}. Utilicemos reducción al absurdo. Supongamos
que m > n. Como B es una base de V cada uno de los vectores de S
se pueden expresar como combinación lineal de α1, α2,…, αn, es
Como B es L.I. entonces (ci – di) = 0, ∀ i = 1, 2, …, n, es decir, ci = di decir:
∀ i = 1, 2, …, n. Por consiguiente, existen únicos escalares c1, c2, …, cn ∈ K
β1 = c11 • α1 + c12 • α 2 + ... + c1n • α n
n
tales que α = ∑c
i =1
i • αi . β 2 = c 21 • α1 + c 22 • α 2 + ... + c 2 n • α n
M
β m = c m1 • α1 + c m 2 • α 2 + ... + c mn • α n
Teorema 4.13.

Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional y B1, B2 Consideremos la expresión c1•β1 + c2•β2 + … + cm•βm = θ.
subconjuntos de V. Si B1 y B2 son bases de V entonces B1 y B2 son finitas y
tienen el mismo número de vectores. Luego,

Demostración n n n
c1 • ∑c
j=1
1j • α j + c2 • ∑c j=1
2j • α j + ... + c m • ∑c
j=1
mj •αj = θ
Si V = {θ} entonces el resultado es inmediato ya que la única base es el
conjunto vacío.
Esta ecuación se puede escribir como:
Supongamos que V ≠ {θ}. Sea B1 = {α1, α2,…, αn} una base de V. Veamos
m m m
que B2 es finita y tiene n vectores. Verifiquemos que B2 no puede tener más de
n vectores. Utilicemos reducción al absurdo. Supongamos que B2 contiene mas
( ∑ c c ) • α + (∑ c
i =1
i1 i 1
i =1
i 2ci ) • α 2 + ... + ( ∑c
i =1
in c i ) • α n =θ
de n vectores. Entonces existen β1, β2, …, βn+1 ∈ B2. Ahora bien,
{β1, β2, …, βn+1} ⊆ V = [B1] y por lo tanto B2 es L.D. lo cual es una
Como B = {α1, α2,…, αn} es una base de V entonces B es L.I. Por
contradicción. Sea B2 = {β1, β2, …, βp}, con p ≤ n (5). Por otra parte, consiguiente,
B1 ⊆ V = [B2], lo cual implica que n ≤ p, es decir, p ≥ n (6). Por (5) y (6) se
tiene que n = p.
⎧ c11c1 + c 21c 2 + ... + c m1c m = 0

Definición 4.9. ⎪c12 c1 + c 22c 2 + ... + c m 2 c m = 0

⎪ M
Sean K un cuerpo, V un espacio vectorial sobre K y B una base de V. Se ⎪c1n c1 + c 2 n c 2 + ... + c mn c m = 0
define como Dimensión de V y se denota por Dim(V) al número de vectores de ⎩
cualquier base de V.
El SEL anterior es un SEL homogéneo de n ecuaciones con m
Ejemplo 4.21. incógnitas. Como m > n, es decir, n < m entonces el SEL
homogéneo tiene infinitas soluciones. Luego, existen escalares
En el ejemplo 4.16., Dim(V) = n. c1, c2, …, cm ∈ K no todos iguales a cero tales que
c1•β1 + c2•β2 + … + cm•βm = θ, es decir, S es L.D. lo cual es una
Teorema 4.14. contradicción.

Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional con 2. Supongamos que S = {β1, β2,…, βm}. Si S es L.I. entonces forman
Dim(V) = n y S un subconjunto de V. una base de V y Dim(V) = m = n. Si S no es L.I. entonces es L.D. y
por el teorema 4.9. al menos uno de ellos se puede escribir como
1. Si S es un subconjunto L.I. de V y esta formado por m vectores combinación lineal de los vectores restantes. Eliminemos este
entonces m ≤ n. vector y apliquemos este proceso hasta que queden p vectores L.I.
2. Si S es un conjunto de generadores de V y esta formado por m Estos en conjunto deben ser un conjunto de generadores de V por la
vectores entonces m ≥ n. forma como se eligieron. Por consiguiente, Dim(V) = p < m. En
general, Dim(V) ≤ m, es decir, n ≤ m lo cual es lo mismo que decir
m ≥ n.

155 156
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Observación: β, en el lado derecho. Pero si cn+1 = 0 entonces la ecuación anterior


se reduce a:
Nótese que si sobre ambos apartados del teorema anterior se aplica la
equivalencia contrarecíproca se obtienen los siguientes resultados: c1•α1 + c2•α2 + … + cn•αn = θ

Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional con Esto implica que c1 = c2 = … = cn = 0 ya que el conjunto formado
Dim(V) = n y S un subconjunto de V. por los vectores α1, α2,…, αn es L.I. Sea W = [S ∪{β}]. Como
α1, α2,…, αn, β están en V, W es un subespacio de V. Como
1. Si S esta formado por m vectores y m > n entonces S es un α1, α2,…, αn, β es un conjunto de vectores L.I. entonces forman una
subconjunto L.D. de V. base de W y además Dim(W) = n+1, lo cual es una contradicción
2. Si S esta formado por m vectores y m < n entonces S no es un ya que por el teorema 4.15. Dim(W) ≤ n.
conjunto de generadores de V.
2. Sean α1, α2,…, αn los n vectores que componen a S. Utilicemos
Teorema 4.15.
reducción al absurdo. Supongamos que S no es una base de V. En
ese caso, S no es L.I. Luego, por el teorema 4.14., apartado 2,
Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional con
Dim(V) < n, lo cual es una contradicción ya que por hipótesis
Dim(V) = n y W un subconjunto de V. Si W es un subespacio de V entonces
Dim(V) = n.
W es finito dimensional y además se cumple que Dim(W) ≤ Dim(V).
Ejemplo 4.22.
Demostración
En el ejemplo 4.15., {p1(x) = 1, p2(x) = x, p3(x) = x2} es una base de P2 ya que
Por el teorema 4.8., apartado 1, cualquier conjunto de vectores L.I. en W es se demostró que es un conjunto de 3 vectores L.I. Esta base se conoce como
también L.I. en V. Por el teorema 4.14., cualquier conjunto L.I. en W puede base canónica de V=P2. En general, {1, x, x2, …, xn} es la base canónica de
contener a lo sumo n vectores. Si W = {θ} entonces Dim(W) = 0. Si W ≠ {θ}, V = Pn.
sea α1 un vector en W y W1 = [W]. Si W1 = W entonces Dim(W) = 1 ≤ n y
el teorema esta demostrado. Si W1 ≠ W sea α2 ∈ W tal que α2 ∉ W1 y sea Teorema 4.17.
W2 = [W]. Así sucesivamente continuamos hasta encontrar un conjunto de
vectores L.I. {α1, α2,…, αp} tales que W = [W]. El proceso tiene que terminar Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional con
porque se pueden encontrar a lo sumo n vectores L.I. en W. Por consiguiente, Dim(V) = n y S es un subconjunto de V formado por m vectores (m<n). Si
Dim(W) = p ≤ n. S = {β1, β2,…, βm} es L.I. entonces existen vectores βm+1, βm+2,…, βn tales que
S ∪ {βm+1, βm+2,…, βn} es una base de V.
Teorema 4.16.
Demostración
Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional con
Dim(V) = n y S un subconjunto de V formado por n vectores. Como Dim(V) = n entonces V tiene por lo menos una base. Sea
B = {α1, α2,…, αn} una base de V. Como B es una base de V cada uno de los
1. Si S es L.I. entonces S es una base de V. vectores de S se pueden expresar como combinación lineal de α1, α2,…, αn, es
2. Si S es un conjunto de generadores entonces S es una base de V. decir:
Demostración
β1 = c11 • α1 + c12 • α 2 + ... + c1n • α n
1. Sean α1, α2,…, αn los n vectores que componen a S. Utilicemos β 2 = c 21 • α1 + c 22 • α 2 + ... + c 2 n • α n
reducción al absurdo. Supongamos que S no es una base de V. M
Entonces existe un vector β ∈ V tal que β ∉ [S]. Esto significa que β m = c m1 • α1 + c m 2 • α 2 + ... + c mn • α n
el conjunto formado por los n+1 vectores α1, α2,…, αn, β es L.I.
Ahora bien, observemos que la ecuación:
⎡ c1i ⎤
c1•α1 + c2•α2 + … + cn•αn +cn+1•β= θ ⎢ ⎥
c
Sea Ci = ⎢ 2i ⎥ ; i = 1, 2, …, m.
⎢ M ⎥
Implica que cn+1 = 0, ya que de lo contrario podríamos escribir a β ⎢ ⎥
como una combinación lineal de α1, α2,…, αn dividiendo la ⎣⎢c ni ⎦⎥
ecuación anterior entre cn+1 y poniendo todos los términos excepto

157 158
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Los Ci forman un conjunto L.I . en ℜn, ya que de otra manera {α1, α2,…, αn} Teorema 4.19.
no sería un conjunto L.I. Agreguemos a Ci n – m vectores que forman un
conjunto L.I. Sean estos vectores Cm+1, Cm+2, …, Cn. Luego, si: Sea A∈Mnxn(K). A es no singular si y sólo si n(A) = 0.

⎡ c1p ⎤ CN(⇒): Si A es no singular entonces n(A) = 0.


⎢ ⎥
c 2p
Cp = ⎢ ⎥ para m < p ≤ n Si A es no singular entonces el SEL homogéneo AX = θnx1 tiene como única
⎢ M ⎥
⎢ ⎥ solución la solución trivial, es decir, X = θnx1. Por consiguiente,
⎣⎢c np ⎦⎥ Dim(NA) = n(A) = 0.

CS(⇐): Si n(A) = 0 entonces A es no singular.


Se tiene que βp = cp1•α1 + cp2•α2 +…+ cpn•αn para p = m+1, m+2, …, n.
Como:
Si n(A) = 0 entonces Dim(NA) = Dim({X∈Kn: AX = θnx1 }) = 0. Esto significa
que el SEL homogéneo AX = θnx1 tiene como única solución la solución
⎡ c11 c12 L c1n ⎤ trivial, es decir, X = θnx1. Por consiguiente, A es no singular.
⎢ ⎥
c c 22 L c 2 n ⎥
Det ( ⎢ 21 )≠0
⎢ M M M ⎥ Definición 4.12.
⎢ ⎥
⎣⎢c n1 c n 2 L c nn ⎦⎥ Sea A∈Mmxn(K). Se define como imagen de A y se denota por IA al conjunto
IA = {Y∈Km: AX = Y, para algún X∈Kn}. La dimensión de IA se denota por
Entonces el conjunto {β1, β2, …, βn} es L.I. ya que consiste en n vectores que r(A).
forman un conjunto L.I. en V con Dim(V) = n. Luego, por el teorema 4.16.,
apartado 1, el conjunto {β1, β2, …, βn} forma una base para V. Observación:

4.7. ESPACIO NULO, NULIDAD, IMAGEN, ESPACIO FILA Y Rango(A) = Dim(IA) = r(A).
ESPACIO COLUMNA DE UNA MATRIZ.
Teorema 4.20.
Definición 4.10.
Sea A∈Mmxn(K). Entonces IA es es un subespacio de Km.
Sea A∈Mmxn(K). Se define como espacio nulo de A y se denota por NA al
conjunto NA = {X∈Kn: AX = θnx1 }. Demostración

Teorema 4.18. Es claro que θmx1∈IA ya que el SEL homogéneo AX = θmx1 tiene al menos la
solución trivial X = θnx1. Sean Y1, Y2∈IA y c∈K. Sólo basta probar que
Sea A∈Mmxn(K). Entonces NA es un subespacio de Kn. (cY1+Y2)∈IA. En efecto, como Y1, Y2∈IA se tiene que ∃ X1, X2∈ Kn tales que
AX1 = Y1 y AX2 = Y2 (9). Luego, cAX1 = cY1 (10). Sumando a ambos lados de
Demostración (9) y (10) se obtiene que cAX1+AX2 = cY1+Y2, es decir,
A(cX1 + X2) = cY1+Y2. Por consiguiente, ∃ X*∈ Kn; X* = cX1 + X2 tal que
Es claro que θnx1∈NA ya que Aθnx1 = θnx1. Sean X1, X2∈NA y c∈K. Sólo basta AX* = cY1+Y2. Luego, (cY1+Y2)∈IA e IA es un subespacio de Km.
probar que que (cX1+X2)∈NA. En efecto, como X1, X2∈NA se tiene que
AX1 = θnx1 y AX2 = θnx1 (7). Luego, cAX1 = cθnx1 , es decir, cAX1 = θnx1 (8). Definición 4.13.
Sumando a ambos lados de (7) y (8) se obtiene que cAX1 + AX2 = θnx1 + θnx1,
es decir, A(cX1 + X2) = θnx1. Por consiguiente, (cX1+X2)∈NA y NA es un Sean A∈Mmxn(K), (A1)t , (A2)t , …, (Am)t ∈M1xn(K) las filas de A y
subespacio de Kn. A1, A2, …, An∈Mmx1(K) las columnas de A. Se definen como espacio fila de A
y espacio columna de A y se denotan por RA y CA, respectivamente, a los
Definición 4.11. conjuntos RA = [{(A1)t , (A2)t , …, (Am)t}] y CA = [{A1, A2, …, An}].

Sea A∈Mmxn(K). Se define como nulidad de A y se denota por n(A) a la Observaciones:


dimensión de NA, es decir, n(A) = Dim(NA).
1. RA es un subespacio de Kn.
2. CA es un subespacio de Km.

159 160
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Teorema 4.21. Demostración

Sea A∈Mmxn(K). Entonces CA = IA. Supongamos que Dim(RA) = p. Sea S = {α1, α2, …, αp} una base para RA.
Nótese que αi∈Kn. Luego, cada fila de A se puede expresar como una
Demostración combinación lineal de los vectores de S, es decir, existen escalares cij;
i = 1, 2, …, m; j = 1, 2, …, p tales que:
Supongamos que Y∈IA. Entonces, ∃ X∈Kn: AX = Y. Luego,
(A1 ) t = c11 • α1 + c12 • α 2 + ... + c1p • α p
⎡ X1 ⎤ (A 2 ) t = c 21 • α1 + c 22 • α 2 + ... + c 2 p • α p
⎢ ⎥ (13)
[A1
A 2
L A ]
n ⎢X 2 ⎥
⎢ M ⎥
=Y M
⎢ ⎥ (A m ) t = c m1 • α1 + c m 2 • α 2 + ... + c mp • α p
⎢⎣X n ⎥⎦
⇒ X1 • A1 + X 2 • A 2 + L + X n • A n = Y Ahora bien, la j-ésima componente de (Ai)t es Aij. Por lo tanto, si igualamos las
j-ésimas componentes de ambos lados de (13) y escribimos αi de la forma:
Por lo tanto, Y es combinación lineal de A1, A2, …, An. Por consiguiente,
Y∈[{A1, A2, …, An}], es decir, Y∈ CA. Esto significa que IA⊆CA (11). ⎡ α1i ⎤
⎢ ⎥
α
Supongamos ahora que Y∈CA. Luego, Y se puede expresar como combinación α i = ⎢ 2i ⎥
⎢ M ⎥
lineal de A1, A2, …, An, es decir, existen escalares c1, c2, …, cn∈K tales que: ⎢ ⎥
⎢⎣α ni ⎥⎦
Y = c1 • A1 + c 2 • A 2 + L + c n • A n
Se obtiene que:
Luego,
A1 j = c11α1 j + c12α 2 j + ... + c1p α pj
⎡ c1 ⎤ A 2 j = c 21α1 j + c 22α 2 j + ... + c 2 p α pj
⎢ ⎥ M
[
Y = A1 A 2
c
L An ⎢ 2 ⎥
⎢M⎥
] A mj = c m1α1 j + c m 2 α 2 j + ... + c mpα pj
⎢ ⎥
⎣⎢c n ⎦⎥
Luego,
⎡ c1 ⎤
⎢ ⎥
[
⇒ A1 A 2
c
]
L An ⎢ 2 ⎥ = Y
⎢M⎥
⎡ A1 j ⎤
⎢ ⎥
⎡ c11 ⎤
⎢ ⎥
⎡ c12 ⎤
⎢ ⎥
⎡ c1p ⎤
⎢ ⎥
⎢ ⎥ ⎢ 2 j ⎥ = α • ⎢ 21 ⎥ + α • ⎢ 22 ⎥ + ... + α • ⎢ c 2 p ⎥ (14)
A c c
⎢ M ⎥ 1 j
⎢ M ⎥ 2 j
⎢ M ⎥ pj ⎢ M ⎥
⎣⎢c n ⎦⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A
⎣⎢ mj ⎦⎥ ⎢ c
⎣ m1 ⎦⎥ ⎢ c
⎣ m2 ⎦⎥ ⎣⎢c mp ⎦⎥
⎡ c1 ⎤
⎢ ⎥
c
⇒ AX = Y, con X = ⎢ 2 ⎥ ⎡ c1i ⎤
⎢M⎥
⎢ ⎥ ⎢ ⎥
c
⎣⎢c n ⎦⎥ Sea βi = ⎢ 2i ⎥
⎢ M ⎥
⎢ ⎥
Por tanto, Y∈IA. Por consiguiente, CA⊆IA (12). ⎣⎢c mi ⎦⎥

Por (11) y (12) se tiene que CA = IA. Por consiguiente, como el lado izquierdo de (14) es la j-ésima columna de A se
tiene que cada columna de A se puede escribir como una combinación lineal
Teorema 4.22. de los vectores β1, β2, …, βp, lo cual significa que [{β1, β2, …, βp}] = CA y por
ende Dim(CA) ≤ p = Dim(RA) (15).
Sea A∈Mmxn(K). Entonces Dim(RA) = Dim(CA) = Dim(IA) = r(A).

161 162
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Por otra parte, C A t = R A y R A t = C A . La desigualdad (15) se generó con la Demostración

matriz A, si se hace con la matriz A se obtiene que Dim(C A t ) ≤ Dim(R A t ) ,


t
Supongamos que r(A) = t y sin pérdida de generalidad que las primeras t
es decir, Dim(RA) ≤ Dim(CA), o sea que Dim(CA) ≥ Dim(RA) (16). Por (15) y columnas de A son L.I. Sea Aj (j > t) cualquier otra columna de A. Como
(16) se deduce que Dim(RA) = Dim(CA) y por el teorema 4.21., se tiene que A1, A2, …, At forman una base para CA, se tiene, para algunos escalares
Dim(RA) = Dim(CA) = Dim(IA) = r(A). c1, c2, …, ct que:

Teorema 4.23. Aj = c1•A1 + c2•A2 + … + cp•At


⇒ Aj – c1•A1 – c2•A2 – … – cp•At = θmx1
Sean A, B∈Mmxn(K). Si B es equivalente por filas a A entonces RA = RB,
r(A) = r(B) y n(A) = n(B). De esta forma, sumando –c1•A1, –c2•A2, …, –cp•At sucesivamente a la j-ésima
columna de A se obtiene una nueva matriz B∈Mmxn(K) con r(B) = r(A) y
Demostración n(B) = n(A) con la j-ésima columna de B igual a θmx1. Esto se hace a todas las
demás columnas de A (excepto las primeras t columnas) para así obtener la
Sea D∈Mmxn(K) y supongamos que D es equivalente por filas a A aplicando matriz:
una única operación elemental de filas. De esta manera se presentan 3 casos:
⎡ A11 A12 L A1t 0 0 L 0⎤
Caso 1: D se obtuvo de A aplicando la operación elemental de filas rp→rp+crs. ⎢ ⎥
A A 22 L A 2 t 0 0 L 0⎥
D = ⎢ 21
En este caso las filas de D son {D1 = A1, D2 = A2, …, Ds = As, …, Dp = Ap + ⎢ M M M M M M⎥
⎢ ⎥
cAs, …, Dm = Am}. Ahora bien, la p-ésima fila de A se puede escribir de la ⎣⎢A m1 A m 2 L A mt 0 0 L 0⎦⎥
siguiente forma:
Donde r(D) = r(A) y n(D) = n(A). Arreglando convenientemente las filas de D
Ap = (Ap + cAs) – cAs = Dp – cDs
se puede suponer que las primeras t filas son L.I. Luego, aplicando operaciones
Esto indica que todas las filas de A se pueden expresar como una combinación
elementales de fila del tipo rp→rp+crs sobre las últimas m – t filas en base a las
lineal de las filas de D y viceversa. Por consiguiente, RA ⊆ RC y RC ⊆ RA. En
primeas t filas de D se obtiene la siguiente matriz:
consecuencia, RC = RA.

Caso 2: D se obtuvo de A aplicando la operación elemental de filas rp→crp. ⎡ A11 A12 L A1p 0 0 L 0⎤
⎢ ⎥
⎢A 21 A 22 L A 2 p 0 0 L 0⎥
En este caso las filas de D son {D1 = A1, D2 = A2, …, Dp = cAp, …, Dm = Am}. ⎢ M M M M M M⎥
Ahora bien, cAp = c(Ap) y Ap = (1/c)cAp. Luego, cada fila de C es un múltiplo ⎢ ⎥
F = ⎢ A t1 At2 L A tt 0 0 L 0⎥
de una fila de A y viceversa. Esto indica que cada fila de C pertenece al
⎢ 0 0 L 0 0 0 L 0⎥
subespacio generado por las filas de A y viceversa. En consecuencia, RA ⊆ RC ⎢ ⎥
y RC ⊆ RA, por lo cual RC = RA. ⎢ M M M M M M⎥
⎢ ⎥
⎣ 0 0 L 0 0 0 L 0⎦
Caso 3: D se obtuvo de A aplicando la operación elemental de filas rp↔rs.
Donde r(F) = r(A) (17) y n(F) = n(A) (18). Ahora bien, es evidente que si j > t,
En este caso RA = RC porque las filas de A y C son las mismas (sólo que en
diferente orden). entonces Fei = θmx1, de forma tal que S(t) = {et+1, et+2, …, en} es un conjunto
L.I. de n-t vectores en NF. Probaremos ahora que [S(t)] = NF. Sea X∈NF un
Como B es equivalente por filas a A, B se obtiene de A aplicando un número vector de la forma:
finito de operaciones elementales de filas. Por consiguiente, lo demostrado
anteriormente aplicado varias veces demuestra que RA = RB. En consecuencia, ⎡ X1 ⎤
por el teorema 4.22., r(A) = r(B). ⎢ ⎥
⎢X 2 ⎥
⎢ M ⎥
Por último, el conjunto de soluciones de AX = θnx1 no cambia bajo las X=⎢ ⎥
operaciones elementales de fila aplicadas sobre A para obtener a B. De esta ⎢Xt ⎥
forma, NA = NB y por consiguiente n(A) = n(B). ⎢ M ⎥
⎢ ⎥
⎢⎣X n ⎥⎦
Teorema 4.24.

Sea A∈Mmxn(K). Entonces se cumple que r(A) + n(A) = n. Entonces se cumple que:

163 164
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ A11X1 + A12 X 2 + ... + A1t X t ⎤ ⇒ X1 − 1 X 2 + 3 X 3 = 0 ⇒ X1 = 1 X 2 − 3 X 3


⎢ ⎥ 2 2 2 2
⎢A 21X1 + A 22 X 2 + ... + A 2 t X t ⎥ ⎡0⎤
⎢ M ⎥ ⎢ ⎥ ⎡ X1 ⎤ ⎡ 1 2 X 2 − 3 2 X 3 ⎤ ⎡1 ⎤ ⎡− 3 ⎤
⎢ ⎥ 0 ⎢ ⎥ ⎢ ⎥ ⎢ 2⎥ ⎢ 2⎥
θ nx1 = FX = ⎢ A t1X1 + A t 2 X 2 + ... + A tt X t ⎥ = ⎢ ⎥ X = ⎢X 2 ⎥ = ⎢ X2 ⎥ = X 2 ⎢ 1 ⎥ + X3 ⎢ 0 ⎥
⎢ ⎥ ⎢⎣ X 3 ⎥⎦ ⎢ ⎥ ⎢0⎥ ⎢ 1 ⎥
⎢ ⎥ ⎢M ⎥ X3

0
⎥ ⎣⎢0⎦⎥ ⎣⎢ ⎦⎥ ⎣⎢ ⎦⎥ ⎣⎢ ⎦⎥
⎢ M ⎥
⎢ ⎥
⎣ 0 ⎦ ⎡ 1 ⎤ ⎡− 3 ⎤
⎢ 2⎥ ⎢ 2 ⎥
Luego, NA = {X∈ℜ3: X = a ⎢ 1 ⎥ + b ⎢ 0 ⎥; a, b ∈ ℜ } y n(A) = 2.
El determinante de la matriz de coeficientes de orden kxk del SEL homogéneo ⎢0⎥ ⎢ 1 ⎥
dado es no nulo, ya que las filas de esta matriz son L.I. De esta forma, la única ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦
solución del SEL es X1 = X2 = … = Xt = 0. Luego, X tiene la forma siguiente:
IA = {Y∈ℜ3: AX = Y, para algún X∈ℜ3}. Utilicemos el teorema 4.21.
⎡ 0 ⎤ ⎡0 ⎤ ⎡0⎤ ⎡0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎡ 1 −1 3 ⎤ ⎡1 − 1 3 ⎤
⎢ 0 ⎥ 0
⎢ ⎥ 0
⎢ ⎥ ⎢0⎥ ⎡ 2 −1 3⎤
⎢ ⎥ r1 → 2 r1 ⎢
1 2 2⎥ ⎯r⎯ ⎯⎯→ ⎢
2 →r2 −4r1 2 2⎥
⎢ M ⎥ ⎢M⎥ ⎢M ⎥ ⎢M ⎥ A= ⎢ 4 −2 6⎥ ⎯⎯⎯→⎢ 4 − 2 6 ⎥ r →r +6r ⎢0 0 0 ⎥=R
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢− 6 ⎯⎯ ⎯ ⎯ →
− 9 ⎥⎥ ⎢0 0 0 ⎥⎥
3 3 1

⎢ 0 ⎥ 0
⎢ ⎥ 0
⎢ ⎥ ⎢0⎥ ⎢⎣− 6 3 − 9⎥⎦ 3
X=⎢ = X t +1 ⎢ ⎥ + X t + 2 ⎢ ⎥ + ... + X n ⎢ ⎥ = X t +1e t +1 + X t + 2 e t + 2 + ... + X n e n ⎢⎣ ⎦ ⎢
⎣ ⎦
X t +1 ⎥ 1 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢X t + 2 ⎥ ⎢0 ⎥ ⎢1⎥ ⎢0⎥ Se observa que el número de filas no nulas de R es 1 por lo cual
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Rango(A) = r(A) = 1. Luego, cualquier columna de A forma una base para CA,
⎢ M ⎥ ⎢M⎥ ⎢M ⎥ ⎢M ⎥
⎢⎣ X n ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ es decir:

⎡ 2⎤
Esto prueba que [S(t)] = NF de forma tal que n(F) = n – t = n – r(F). Luego, ⎢ ⎥
r(F) + n(F) = n. Por (17) y (18) se tiene que r(A) + n(A) = n. CA = {Y∈ℜ3: Y = c ⎢ 4 ⎥; c ∈ ℜ } = IA
⎢⎣− 6⎥⎦
Ejemplo 4.23.
A su vez, una base para RA consiste en una combinación lineal de las filas no
Sea A∈M3x3(ℜ) definida por: nulas de R, es decir:

⎡ 2 −1 3⎤ ⎡ 1⎤
⎢ ⎥ ⎢ ⎥
A =⎢ 4 −2 6⎥
⎢⎣ − 6 R A = {X ∈ ℜ3 : X = a ⎢ − 1 ⎥; a ∈ ℜ}
3 − 9 ⎥⎦ ⎢ 2 ⎥
⎢⎣ 3 2 ⎥⎦
Determinemos Espacio Nulo (NA), Nulidad (n(A)), Imagen (IA), Rango (r(A)),
Espacio Fila (RA) y Espacio Columna (CA).

NA = {X∈ℜ3: AX = θ3x1 }

⎡ 2 −1 3⎤ ⎡ X1 ⎤ ⎡0⎤ ⎡ 2 − 1 3 0⎤ 1
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ r1 → 2 r1
AX = θ3x1 ⇒ ⎢ 4 − 2 6 ⎥ ⎢ X 2 ⎥ = ⎢0 ⎥ ⇒ ⎢ 4 − 2 6 0⎥ ⎯⎯ ⎯ →
⎢⎣ − 6 3 − 9 ⎥⎦ ⎢⎣ X 3 ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣ − 6 3 − 9 0⎥⎦

⎡ 1 −1 3 0⎤ ⎡1 − 1 3 0⎤
⎢ 2 2 ⎥ ⎯r⎯ ⎯⎯→ ⎢
2 → r2 − 4 r1 2 2 ⎥
⎢ 4 −2 6 0 ⎥ r → r + 6 r ⎢0 0 0 0⎥
⎢− 6 ⎯⎯ ⎯ ⎯ →
− 9 0⎥⎥ ⎢0 0 0⎥⎥
3 3 1

⎢⎣ 3 ⎢⎣ 0
⎦ ⎦

165 166
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

EJERCICIOS PROPUESTOS. ⎡2⎤ ⎡ 1⎤ ⎡ 3⎤


⎢ ⎥ ⎢ ⎥ ⎢ ⎥
1. Determine cuáles de los siguientes conjuntos son espacios vectoriales. 3. Sean δ1 = ⎢1 ⎥ , δ 2 = ⎢ − 1⎥ , δ3 = ⎢2⎥ . Expresar los siguientes vectores
Justifique su respuesta. ⎢⎣4⎥⎦ ⎢⎣ 3⎥⎦ ⎢⎣5⎥⎦
como combinación lineal de δ1, δ2 y δ3:
1.1. El conjunto de vectores de ℜ2 con las operaciones
⎡3⎤
⎡X ⎤ ⎡ Z ⎤ ⎡X+Z⎤ ⎡X ⎤ ⎡2cX ⎤ ⎢ ⎥
⎢ ⎥ +⎢ ⎥ = ⎢ ⎥ y c• ⎢ ⎥ = ⎢ ⎥ , c∈ℜ. 3.1. α = ⎢5 ⎥ .
⎣Y ⎦ ⎣ W ⎦ ⎣Y + W ⎦ ⎣Y ⎦ ⎣2cY ⎦ ⎢⎣2⎥⎦
1.2. El conjunto de vectores de ℜ2 con las operaciones
⎡X ⎤ ⎡ Z ⎤ ⎡ X + Z +1 ⎤ ⎡X ⎤ ⎡cX ⎤ ⎡ 1⎤
⎢ ⎥ +⎢ ⎥ = ⎢ ⎥ y c• ⎢ ⎥ = ⎢ ⎥ , c∈ℜ. ⎢ ⎥
⎣Y ⎦ ⎣ W ⎦ ⎣ Y + W + 2⎦ ⎣Y ⎦ ⎣cY ⎦ 3.2. β = ⎢ − 2⎥ .
1.3. El conjunto de todas las matrices de orden 2x2 en ℜ de la ⎢⎣ 3⎥⎦
⎡1 a ⎤
forma ⎢ ⎥ con las operaciones matriciales usuales de 4. Sean p1(x) = 1 – 2x + x2, p2(x) = 1 + 3x – 2x2, p3(x) = 2 – x + 3x2.
⎣b 1⎦
Expresar los siguientes polinomios como combinación lineal de p1, p2
suma y multiplicación por escalares. y p3:
1.4. El conjunto de vectores de ℜ3 con las operaciones
⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡ X1 + Y1 ⎤ ⎡ X1 ⎤ ⎡0 ⎤ 4.1. q1(x) = 4 + 4x + 3x2.
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ q2(x) = 0.
X + Y
⎢ 2⎥ ⎢ 2⎥ ⎢ 2 = X + Y2⎥ y c• X
⎢ 2⎥ = ⎢0 ⎥ .
4.2.
⎢⎣ X 3 ⎥⎦ ⎢⎣ Y3 ⎥⎦ ⎢⎣ X 3 + Y3 ⎥⎦ ⎢⎣ X 3 ⎥⎦ ⎢⎣0⎥⎦ 4.3. q3(x) = 5 – 3x2.
4.4. q4(x) = -4 + 2x – 5x2.
1.5. El conjunto de las matrices de orden 2x2 en ℜ diagonales con
las operaciones matriciales usuales de suma y multiplicación 5. Determine si el conjunto de polinomios p1, p2, p3 del ejercicio anterior
por escalares. es L.I. Determine también si el conjunto de polinomios p1, p2, p3, q1 es
1.6. El conjunto de los polinomios de grado a lo sumo 2 tales que L.I.
p(0) = 2.
1.7. El conjunto de los polinomios de grado a lo sumo n tales que 6. Determine el subespacio generado los siguientes conjuntos:
p’(3) = 0.
⎡ 1 ⎤ ⎡ −1 ⎤ ⎡ −3 ⎤ ⎡ 4⎤ ⎡ −5 ⎤
2. Consideremos el espacio vectorial ℜ3 con las operaciones usuales de ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
−2 2 3 −5 1
suma y multiplicación por escalares. Determinar si los siguientes 6.1. S1 = { ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥ }
⎢ 3⎥ ⎢ 1 ⎥ ⎢ 0⎥ ⎢ 6 ⎥ ⎢ 3⎥
conjuntos son subespacios de ℜ3: ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣ 1 ⎥⎦ ⎢⎣ 0⎥⎦ ⎢⎣ − 3⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣− 4⎥⎦
⎡ X1 ⎤ 6.2. S2 = {x3 – 2x2 , 1 – 4x2, 10 – 7x3, -x3 + 3x2}
⎢ ⎥ ⎧⎪⎡ − 1 1⎤ ⎡4 − 1⎤ ⎡- 2 3 ⎤ ⎡3 5⎤ ⎫⎪
2.1. W = { ⎢X 2 ⎥ : 2X1 + X3 = 0}
⎢⎣ X 3 ⎥⎦
6.3. S3 = ⎨⎢ ⎥, ⎢ ⎥, ⎢ ⎥, ⎢ ⎥⎬
⎪⎩⎣− 3 0⎦ ⎣8 − 1⎦ ⎣ 3 - 1⎦ ⎣4 7 ⎦ ⎪⎭
⎡ X1 ⎤
⎢ ⎥ 7. Sean A, B, C ∈ M2x2(K) definidas por:
2.2. W = { ⎢X 2 ⎥ : 2X2 = X1 – 4}
⎢⎣ X 3 ⎥⎦
⎡ 1 2⎤ ⎡0 1 ⎤ ⎡ 4 −1 ⎤
A=⎢ ⎥ , B=⎢ ⎥ , C=⎢ ⎥
⎡ X1 ⎤ ⎣ − 1 3 ⎦ ⎣ 4 2 ⎦ ⎣0 − 2⎦
⎢ ⎥
2.3. W = { ⎢X 2 ⎥ : |X2 – 1| = X3}
⎢⎣ X 3 ⎥⎦ Determine cuáles de las siguientes matrices son combinación lineal de
A, B y C:
⎡ X1 ⎤
⎢ ⎥ ⎡0 6 ⎤
2.4. W = { ⎢X 2 ⎥ : X1 ∈ Ζ} D=⎢
7.1. ⎥
⎢⎣ X 3 ⎥⎦ ⎣3 7 ⎦

167 168
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡1 −5 ⎤ 12. Sean K un cuerpo, V un espacio vectorial sobre K, S un conjunto de


7.2. E=⎢ ⎥ vectores L.I. de V y α∈V. Demuestre que α∉[S] si y sólo si S∪{α} es
⎣6 − 2 ⎦ L.I.
⎡0 0 ⎤
7.3. F=⎢ ⎥ 13. Sean K un cuerpo, V un espacio vectorial sobre K y α1, α2, …, αk+1, β
⎣0 0 ⎦
vectores de V. Demuestre que Si β∈[{α1, α2, …, αk+1}] y
⎡−8 1⎤ β∉[{α1, α2, …, αk}] entonces αk+1∈[{α1, α2, …, αk, β}].
7.4. G=⎢ ⎥
⎣− 1 8⎦
14. Demuestre que si {α1, α2, …, αn} es un conjunto L.I. y
8. Determine si los siguientes vectores forman un conjunto L.I. {α1, α2, …, αn, β} es un conjunto L.D. entonces β es combinación
lineal de α1, α2, …, αn.
⎡ 2⎤ ⎡ 1⎤ ⎡2⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 15. Sean K un cuerpo, V un espacio vectorial sobre K y
8.1. α1 = ⎢ − 2 ⎥ , α 2 = ⎢− 3⎥ , α 3 = ⎢5⎥
S = {α1, α2, …, αn} un conjunto de vectores L.I. de V tal que
⎢⎣ 3⎥⎦ ⎢⎣ − 1⎥⎦ ⎢⎣1 ⎥⎦ {α1, α2, …, αn, β} es L.D., ∀ β∈V. Demuestre que S es una base de
V.
⎡2⎤ ⎡3⎤ ⎡2⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
8.2. α1 = ⎢1 ⎥ , α 2 = ⎢1⎥ , α 3 = ⎢4⎥ 16. Sean K un cuerpo, V un espacio vectorial sobre K y
⎢⎣1 ⎥⎦ ⎢⎣3⎥⎦ ⎢⎣5⎥⎦ S = {α1, α2, …, αn} un subconjunto de V tal que [S] = V y
[S – {αi}] ≠ V, ∀ i = 1, 2, …, n. Demuestre que S es una base de V.
⎡1 ⎤ ⎡ −1 ⎤ ⎡2⎤ ⎡6 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
8.3. α1 = ⎢2⎥ , α 2 = ⎢− 3⎥ , α 3 = ⎢1 ⎥ , α 4 = ⎢1⎥ 17. Sea {α1, α2, ,α3} un conjunto L.I. Determine si los siguientes
⎢⎣3⎥⎦ ⎢⎣ 1⎥⎦ ⎢⎣3⎥⎦ ⎢⎣3⎥⎦ conjuntos son L.I.:

17.1. {a•α2 + b•α3, α2 + c•α3, α3}; con a, b, c∈ℜ.


9. Consideremos las siguientes operaciones en ℜ2: 17.2. {α1, b•α2 + c•α3, a•α3 – α2}; con a, b, c∈ℜ.

⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡ X1 + Y1 + p ⎤ ⎡ X1 ⎤ ⎡ c + cX1 − p ⎤ 18. Deterrmine cuáles de los siguientes conjuntos de vectores son base de
⎢ ⎥ +⎢ ⎥ = ⎢ ⎥ y c• ⎢ ⎥ = ⎢ ⎥ ℜ3 :
⎣X 2 ⎦ ⎣Y2 ⎦ ⎣X 2 + Y2 + p ⎦ ⎣X 2 ⎦ ⎣c + cX 2 − p ⎦

Determine el valor de p para el cual ℜ2 con las operaciones de suma y ⎡1⎤ ⎡ 2⎤ ⎡3⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
multiplicación por escalares definidas anteriormente es un espacio 18.1. α1 = ⎢0⎥ , α 2 = ⎢2⎥ , α 3 = ⎢3⎥
vectorial. ⎢⎣0⎥⎦ ⎢⎣0⎥⎦ ⎢⎣3⎥⎦

10. Utilizando independencia y dependencia lineal determine si las ⎡ 3⎤ ⎡ 2⎤ ⎡1 ⎤


siguientes matrices son no singulares: ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
18.2. α1 = ⎢ 1⎥ , α 2 = ⎢5⎥ , α 3 = ⎢4⎥
⎢⎣− 4⎥⎦ ⎢⎣6⎥⎦ ⎢⎣8 ⎥⎦
⎡3 0 0⎤ ⎡3 0 −1⎤ ⎡ 7 1 2⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎡ 2⎤ ⎡ 4⎤ ⎡ 0⎤
A = ⎢0 1 1⎥ B = ⎢0 1 1 ⎥ C = ⎢ −1 7 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣2 0 1⎥⎦ ⎢⎣1 0 1⎥⎦ ⎢⎣ 1 −1 6⎥⎦ 18.3. α1 = ⎢ − 3 ⎥ , α 2 = ⎢1 ⎥ , α 3 = ⎢− 7 ⎥
⎢⎣ 1 ⎥⎦ ⎢⎣1 ⎥⎦ ⎢⎣ 1⎥⎦
⎡1 0 1 2⎤ ⎡1 0 0 −1 ⎤
⎡ 2 2 −6 ⎤ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ 1 5 2 − 1 1 2 2 0⎥ ⎡1 ⎤ ⎡ 2⎤ ⎡ −1 ⎤
D=⎢ 2 −1 3⎥ E = ⎢ ⎥ F= ⎢ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1 2 5 − 1⎥ ⎢0 0 1 1⎥ 18.4. α1 = ⎢6⎥ , α 2 = ⎢ 4⎥ , α 3 = ⎢ 2⎥
⎢⎣ − 2 −1 1⎥⎦ ⎢ ⎥ ⎢ ⎥ ⎢⎣4⎥⎦ ⎢⎣ − 1⎥⎦ ⎢⎣ 5⎥⎦
⎣⎢2 − 1 − 1 6⎦⎥ ⎣⎢2 0 1 −1 ⎦⎥

11. Sea P4 el espacio vectorial de los polinomios de grado a lo sumo 4 y p


un polinomio de grado 4. Determine si {p, p’, p’’, p(3), p(4)} es un
conjunto L.I. en P4.

169 170
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

19. Demuestre que los siguientes conjuntos de vectores de ℜ3 generan el 24.3. Determine las coordenadas de p∈P3 tal que p(x) = 3x3 + 2x2 –
mismo subespacio: x – 1 con respecto a la base obtenida en el apartado anterior.

⎡ 1⎤ ⎡ 0⎤ ⎡ 1 ⎤ ⎡ 2⎤ 25. Sea W = {x2 – 4x – 3, 2x2 + x + 5, 8x – 11}. Determine si W es un


⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ conjunto de generadores de los polinomios de grado a lo sumo 2.
S1 = { ⎢ 0⎥ , ⎢− 2⎥ } y S2 = { ⎢− 2⎥ , ⎢− 2⎥ }
⎢⎣ −1⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣ 0⎥⎦ ⎢⎣ − 1 ⎥⎦ 26. Sea S = {x3 – 3x2 + 1, 2x2 + x, 2x3 + 3x + 2, 4x – 5, x2 – 5x + 1,
x2 – 4}. Determine un subconjunto de S que sea una base del espacio
20. Determine una base y la dimensión del subespacio de matrices de generado por S.
orden 2x2 en K cuya traza es nula.
⎡ 3 0⎤ ⎡−1 0 ⎤ ⎡2 0 ⎤ ⎡6 0 ⎤
Determine una base y la dimensión del espacio solución de los ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
21. 27. Sea E = { ⎢− 1 7 ⎥ , ⎢ 1 3 ⎥ , ⎢3 1 ⎥ , ⎢0 1 ⎥ }. Determine una
siguientes SEL: ⎢⎣ 0 1 ⎥⎦ ⎢⎣ 0 − 2⎥⎦ ⎢⎣0 −1⎥⎦ ⎢⎣0 −1⎥⎦

⎧2X1 + X 2 + 3X 3 = 0 base de V = Mnxn(ℜ) que contenga a E.



21.1. ⎨ X1 + 2X 2 = 0
⎪ X + 2X = 0 ⎡1 4 ⎤ ⎡ 2 5 ⎤ ⎡ 1 7 ⎤ ⎡3 6 ⎤
⎩ 1 3 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
28. Sea E = { ⎢0 − 1⎥ , ⎢1 − 1⎥ , ⎢− 1 − 2⎥ , ⎢2 − 1⎥ }. Determine la
⎧3X1 + X 2 + X 3 + X 4 = 0 ⎢⎣2 2 ⎥⎦ ⎢⎣4 9 ⎥⎦ ⎢⎣ 2 − 3⎥⎦ ⎢⎣6 12 ⎥⎦
21.2. ⎨
⎩5X1 − X 2 + X 3 − X 4 = 0 dimensión del subespacio generado por E.

22. Determine la dimensión de cada uno de los siguientes subespacios: ⎡0⎤ ⎡ −2 ⎤


⎢ ⎥ ⎢ ⎥
29. Sea W = { ⎢1⎥ , ⎢ 0⎥ }.
⎡ X1 ⎤
⎢ ⎥ ⎢⎣1⎥⎦ ⎢⎣ 1⎥⎦
X
22.1. W1 = { ⎢ 2 ⎥ : X4 = 0}
⎢X 3 ⎥
⎢ ⎥ 29.1. Demuestre que W es L.I.
⎢⎣X 4 ⎥⎦ 29.2. Determine un vector α tal que W∪{α} sea L.I. ¿Este vector
es único?
⎡ X1 ⎤
⎢ ⎥ 29.3. Determine un vector α no nulo tal que W∪{α} sea L.D.
X
22.2. W2 = { ⎢ 2 ⎥ : X4 = X1 + X2, X3 = X1 – X2}
⎢X 3 ⎥ 30. Sean α1, α2, α3, α4 los siguientes vectores de ℜ4:
⎢ ⎥
⎣⎢X 4 ⎦⎥
⎡−2⎤ ⎡ 1⎤ ⎡ −1 ⎤ ⎡ 2⎤
22.3. W1 ∩ W2. ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
1 − 2 2 2
α1 = ⎢ ⎥ , α 2 = ⎢ ⎥ , α 3 = ⎢ ⎥ , α 4 = ⎢ ⎥
⎢ 1⎥ ⎢ 1⎥ ⎢ 0⎥ ⎢ − 1⎥
⎡ X1 ⎤ ⎡ X1 ⎤ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎣⎢ − 1⎦⎥ ⎣⎢ − 3⎥⎦ ⎣⎢ 3⎥⎦ ⎣⎢ − 1⎥⎦
X X
23. Sean S1 = { ⎢ ⎥ : X1 + X2 + X3 = 0} y S2 = { ⎢ 2 ⎥ : X3 + X4 = 0}.
2
⎢X 3 ⎥ ⎢X 3 ⎥
⎢ ⎥ ⎢ ⎥ Determine una base y la dimensión de W1∩W2 siendo W1 el
⎢⎣X 4 ⎥⎦ ⎢⎣X 4 ⎥⎦ subespacio generado por α1 y α2 y W2 el subespacio generado por α3 y
α4.
23.1. Demuestre que S1 y S2 son subespacios vectoriales de ℜ4.
23.2. Hallar bases de S1, S2 y S1 ∩ S2. 31. Determine Espacio Nulo, Nulidad, Imagen, Rango, Espacio Fila y
Espacio Columna de las siguientes matrices:
24. Consideremos el espacio vectorial P2 de los polinomios de grado a lo
sumo 3 y p1, p2∈P2 tales que p1(x) = x2 + x – 1 y p2(x) = 2x2 – 4x + 1. ⎡1 −1 2⎤
31.1. A=⎢ ⎥
24.1. Demuestre que p1 y p2 son L.I. ⎣3 1 0⎦
24.2. Determine una base de P2 que contenga a p1 y p2.

171 172
CAPÍTULO 4: ESPACIOS VECTORIALES

⎡ −1 2 1⎤
⎢ ⎥
31.2. B = ⎢ 2 − 4 − 2⎥
⎢⎣ − 3 6 3⎥⎦

⎡1 −1 2⎤
⎢ ⎥
31.3. C = ⎢3 1 4⎥
⎢⎣5 − 1 8 ⎥⎦
⎡ 1 −1 2 1⎤
⎢ ⎥
−1 0 1 2⎥
31.4. D=⎢
⎢ 1 −2 5 4⎥
⎢ ⎥
⎢⎣ 2 − 1 1 − 1 ⎥⎦
⎡ −1 −1 0 0⎤
⎢ ⎥
0 0 2 3⎥
31.5. E=⎢
⎢ 4 0 −2 1⎥
⎢ ⎥
⎣⎢ 3 −1 0 4⎦⎥

173
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

∑X Y
Capítulo 5 <α, β> =
i =1
i i .

ESPACIOS EUCLÍDEOS Esta operación es un producto interno ya que:


n n n
1. <α, α> = ∑X Xi =1
i i = ∑X
i =1
2
i ≥ 0 y <α, α> = ∑X
i =1
2
i = 0 si y sólo si

X1 = X2 = … = Xn = 0, es decir, si y sólo si α = θnx1.


5.1. INTRODUCCIÓN. n n
2. <α, β> = ∑X Y = ∑YX
i =1
i i
i =1
i i = <β, α>.
En este capítulo se da continuación al tema anterior con los Espacios
n n
Euclídeos, los cuales son Espacios Vectoriales en los cuales está definida una
particular operación llamada producto interno, la cual a su vez da lugar a 2 3. <c•α, β> = ∑ (cX )Y
i =1
i i = c ∑X Y
i =1
i i = c<α, β>.
importantes conceptos geométricos que tienen suma importancia en el
n n
desarrollo del análisis de datos multivariante como lo son el concepto de
Distancia y el concepto de Proyección Ortogonal. Se exponen todos los
4. <α + β, δ> = ∑ (X
i =1
i + Yi )Zi = ∑ (X Z + Y Z )
i =1
i i i i

conceptos asociados como lo son el proceso de ortonormalización de Gram- n n


Schmidt y por supuesto la Proyección Ortogonal. = ∑X Z + ∑Y Z
i =1
i i
i =1
i i = <α, δ> + <β, δ>
5.2. DEFINICIONES, PROPIEDADES Y EJEMPLOS.
Por lo tanto, V = ℜn es un espacio euclídeo.
Definición 5.1.
Observación:
Sea V un espacio vectorial sobre ℜ. Un producto interno (escalar) sobre V es
una función <,>: VxV→ℜ que asigna a cada par ordenado (α, β)∈VxV un El producto interno utilizado en el ejemplo anterior se denomina producto
único número real <α, β> y verifica las propiedades siguientes: interno estándar sobre ℜn. De ahora en adelante, cuando se mencione a ℜn
como espacio euclídeo será con el producto interno estándar, salvo que se
1. ∀ α∈V se cumple que <α, α> ≥ 0 y <α, α> = 0 si y sólo si α = θ. señale lo contrario.
2. ∀ α, β∈V se cumple que <α, β> = <β, α>.
3. ∀ α, β∈V, c∈ℜ se cumple que <c•α, β> = c<α, β>. Ejemplo 5.2.
4. ∀ α, β, δ∈V se cumple que <α + β, δ> = <α, δ> + <β, δ>.
Sea V = C[a, b] el espacio vectorial definido por el conjunto de funciones
Un espacio vectorial V sobre ℜ en el cual está definido un producto interno se continuas reales de variable real en el intervalo [a, b].
dice que es un espacio euclídeo.
Si α = f(x), β = g(x), δ = h(x)∈V entonces se define la operación:
Observación:
b

Un espacio euclídeo no siempre tiene un único producto interno, es decir, un <α, β> = ∫ f (x)g(x)dx .
a
espacio vectorial puede ser un espacio euclídeo con diferentes productos
internos. Esta operación es un producto interno sobre V ya que:

Ejemplo 5.1.
∫ (f (x)) dx ≥0 y <α,α> = ∫ (f (x)) dx = 0
b b b

2 2
1. <α, α> = f ( x )f ( x )dx =
a a a
⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡ Z1 ⎤ si y sólo si f(x) = 0, es decir, si y sólo si α = θ.
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X Y Z b b
Sea V = ℜn. Si α = ⎢ 2 ⎥ , β = ⎢ 2 ⎥ , δ = ⎢ 2 ⎥ entonces se define la 2. <α, β> = ∫ f (x)g(x)dx = ∫ g(x)f (x)dx = <β, α>.
⎢ M ⎥ ⎢ M ⎥ ⎢M ⎥ a a
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
∫ (cf (x))g(x)dx
b b
⎢⎣X n ⎥⎦ ⎢⎣Yn ⎥⎦ ⎢⎣ Z n ⎥⎦ 3. <c•α, β> =
a ∫
= c f ( x )g ( x )dx = c<α, β>.
a
siguiente operación entre vectores de V = ℜn :
∫ (f (x) + g(x))h(x)dx = ∫ (f (x)h(x) + g(x)h(x))dx
b b
4. <α + β, δ> =
a a

175
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

b b Demostración
= ∫ f (x)h(x)dx + ∫ g(x)h(x)dx = <α, δ> + <β, δ>
a a

1. Por hipótesis ||α|| = < α, α > . Por la propiedad 1 de producto


Por lo tanto, V = C[a, b] es un espacio euclídeo.
interno se cumple que <α, α> ≥ 0. Luego, ||α|| ≥ 0.
Observación:
2. CN(⇒): Si ||α|| = 0 entonces α = θ.
Sean A∈Mmxn(ℜ) y A1, A2, …, An las columnas de A. En ese caso, Aj∈ℜn,
m Si ||α|| = 0 entonces < α, α > = 0. Esto implica que < α, α > = 0.
∀ j = 1, 2, …, n. Luego, <Ah, Aj> = ∑A
i =1
ih A ij = (Ah)tAj = (Aj)tAh.
Por la propiedad 1 de producto interno se cumple que α = θ.

CS(⇐): Si α = θ entonces ||α|| = 0.


Definición 5.2.

Sean V un espacio euclídeo y α∈V. Se define como Longitud o Norma de α y Si α = θ entonces por la propiedad 1 de producto interno se cumple
se denota por ||α|| a: que < α, α > = 0. Luego, < α, α > = 0 y por consiguiente
||α|| = 0.
||α|| = < α, α >
3. ||cα|| = < c • α, c • α > .
Ejemplo 5.3.
⇒ ||cα|| = c < α, c • α > (Por la propiedad 3 de producto interno)
En relación al ejemplo 5.1.:
⇒ ||cα|| = c < c • α, α > (Por la propiedad 2 de producto interno)

⎡ X1 ⎤ ⇒ ||cα|| = c.c < α, α > (Por la propiedad 3 de producto interno)


⎢ ⎥
X n
Sea α = ⎢ 2 ⎥ ∈ℜn. Entonces, ||α|| =
⎢ M ⎥
< α, α > = ∑X i =1
2
i . ⇒ ||cα|| = c 2 < α, α >
⎢ ⎥ ⇒ ||cα|| = c 2 < α, α >
⎣⎢X n ⎦⎥
⇒ ||cα|| = |c|.||α||.
Ejemplo 5.4.
4. Si α = θ entonces el resultado es inmediato, ya que
En relación al ejemplo 5.2.: |<θ, β>| = |<0•δ, β>| = |0.<δ, β>| = |0| = 0 = 0. ||β|| = ||α||.||β||.
< β, α >
Supongamos que α ≠ θ. Sea δ = β − α.
b || α ||2
Sea α = f(x)∈V. Entonces ||α|| = < α, α > = ∫f
2
( x )dx .
a
< β, α >
<δ, α> = < β − α , α>
|| α ||2
Observación:
< β, α >
Sean A∈Mmxn(ℜ) y A1, A2, …, An las columnas de A. En ese caso, Aj∈ℜn, = <β, α> – < α , α> (Por la propiedad 4 de
|| α ||2
m
∀ j = 1, 2, …, n. Luego, ||Aj|| = < A j, A j > = ∑ (A
i =1
ij )2 = (A j ) t A j . producto interno)
< β, α >
= <β, α> – .<α, α> (Por la propiedad 3 de producto
|| α ||2
Teorema 5.1.
interno)
Sea V un espacio euclídeo. Si α, β∈V y c∈K entonces: < β, α >
= <β, α> – . || α ||2
|| α ||2
1. ||α|| ≥ 0. = <β, α> – <β, α> = 0.
2. ||α|| = 0 si y sólo si α = θ.
3. ||cα|| = |c|.||α|| Ahora bien,
4. |<α, β>| ≤ ||α||.||β||. (Desigualdad de Cauchy-Schwartz)
5. ||α+β|| ≤ ||α|| + ||β||. (Desigualdad Triangular) <δ, δ> ≥ 0, es decir,

176 177
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

< β, α > = < α, α > + < α, β > + < α, β > + < β, β >
0 ≤ <δ, δ> = <δ, β − α>
|| α ||2
= < α, α > +2 < α, β > + < β, β >
< β, α >
= <β− α , δ>
|| α ||2 Luego,
< β, α >
= <β, δ> – < α , δ>
|| α ||2 ||α+β||2 = ( < α, α > +2 < α, β > + < β, β > )2
< β, α > = < α, α > +2 < α, β > + < β, β >
= <δ, β> – < α , δ>
|| α ||2 = ||α||2 + 2<α, β> + ||β||2
< β, α >
= <δ, β> – <α, δ> Por el apartado anterior |<α, β>| ≤ ||α||.||β||. Luego,
|| α ||2
< β, α > –||α||.||β|| ≤ <α, β> ≤ ||α||.||β||
= <δ, β> – <δ, α>
|| α ||2
⇒ 2<α, β> ≤ 2||α||.||β||
< β, α > ⇒ ||α||2 + ||β||2 + 2<α, β> ≤ ||α||2 + ||β||2 + 2||α||.||β||
= <δ, β> – .0
|| α ||2 ⇒ ||α+β||2 ≤ (||α|| + ||β||)2
= <δ, β> – 0 ⇒ ||α+β|| ≤ ||α||+||β||
= <δ, β>
< β, α > Definición 5.3.
= <β− α , β>
|| α ||2
Sean V un espacio euclídeo y α, β∈V. Se define como Distancia Euclídea
< β, α > entre α y β y se denota por d(α, β) a:
= <β, β> – < α , β>
|| α ||2
d(α, β) = ||α – β||
< β, α >
= <β, β> – .<α, β>
|| α ||2 Observaciones:
< α, β >
= <β, β> – .<α, β> 1. d(α, β) = d(α – β, θ).
|| α ||2
2. La distancia entre 2 vectores en un espacio euclídeo no es única en el
( < α, β > ) 2 sentido de que puede ser calculada a través de diferentes productos
= <β, β> –
|| α ||2 internos que estén definidos sobre dicho espacio euclídeo.

Teorema 5.2.
( < α, β > ) 2 < β, β >|| α ||2 −(< α, β >) 2
Luego, 0 ≤ <β, β> – ⇒0≤
|| α ||2 || α ||2 Sea V un espacio euclídeo. Si α, β∈V entonces:
⇒ 0 ≤ < β, β >|| α || −(< α, β >)
2 2
2 2
d 2 ( α , β) = α + β − 2 < α , β >
⇒ 0 ≤ || β ||2 || α ||2 −(< α, β >) 2
⇒ (< α, β >) 2 ≤ || β ||2 || α ||2 Demostración
⇒ |< α, β >| ≤ || α || . || β ||
Por definición:
5. ||α+β|| = < α + β, α + β) d(α, β) = ||α – β||

= < α, α + β)+ < β, α + β) Luego,

= < α + β, α > + < α + β, β > d2(α, β) = ||α – β||2


⇒ d (α, β) = <α – β, α – β>
2

= < α, α > + < β, α > + < α, β > + < β, β > ⇒ d2(α, β) = <α, α – β> + <–β, α – β>

178 179
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⇒ d2(α, β) = <α, α – β> – <β, α – β> La base canónica B = {e1, e2, …, en} es un conjunto ortonormal ya que:
⇒ d2(α, β) = <α – β, α> – <α – β, β>
⇒ d (α, β) = <α, α> + <–β, α> – (<α, β> + <–β, β>)
2
||ei|| = 0 2 + 0 2 + ... + 12 + ... + 0 2 = 1 = 1 , ∀ i = 1, 2, …, n.
⇒ d2(α, β) = <α, α> – <β, α> – (<α, β> – <β, β>)
<ei, ej> = 0.0 + 0.0 + … + 1.0 + … + 0.1 + … + 0.0 = 0. ∀ i = 1, 2, …, n,
⇒ d2(α, β) = <α, α> – <β, α> – <α, β> + <β, β>
j = 1, 2, …, n.
⇒ d2(α, β) = <α, α> + <β, β> – <α, β> – <α, β>
⇒ d2(α, β) = ||α||2 + ||β||2 – 2<α, β> Por consiguiente B es una base ortonormal de ℜn.
Ejemplo 5.5. Teorema 5.3.
En relación al ejemplo 5.1.: Sea V un espacio euclídeo.

⎡ A1 ⎤ ⎡ B1 ⎤ 1. ∀ α∈V se cumple que <θ, α> = 0.


⎢ ⎥ ⎢ ⎥ 2. ∀ α, β, δ∈V se cumple que <α, β + δ> = <α, β> + <α, δ>.
A B
Sean α, β∈ℜ n
definidos por α = ⎢ 2⎥ y β = ⎢ 2⎥ . Luego, 3. Si α, αi∈V, ci∈ℜ, i = 1, 2, …, n, entonces :
⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ n n
⎣⎢A n ⎦⎥ ⎣⎢Bn ⎦⎥ < α, ∑c • α
i =1
i i >= ∑c i =1
i < α, α i >
⎡ A1 − B1 ⎤
⎢ ⎥ 4. Si αi, βj∈V, ci, dj∈ℜ, 1 ≤ i ≤ n, 1 ≤ j ≤ m, entonces :
A − B2 ⎥
α −β = ⎢ 2
n m n m
. Por consiguiente:
⎢ M ⎥
⎢ ⎥
< ∑c • α ,∑d
i =1
i i
j=1
j •βj > = ∑∑ c d
i =1 j=1
i j < αi ,β j >

⎣⎢A n − Bn ⎦⎥ 5. Si S es un subconjunto de V ortogonal formado por vectores no


nulos entonces S es L.I.
n
d(α, β) = ||α – β|| = ∑ (A
i =1
i − Bi ) 2 Demostración

1. Sean α, β∈V. Luego, <θ, α> = <0•β, α> = 0.< β, α> = 0.


Como en V = ℜn se cumple que <α, β> = αtβ entonces otra forma de expresar 2. Sean α, β, δ∈V. Luego,
la distancia entre α y β es: <α, β> + <α, δ> = <β, α> + <δ, α>
= <β+δ, α>
d2(α, β) = ||α||2 + ||β||2 – 2αtβ = <α, β+δ>
n n
Definición 5.4. = < α, ∑c • α
i =1
i i >= ∑ < α, c • α
i =1
i i >

Sean V un espacio euclídeo y α∈V. Se dice que α es normalizado o unitario si n

||α|| = 1. = ∑< c • α ,α >


i =1
i i

n
Definición 5.5.
= ∑c
i =1
i < αi , α >
Sea V un espacio euclídeo. Se dice que un vector α∈V es ortogonal a un n
vector β∈V y se escribe α ⊥ β si <α, β> = 0. Un subconjunto S de V se dice
que es un conjunto ortogonal si ∀ α, β∈S con α ≠ β se cumple que α ⊥ β. Un
= ∑c
i =1
i < α, α i >

subconjunto S de V se dice que es un conjunto ortonormal si S es ortogonal y n m m n


cada vector de S es unitario. =< ∑c • α ,∑d
i =1
i i
j=1
j •βj > = ∑ d <∑ c • α , β
j=1
j
i =1
i i j >

Una base B de V se dice que es una base ortogonal (respectivamente m n


ortonormal) de V si B es un conjunto ortogonal (respectivamente ortonormal). = ∑d j=1
j < β j, ∑c • α
i =1
i i >

Ejemplo 5.6. m n
= ∑d ∑c
j=1
j
i =1
i < β j , αi >
Sea V = ℜn.

180 181
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

m n
⎧ n
= ∑∑ c d
j=1 i =1
i j < αi ,β j >


⎪ A ri A rj = 1 si i = j
= ⎨ rn=1

⎪ A A =0
n m
si i ≠ j
= ∑∑ c d
i =1 j=1
i j < αi ,β j > ⎪⎩ r =1 ri rj

3. Supongamos que S = {α1, α2, …, αp}. Sean escalares c1, c2, …, ⎧ n


P ⎪

⎪ A ri A ri = 1 si i = j
cp∈K tales que ∑ c i • α i = θ. Luego, ∀ j = 1, 2, …, p se cumple = ⎨ rn=1
I =1

⎪ A A =0
⎪⎩ r =1 ri rj
si i ≠ j
que:
⎧ n
P
∑ 2
⎪ (A ri ) = 1 si i = j
0 = <θ, αj> = < ∑c
I =1
i • α i , αj > ⎪
= ⎨ r =1 n
P

∑ A A =0
⎪⎩ r =1 ri rj
si i ≠ j
= <α j , ∑ c i • α i > (Por la propiedad 2 de producto interno)
I =1 ⎧⎪ || A i ||2 = 1 si i = j
p = ⎨
= ∑
i =1
ci < α j , α i > (Por el apartado 3) ⎪⎩< A i , A j >= 0 si i ≠ j
⎧⎪ || A || = 1
i
si i = j
j-1 p = ⎨
= ∑
i =1
c i < α j , α i > + cj<αj, αj> + ∑ ci < α j , α i >
i = j+1
⎪⎩< A i , A j >= 0 si i ≠ j

= 0 + cj||αj|| + 0 = cj||αj||2
2
Luego, las columnas de A forman un conjunto ortonormal. Como A es no
singular entonces por el teorema 4.10., sus columnas forman un conjunto L.I.
Como por hipótesis αj ≠ θ entonces ||αj||2 > 0. Por consiguiente, Luego, por el teorema 4.16., las columnas de A forman una base de ℜn. Por
cj = 0, ∀ j = 1, 2, …, p, es decir, S es L.I. consiguiente, las columnas de A forman una base ortonormal de ℜn.

Teorema 5.4. CS(⇐): Si las columnas de A forman una base ortonormal de ℜn entonces A es
ortogonal.
Sea A∈Mnxn(ℜ). A es ortogonal si y sólo si sus columnas forman una base
ortonormal de ℜn. Por hipótesis, las columnas de A forman una base ortonormal de ℜn. Por lo
tanto, las columnas de A forman un conjunto ortonormal. Luego,
Demostración
⎧⎪ || A i || = 1 si i = j
CN(⇒): Si A es ortogonal entonces sus columnas forman una base ortonormal ⎨
de ℜn. ⎪⎩< A i , A j >= 0 si i ≠ j
⎧⎪ || A i ||2 = 1 si i = j
Por hipótesis, A es ortogonal, es decir, AtA = AAt = In. En otras palabras A es ⇒ ⎨
no singular y A-1 = At. ⎪⎩< A i , A j >= 0 si i ≠ j
⎧ n
Luego, ∑
⎪ r =1
2
⎪ (A ri ) = 1 si i = j
⇒ ⎨ n
⎧ n
∑ t
⎪ (A ) ir A rj = 1 si i = j


A A =0
⎪⎩ r =1 ri rj
si i ≠ j
t ⎪ r =1
(AA )ij = ⎨ n
⎧ n

⎪ (A t ) A = 0
⎪⎩ r =1 ir rj si i ≠ j ∑
⎪ A ri A ri = 1

si i = j
⇒ ⎨ rn=1
⎪ A A =0

⎪⎩ r =1 ri rj
si i ≠ j

182 183
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎧ n Demostración


⎪ A ri A rj = 1 si i = j
⇒ ⎨ rn=1 1. Por hipótesis, S = {α1, α2, …, αn} es un subconjunto de V L.I.

⎪ A A =0
⎪⎩ r =1 ri rj
si i ≠ j Veamos que existen vectores no nulos β1, β2, …, βn tales que
{β1, β2, …, βn} es ortogonal y βi ∈ [{α1, α2, …, αi}], 1 ≤ i ≤ n.
⎧ n
∑ t
⎪ (A ) ir A rj = 1
⎪ r =1
si i = j Utilicemos inducción matemática. Veamos que la afirmación se
cumple para n = 2.
⇒ ⎨ n

⎪ (A t ) A = 0
⎪⎩ r =1 ir rj si i ≠ j
En efecto, S = {α1, α2} es L.I.
< α 2 , β1 >
⎧1 si i = j Definamos β1 = α1 y β2 = α2 – β1.
⇒ (AAt)ij = ⎨ || β1 ||2
⎩0 si i ≠ j
⇒ AAt = In. Luego, β2 ≠ θ y además β2 ⊥ β1, ya que:
⇒ A-1 = At.
⇒ A es ortogonal. < α 2 , β1 >
<β2 , β1> = <α2 – β1, β1>
|| β1 ||2
Teorema 5.5.
< α 2 , β1 >
= <α2, β1> –< β1, β1>
1 || β1 ||2
Sean V un espacio euclídeo y α, β∈V. Si α ≠ θ entonces β = α es un
|| α || < α 2 , β1 >
vector normalizado. = <α2, β1> – <β1, β1>
|| β1 ||2
Demostración < α 2 , β1 >
= <α2, β1> – ||β1||2
|| β1 ||2
Demostremos que ||β|| = 1.
= <α2, β1> – < α 2 , β1 > = 0.
En efecto,
Supongamos que la afirmación se cumple para n = p, es decir:
1 1
||β|| = < β, β > = < α, α>
|| α || || α || Sea S = {α1, α2, …, αp} un subconjunto de V L.I. Entonces existen
vectores no nulos β1, β2, …, βp tales que {β1, β2, …, βp} es
1 1 1 1
= < α, α> = . < α, α > ortogonal.
|| α || || α || || α || || α ||
1 1 Demostremos que la afirmación se cumple para n = p+1, es decir:
= < α, α > = || α ||2 = 1 =1
|| α ||2 || α ||2 Sea S = {α1, α2, …, αp, αp+1} un subconjunto de V L.I. Entonces
existen vectores no nulos β1, β2, …, βp, βp+1 tales que
5.3. PROCESO DE ORTONORMALIZACIÓN DE GRAM-SCHMIDT. {β1, β2, …, βp, βp+1} es ortogonal.

Teorema 5.6. Definamos:

Sea V un espacio euclídeo. Si S = {α1, α2, …, αn} es un subconjunto de V L.I. < α p +1 , β1 > < α p +1 , β 2 > < α p +1 , β p >
entonces existen vectores δ1, δ2, …, δn∈V que verifican las siguientes βp+1 = αp+1 – β1 – β2 – … –
|| β1 ||2 || β 2 ||2 || β n ||2
condiciones:
βp
1. {δ1, δ2, …, δn} es ortonormal.
2. ∀ i, 1 ≤ i ≤ n, se cumple que δi∈[{α1, α2, …, αi}] y por p
< α p +1 , β r >
consiguiente [{α1, α2, …, αi}] = [{δ1, δ2, …, δi}], 1 ≤ i ≤ n.
Es decir, β p +1 = α p +1 − ∑
r =1 || β r ||2
βr

Veamos que βp+1 ⊥ βi, 1 ≤ i ≤ p.

184 185
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

βi = c1 • α1 + c 2 • α 2 + ... + ci • α i
En efecto,
Por consiguiente,
p
< α p +1 , β r >
<βp+1, βi> = < α p +1 − ∑
r =1 || β r ||2
β r , βi>
1 1 1 1
βi = c1 • α1 + c 2 • α 2 + ... + ci • α i
p
< α p +1 , β r > || βi || || βi || || βi || || βi ||
= <αp+1, βi> – < ∑ || β r ||2
β r , βi>
1 1 1
r =1
δi = c1 • α1 + c 2 • α 2 + ... + ci • α i
p
< α p +1 , β r > || βi || || βi || || βi ||
= <αp+1, βi> – ∑ r =1 || β r ||2
< β r , βi >
Luego, δi∈[{α1, α2, …, αi}] y además [{α1, α2, …, αi}] =
i −1
< α p +1 , β r > < α p +1 , βi > [{δ1, δ2, …, δi}], 1 ≤ i ≤ n.
= <αp+1, βi> – ∑
r =1 || β r ||2
< β r , βi > –
|| βi ||2
< βi , β i > +
Teorema 5.7.
p
< α p +1 , β r >
– ∑
r =i +1 || β r || 2
< β r , βi >
Sea V un espacio euclídeo. Si V es finito dimensional entonces V tiene una
i −1 < α p +1 , β r > < α p +1 , βi > base ortonormal.
= <αp+1, βi> – ∑
r =1 || β r ||2
.0 –
|| βi ||2
< β i , βi > +
Demostración
p
< α p +1 , β r >
– ∑
r =i +1 || β r ||2
.0 (Por hipótesis de inducción) Sea Dim(V) = n y B = {α1, α2, …, αn} una base de V. Por el teorema anterior
se tiene que a partir de B se puede construir un conjunto {δ1, δ2, …, δn}
< α p +1 , βi > ortonormal y por consiguiente L.I. Luego, {δ1, δ2, …, δn} es una base
= <αp+1, βi> – || βi ||2
|| βi ||2 ortonormal de V.
= <αp+1, βi> – <αp+1, βi> = 0.
Ejemplo 5.7.
Luego, el conjunto S1 = {β1, β2, …, βn} es ortogonal y βi ≠ θ, 1 ≤ i
Construyamos una base ortonormal en ℜ3 comenzando con la base:
β
≤ n. Si definimos los vectores δ1, δ2, …, δn∈V tales que δi = i
|| βi || ⎧ ⎡1⎤ ⎡ 0⎤ ⎡1⎤ ⎫
entonces el conjunto {δ1, δ2, …, δn} es ortogonal y por el teorema ⎪ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎪
⎨α1 = ⎢1⎥, α 2 = ⎢1⎥, α 3 = ⎢0⎥ ⎬
5.4., el conjunto {δ1, δ2, …, δn} es ortonormal. ⎪ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ ⎢⎣1⎥⎦ ⎪
⎩ ⎭
2. Por el apartado anterior se cumple que:
Aplicamos Gram-Schmidt:
β1 = α1
< α 2 , β1 > < α 2 , β1 > < α 2 , β1 > ⎡1⎤
β2 = α2 – β1 = α2 – α1 = – α1 + α2
|| β1 ||2 || β1 ||2 || β1 ||2 ⎢ ⎥
β1 = α1 = ⎢1⎥
< α 3 , β1 > < α3 ,β2 > ⎢⎣0⎥⎦
β3 = α3 – β1 – β2
|| β1 ||2 || β 2 ||2
< α 2 , β1 >
< α 3 , β1 > < α3 ,β2 > < α 2 , β1 > β2 = α2 – β1
β3 = α3 – α1 – (α2 – α1) || β1 ||2
|| β1 ||2 || β 2 ||2 || β1 ||2
⎡0 ⎤ ⎡1⎤ ⎡0⎤ ⎡1⎤ ⎡0⎤ ⎡ 1 2 ⎤ ⎡ − 1 2 ⎤
β3 = α3 –
< α 3 , β1 >
α1 –
< α3 ,β2 >
α2 +
< α 3 , β 2 > < α 2 , β1 >
α1 ⎢ ⎥ (0.1 + 1.1 + 1.0) ⎢ ⎥ ⎢ ⎥ 1 ⎢ ⎥ ⎢ ⎥ ⎢ 1 ⎥ ⎢ 1 ⎥
= ⎢1⎥ − 2 2 1 = 1 − 1 = 1 −⎢ ⎥ = ⎢ ⎥
|| β1 ||2 || β 2 ||2 || β 2 ||2 || β1 ||2 1 + 1 + 02 ⎢ ⎥ ⎢ ⎥ 2 ⎢ ⎥ ⎢ ⎥ ⎢ 2⎥ ⎢ 2⎥
⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ 0 1
< α 3 , β 2 > < α 2 , β1 > < α 3 , β1 > < α 3 , β2 > ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦
β3 = ( – )α1 – α2 + α3
|| β 2 ||2 || β1 ||2 || β1 ||2 || β 2 ||2 < α 3 , β1 > < α3 ,β2 >
β3 = α3 – β1 – β2
En general, existen escalares c1, c2, …, cn∈K tales que: || β1 ||2 || β 2 ||2

186 187
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡− 1 ⎤ En consecuencia, el conjunto {δ1 , δ 2 , δ3 } es una base ortonormal de ℜ3.


⎡1⎤ ⎡1⎤ 2⎥
⎢ ⎥ 1.1 + 0.1 + 1.0 ⎢ ⎥ − 1 +1 ⎢
= ⎢0 ⎥ − 2 2 1 − 2 ⎢ 1 ⎥
2 ⎢ ⎥ 1 2⎥
⎢⎣1⎥⎦
1 +1 + 0
⎢⎣0⎥⎦ ( − ) 2
+ ( 1 ) 2 + 12 ⎢ Ejemplo 5.8.
2 2 1⎥
⎣⎢ ⎦
Construyamos una base ortonormal en P2 en el intervalo [0, 1] con el producto
⎡1 ⎤ ⎡1 ⎤ ⎡− 1 ⎤ ⎡1 ⎤ ⎡ 1 2 ⎤ ⎡− 1 ⎤ 1
⎢ ⎥ 1⎢ ⎥
= ⎢ 0 ⎥ − ⎢1 ⎥ −
1
2


2⎥ ⎢ ⎥
1 ⎥ = ⎢0 ⎥ − ⎢ 1 ⎥ −
1 ⎢
2⎢
2⎥
1 ⎥
interno <α, β> = ∫ f (t)g(t )dt , con α = f(t) y β = g(t), comenzando con la
0
2 1 + 1 +1 ⎢ 2⎥ ⎢ ⎥ ⎢ 2⎥ 3 ⎢ 2⎥
⎢⎣1⎥⎦ ⎢⎣0⎥⎦ 4 4 ⎢⎣1⎥⎦ 2⎢ base:
⎢⎣ 1⎥ ⎢⎣ 0 ⎥⎦ 1⎥
⎦ ⎣ ⎦
{α1(t) = 1, α2(t) = t, α3(t) = t2}
⎡1⎤ ⎡ 1 2 ⎤ ⎡− 1 ⎤
2⎥ ⎡1⎤ ⎡ 1 2 ⎤ ⎡⎢− 1 ⎤
6⎥
⎢ ⎥ ⎢1 ⎥ 1 ⎢ ⎢ ⎥
1 ⎥ = ⎢0 ⎥ − ⎢ 1 ⎥ − ⎢ 1 ⎥
= ⎢0 ⎥ − ⎢ ⎥ − ⎢ ⎢ ⎥ Aplicamos Gram-Schmidt:
2 3⎢ 2⎥ 2 6⎥
⎢⎣1⎥⎦ ⎢ 0 ⎥ 1⎥ ⎢⎣1⎥⎦ ⎢ 0 ⎥ ⎢⎢ 1 ⎥
⎣⎢ ⎦⎥ ⎣⎢ ⎦ ⎢⎣ ⎦⎥ ⎣ 3⎦ β1(t) = α1(t) = 1.
⎡1 − 1 + 1 ⎤ ⎡ 2 ⎤ < α 2 ( t ), β1 ( t ) >
⎢ 2 6⎥ ⎢ 3⎥ β2(t) = α2(t) – β1 ( t )
||β1 ( t ) ||2
= ⎢0 − 1 − 1 ⎥ = ⎢ − 2 ⎥
⎢ 2 6 ⎥ ⎢ 3⎥ 1
⎢⎣ 1 − 0 − 1 3 ⎥⎦ ⎢⎣ 2 3 ⎥⎦ 1 t2 1

< α 2 ( t ), β1 ( t ) >=< t,1 >= tdt =
0 2
=
2
0

Luego, 1

2 1
||β1 ( t ) || =< 1,1 >= dt = t 0 = 1
0
2 2
β1 = 1 + 1 + 0 = 2 2 1 1 2t − 1
⇒ β2(t) = t – .1 = t – =
2 2 2
β2 = (− 1 2 ) + (1 2 ) + 1 =
2 2
2 3
2
= 6
2 β3(t) = α3(t) –
< α 3 ( t ), β1 ( t ) >
β1 ( t ) –
< α 3 ( t ), β 2 ( t ) >
β2 (t )
||β1 ( t ) ||2 ||β 2 ( t ) ||2
β3 = (2 3 ) + (− 2 3 ) + (2 3 )
2 2 2
= 12
9
= 4
3
= 2
3
=2 3
3 1 t3
1
1
< α 3 ( t ), β1 ( t ) >=< t 2 ,1 >= ∫ t dt =
2
=
0 3 0
3
Por consiguiente, 1
2t − 1 1 2t − 1 1 t2 t 4 t3 1 1 3− 2 1
⎡ 2 ⎤
< α 3 ( t ), β 2 ( t ) >=< t 2 ,
2 ∫
>= t 2 (
0 2 0 ∫
)dt = ( t 3 − )dt = −
2 4 6
= − =
4 6 12
=
12
0

⎡1⎤ ⎡1⎤ ⎢ 2 ⎥ 2t − 1 2t − 1 1 2t − 1 1 4t 2 − 4t + 1
1 1 ⎢ ⎥ 2⎢ ⎥ ⎢ 2 ⎥ ||β 2 ( t ) ||2 =< , >= ( ∫) 2 dt = ∫ dt
δ1 = β1 = ⎢1⎥ = 1 =⎢ ⎥ 2 2 2 4
2 ⎢ ⎥ ⎢ 2⎥
0 0
β1 2⎢ ⎥
0
⎣ ⎦ ⎢ 0 ⎥
⎣ ⎦ ⎢ 0 1
⎥ 1 1 t3 t2 t 1 1 1 4−6+3 1
∫ (t
2
⎣⎢ ⎥⎦ = − t + )dt = ( − + ) = − + = =
0 4 3 2 4 0 3 2 4 12 12
⎡− 6 ⎤
⎡− 1 ⎤ ⎡− 1 ⎤ ⎡− 1 ⎤ ⎢ 1
2⎥ 2⎥ 2⎥ ⎢ 6⎥
⎢ ⎢ ⎢ ⎥ 1 2t − 1 1 2t − 1
δ2 =
1
β2 =
1
⎢ 1 ⎥= 2 ⎢ 1 ⎥= 6 ⎢ 1 ⎥=⎢ 6 ⎥ β3(t) = t2 – .1 – 12 ( ) = t2 – – ( )
2⎥ 2⎥ 2⎥ ⎢ 6⎥ 3 1 2 3 2
β2 6 ⎢ 6⎢ 3 ⎢
2 ⎣⎢ 1⎥ ⎢⎣ 1⎥ ⎢⎣ 1⎥ ⎢ 6 ⎥ 12
⎦ ⎦ ⎦ 3 ⎥⎦
⎣⎢ 1 1 6t 2 − 2 − 6t + 3 6t 2 − 6t + 1
= t2 – −t+ = =
⎡ 3 ⎤ 3 2 6 6
⎡ 2 ⎤ ⎡ 2 ⎤ ⎡ 2 ⎤ ⎢ 3 ⎥
3 3 3
1 1 ⎢ 2 ⎥ 3 ⎢ 2 ⎥ 3⎢ 2 ⎥ ⎢ 3 ⎥
δ3 = β3 = ⎢− ⎥ = ⎢− ⎥ = ⎢− ⎥ = ⎢− ⎥ Hallamos ||β3 ( t ) ||2
β3 2 3 ⎢ 2 3⎥ 2 3 ⎢ 2 3⎥ 2 ⎢ 3⎥ ⎢
2
3 ⎥
3 ⎢⎣ 3 ⎥⎦ ⎢⎣ 3 ⎥⎦ ⎢⎣ 3 ⎥⎦ ⎢ 3 ⎥ 6t 2 − 6t + 1 6t 2 − 6t + 1 1 6t 2 − 6t + 1

⎣⎢ 3 ⎥⎦ ||β3 ( t ) ||2 = <


6
,
6
>= (
0 6 ∫) 2 dt

188 189
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

1 36t 4 − 72 t 3 + 48t 2 − 12t + 1 ⎡ 2 ⎤ ⎡ 6 ⎤


= ∫(
0 36
)dt ⎢ 2⎥
⎢ ⎥
⎢−

6⎥

β 2 2 2 6 6 6 6
1 ⇒ Pr oyW = (2. + 1. + 3.0)⎢ ⎥ + (2.(− ) + 1. + 3. )⎢ ⎥
t5 t4 t3 t2 t 2 2 ⎢ 2 ⎥ 6 6 3 ⎢ 6 ⎥
= (36 − 72 + 48 − 12 + )
180 144 108 72 36 0 ⎢ 0 ⎥ ⎢ 6 ⎥
⎢⎣ ⎥⎦ ⎢⎣ 3 ⎥⎦
36 72 48 12 1 1 1 4 1 1 36 − 90 + 80 − 30 + 5 1
= − + − + = − + − + = = ⎡ 3 ⎤
180 144 108 72 36 5 2 9 6 36 180 180 ⎢ 3 ⎥
3 3 3 ⎢ 3 ⎥
Luego, + (2. + 1.(− ) + 3. ) ⎢− ⎥
3 3 3 ⎢ 3 ⎥
⎢ 3 ⎥
β1 ( t ) 1 ⎢⎣ 3 ⎥⎦
δ1 ( t ) = = =1
|| β1 ( t ) || 1
⎡ 2 ⎤ ⎡ 6 ⎤ ⎡ 3 ⎤
2t − 1 ⎢ 2⎥ ⎢− 6⎥ ⎢ 3 ⎥
β2 (t) 12 (2 t − 1) 2 3 (2 t − 1) 3 2⎢ 2 ⎥ 5 6⎢ 6 ⎥ 4 3⎢ 3 ⎥
δ 2 (t) = = 2 = = = 3 (2 t − 1) = ⎢ ⎥+ ⎢ ⎥+ ⎢− ⎥
|| β 2 ( t ) || 1 2 2 2 ⎢ 2⎥ 6 ⎢ 6⎥ 3 ⎢ 3 ⎥
12 ⎢ 0 ⎥ ⎢ 6 ⎥ ⎢ 3 ⎥
⎢⎣ ⎥⎦ ⎢⎣ 3 ⎥⎦ ⎢⎣ 3 ⎥⎦
6t 2 − 6t + 1
δ3 (t ) = 3
β (t)
= 6 =
180
(6 t 2 − 6t + 1) = 5 (6 t 2 − 6t + 1) ⎡ 3 ⎤ ⎡ − 5 ⎤ ⎡ 4 ⎤ ⎡(9 − 5 + 8) ⎤ ⎡2⎤
|| β3 ( t ) || 6 ⎢ 2⎥ ⎢ 6 ⎥ ⎢ 3 ⎥ ⎢ 6⎥
⎢ ⎥
= ⎢ 3 ⎥ + ⎢ 5 ⎥ + ⎢− 4 ⎥ = ⎢⎢(9 + 5 − 8) ⎥⎥ = ⎢1⎥
1
180 ⎢ 2⎥ ⎢ 6⎥ ⎢ 3 ⎥ 6
0 5 4 ⎢ (5 + 4) ⎥ ⎢⎣3⎥⎦
⎣⎢ ⎦⎥ ⎢⎣ 3 ⎥⎦ ⎣⎢ 3 ⎦⎥ ⎣⎢ 3 ⎦⎥
Por consiguiente, el conjunto {δ1(t), δ2(t), δ3(t)} es una base ortonormal de P2.

5.4. PROYECCIÓN ORTOGONAL. Nótese que β = Pr oy Vβ . Esto será demostrado para cualquier vector β∈V en un
próximo teorema.
Definición 5.6.
Ejemplo 5.10.
Sean V un espacio euclídeo, W un subespacio de V finito dimensional,
S = {α1, α2, …, αp} una base ortonormal de W y β∈V. Se define como En relación al ejemplo 5.8., calculemos la proyección ortogonal del vector
proyección ortogonal de β sobre W y se denota por Pr oy Wβ al vector: β(t) = t+2 sobre V = W = P2.
3

p
Pr oyβW( t ) = ∑ < β(t ), δ (t ) > δ (t )
i i


i =1
Pr oy Wβ = < β, α i > α i
1 1
i =1
∫ ∫
⇒ Pr oy βW( t ) = ( ( t + 2).1dt ).1 + ( ( t + 2). 3 (2 t − 1)dt ) 3 (2 t − 1)
0 0
Observación:
1

Pr oy Wβ ∈ W. ∫
+ ( ( t + 2). 5 (6 t 2 − 6t + 1)dt ) 5 (6 t 2 − 6 t + 1)
0

Ejemplo 5.9. Ahora bien,


⎡ 2⎤
⎢ ⎥ 1 1 1
En relación al ejemplo 5.7., calculemos Pr oy Wβ , siendo β = ⎢1 ⎥ y V=W=ℜ3. t2 12 02 5
⎢⎣3⎥⎦ ∫
0

( t + 2).1dt = ( t + 2)dt = (
0
2
+ 2 t ) = ( + 2.1) − ( + 2.0) =
2 2 2
0

1 1 1
2 t 3 3t 2
Pr oy Wβ =
3

∑ < β, δ i > δi ∫ (t + 2).


0

3 (2 t − 1)dt = 3 (2 t 2 + 3t − 2)dt = 3 (
0
3
+
2
− 2t )
0
i =1

190 191
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

1 1 1 1 1
2.13 3.12 2.0 3 3.0 2 2 3 3
= 3(
3
+
2
− 2.1) − 3 (
3
+
2
− 2.0) = 3 ( + − 2) =
3 2 6 ∫
0

e t . 5 (6 t 2 − 6 t + 1)dt = 5 e t (6 t 2 − 6 t + 1)dt = 6 5 t 2 e t dt − 6 5 te t dt + 5 e t dt
0

0

0

0
1
1 1
6t4
6t 3
11t 2 = 6 5 .(e − 2) − 6 5 .1 + 5 (e − 1) = 6 5 e − 12 5 − 6 5 + 5 e − 5 = (7e − 19) 5
∫ (t + 2).
0

5 (6 t 2 − 6 t + 1)dt = 5 (6 t 3 + 6 t 2 − 11t + 2)dt = 5 (
0
4
+
3

2
+ 2t )
⇒ Pr oyβW(t) = (e − 1).1 + (3 − e) 3 . 3 (2t − 1) + (7e − 19) 5 . 5 (6t 2 − 6t + 1)
0

⇒ Pr oyβW(t) = (e − 1) + (3 − e)(6 t − 3) + (7e − 19)(30t 2 − 30t + 5)


6.14 6.13 11.12 6.0 4 6.0 3 11.0 2
= 5( + − + 2.1) − 5 ( + − + 2.0) ⇒ Pr oyβW(t) = (210e − 570) t 2 + (588 − 216e) t + (39e − 105)
4 3 2 4 3 2
3 11
= 5 ( + 2 − + 2) = 5 .0 = 0 Teorema 5.8.
2 2
Sean V un espacio euclídeo y B = {α1, α2, …, αn} una base ortonormal de V.
Luego,
Si β∈V entonces β = Pr oy Vβ .

5 3 5 1 1 5
⇒ Pr oy βW( t ) = .1 + . 3 (2t − 1) + 0. 5 (6 t 2 − 6 t + 1) = + (2 t − 1) = t − + = t + 2 Demostración
2 6 2 2 2 2
Como B es una base, por el teorema 4.12. β se puede escribir de manera única
Ejemplo 5.11. como combinación lineal de α1, α2, …, αn, es decir, existen escalares únicos c1,
c2, …, cn ∈ K tales que:
En relación al ejemplo 5.8., calculemos la proyección ortogonal del vector
β(t) = et (β(t)∈V=C[0, 1]) sobre W = P2[0, 1] (W = P2[0, 1] es un subespacio n
de V = C[0, 1] finito dimensional): β= ∑c i =1
i • αi
3
Pr oy βW(t) = ∑ < β(t ), δ (t ) > δ (t )
i =1
i i Luego,
1 1
n n

0

⇒ Pr oyβW(t) = ( e t .1dt ).1 + ( e t . 3 (2t − 1)dt ) 3 (2 t − 1)
0
<β, αj> = < ∑c i • α i , αj > = ∑c i < αi , α j >
i =1 i =1
1 j−1 n


+ ( e t . 5 (6t 2 − 6 t + 1)dt ) 5 (6 t 2 − 6 t + 1) = ∑c
i =1
i < α i , α j > + cj<αj, αj> + ∑c
i = j+1
i < αi , α j >
0
j−1 n
Ahora bien, = ∑ c .0
i =1
i + cj<αj, αj> + ∑ c .0
i = j+1
i = cj<αj, αj> = cj.1 = cj

Se puede verificar fácilmente que:


n n
1 1 1 Por consiguiente, β = ∑c i • αi = ∑ < β, α i > α i = Pr oy Vβ .
∫ e dt = e − 1; ∫ te dt = 1 y ∫ t e dt = e − 2
t t 2 t i =1 i =1

0 0 0
Definición 5.7.
Luego,
1 Sean V un espacio euclídeo y S un subconjunto no vacío de V. Se define como

0
e t .1dt = e − 1 Complemento Ortogonal de S y se denota por S⊥ al conjunto
S⊥ = {α∈V: α⊥β, ∀ β∈S}
1 1 1

∫e . ∫ ∫
t
3 (2 t − 1)dt = 2 3 te t dt − 3 e t dt = 2 3 .1 − 3 (e − 1) = (3 − e) 3 Observación:
0 0 0
S⊥ ≠ ∅ ya que θ∈S⊥; esto porque θ⊥θ.

192 193
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Teorema 5.9. ⎧ ⎡1⎤ ⎡0 ⎤ ⎡1⎤ ⎫


⎪ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎪
Sean V un espacio euclídeo finito dimensional con Dim(V) = n y S un S = ⎨α1 = ⎢1⎥, α 2 = ⎢1⎥, α 3 = ⎢0⎥ ⎬
subconjunto no vacío de V. Si S es subespacio de V entonces: ⎪ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ ⎢⎣1⎥⎦ ⎪
⎩ ⎭
1. S⊥ es un subespacio de V.
α∈S⊥ si y sólo si α⊥α1, α⊥α2 y α⊥α3, es decir, <α, α1>=<α, α2>=<α, α3>=0.
2. S∩S⊥ = {θ}.
3. Dim(S⊥) = n – Dim(S).
⎡ X1 ⎤
⎢ ⎥
Demostración Supongamos que α = ⎢X 2 ⎥ . Luego,
⎢⎣ X 3 ⎥⎦
1. Es claro que θ∈S⊥. Sean α, β∈S⊥, δ∈S y c∈K. Luego,

<c•α + β, δ> = <c•α, δ> + <β, δ> <α, α1> = 0 ⇒ 1.X1 + 1.X2 = X1 + X2 = 0.
= c<α, δ> + <β, δ> <α, α2> = 0 ⇒ 1.X2 + 1.X3 = X2 + X3 = 0.
= c.0 + 0 = 0. <α, α3> = 0 ⇒ 1.X1 + 1.X3 = X1 + X3 = 0.

Por consiguiente, <c•α + β, δ>∈S⊥ y S⊥ es un subespacio de V. Esto concluye en el siguiente SEL homogéneo:
2. Sea α ∈S∩S⊥. Luego, <α, α> = 0 ⇒ α = θ. Por consiguiente,
S∩S⊥ = {θ}. ⎧ X1 + X 2 = 0
3. Sea {α1, α2, …, αp} una base ortonormal de S. Por el teorema 4.17., ⎪
⎨X 2 + X 3 = 0
se puede expandir esta base a una base B para ℜn ⎪X + X = 0
B = {α1, α2, …, αp, βp+1, βp+2, …, βn}. Por el teorema 5.6., se puede ⎩ 1 3

convertir a B en una base ortonormal para ℜn. La base que ya es


ortonormal, es decir, {α1, α2, …, αp} no cambia en el proceso y se Lo resolvemos:
obtiene la base ortonormal B1 = {α1, α2, …, αp, αp+1, αp+2, …, αn}.
Sólo basta demostrar que {αp+1, αp+2, …, αn} es una base de S⊥. ⎡1 1 0 0⎤ ⎡1 1 0 0⎤ ⎡1 1 0 0⎤
⎢ ⎥ r3 → r3 − r1 ⎢ ⎥ r3 → r3 + r2 ⎢ ⎥
Como el conjunto de vectores formado por los vectores αi es L.I. se ⎢ 0 1 1 0 ⎥ ⎯⎯ ⎯ ⎯ → ⎢ 0 1 1 0 ⎥ ⎯⎯ ⎯ ⎯ → ⎢0 1 1 0 ⎥
debe demostrar que es un conjunto de generadores de S⊥. Sea δ∈S⊥. ⎢1 0 1 0⎥ ⎢0 − 1 1 0 ⎥ ⎢0 0 2 0 ⎥
Luego, por el teorema 5.8., se cumple que: ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

n Luego,
δ= ∑ < δ, α i > αi
i =1 2X3 = 0 ⇒ X3 = 0.
X2 + X3 = 0 ⇒ X2 + 0 = 0 ⇒ X2 = 0
Pero <δ, αi> = 0, ∀ i = 1, 2, …, p, ya que δ∈S⊥ y αi∈S. Por X1 + X2 = 0 ⇒ X1 + 0 = 0 ⇒ X1 = 0
consiguiente,
Por consiguiente,
n
δ= ∑
i = p +1
< δ, α i > α i
⎡ X1 ⎤ ⎡0⎤
⎢ ⎥ ⎢ ⎥
α = ⎢ X 2 ⎥ = ⎢ 0 ⎥ = θ 3 x1
Luego, {αp+1, αp+2, …, αn} es un conjunto de generadores de S⊥ y ⎣⎢ X 3 ⎦⎥ ⎣⎢0⎦⎥
por ende es una base de S⊥, lo cual significa que
Dim(S⊥) = n – Dim(S).
En consecuencia, S⊥ = {θ3x1}
Ejemplo 5.12.
Nótese que esto ocurre ya que los vectores α1, α2, α3 son L.I.; Dim(S) = 3 y
En relación al ejemplo 5.7., determinemos el complemento ortogonal del Dim(S⊥) = 0.
subconjunto S de V = ℜ3:

194 195
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Ejemplo 5.13. ⎡ 1⎤
⎢ ⎥
En relación al ejemplo 5.7., determinemos el complemento ortogonal del En consecuencia, S⊥ = {X ∈ ℜ3 : X = a ⎢ − 1⎥; a ∈ ℜ}
subconjunto S de V = ℜ3: ⎢⎣ 1⎥⎦

⎧ ⎡1⎤ ⎡0 ⎤ ⎡ 3⎤ ⎫ Nótese que S⊥ ≠ {θ3x1} ya que los vectores α1, α2, α3 son L.D., Dim(S) = 2 y
⎪ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎪ Dim(S⊥) = 1.
S = ⎨α1 = ⎢1⎥, α 2 = ⎢1⎥, α 3 = ⎢3⎥ ⎬
⎪ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎪
⎩ ⎭ Teorema 5.10. (Teorema de Pitágoras)

α∈S⊥ si y sólo si α⊥α1, α⊥α2 y α⊥α3, es decir, <α, α1> = <α, α2> = <α, α3> Sean V un espacio euclídeo y α, β∈V.
= 0.
1. α ⊥ β si y sólo si ||α – β||2 = ||α||2 + ||β||2.
⎡ X1 ⎤ 2. α ⊥ β si y sólo si ||α + β||2 = ||α||2 + ||β||2.
⎢ ⎥
Supongamos que α = ⎢X 2 ⎥ . Luego, Demostración
⎢⎣ X 3 ⎥⎦
1. CN(⇒): Si α ⊥ β entonces ||α – β||2 = ||α||2 + ||β||2.
<α, α1> = 0 ⇒ 1.X1 + 1.X2 = X1 + X2 = 0.
<α, α2> = 0 ⇒ 1.X2 + 1.X3 = X2 + X3 = 0. Por hipótesis, α ⊥ β, es decir, <α, β> = 0.
<α, α3> = 0 ⇒ 3.X1 + 3.X2 = 3X1 + 3X2 = 0.
Por el teorema 5.2., se cumple que
Esto concluye en el siguiente SEL homogéneo: 2 2 2
d 2 (α, β) = α − β = α + β − 2 < α, β > .
⎧ X1 + X 2 = 0
⎪ Luego, ||α – β||2 = ||α||2 + ||β||2 – 2.0 = ||α||2 + ||β||2.
⎨ X 2 + X3 = 0
⎪3X + 3X = 0
⎩ 1 2
CS(⇐): Si ||α – β||2 = ||α||2 + ||β||2 entonces α ⊥ β.

Lo resolvemos: Por hipótesis, ||α – β||2 = ||α||2 + ||β||2 y por el teorema 5.2, se cumple
que ||α – β||2 = ||α||2 + ||β||2 – 2<α, β>. Luego,
⎡1 1 0 0⎤ ⎡1 1 0 0⎤
⎢ ⎥ r3 → r3 −3r1 ⎢ ⎥ ||α||2 + ||β||2 = ||α||2 + ||β||2 – 2<α, β>
⎢ 0 1 1 0 ⎥ ⎯⎯ ⎯ ⎯ → ⎢0 1 1 0 ⎥
⎢ 3 3 0 0⎥ ⎢0 0 0 0 ⎥ ⇒ 2<α, β> = ||α||2 + ||β||2 – ||α||2 – ||β||2
⎣ ⎦ ⎣ ⎦ ⇒ 2<α, β> = 0
⇒ <α, β> = 0
Luego, ⇒α⊥β

X2 + X3 = 0 ⇒ X2 = -X3 2. CN(⇒): Si α ⊥ β entonces ||α + β||2 = ||α||2 + ||β||2.


X1 + X2 = 0 ⇒ X1 = -X2 = -(-X3) = X3
Por hipótesis, α ⊥ β, es decir, <α, β> = 0.
Por consiguiente,
Por el teorema 5.1., apartado 5 se cumple que:
⎡ X1 ⎤ ⎡ X 3 ⎤ ⎡ 1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 2 2 2
α + β = α + β + 2 < α, β > .
α = ⎢X 2 ⎥ = ⎢ − X 3 ⎥ = X 3 ⎢ − 1⎥
⎢⎣ X 3 ⎥⎦ ⎢⎣ X 3 ⎥⎦ ⎢⎣ 1⎥⎦
Luego, ||α + β||2 = ||α||2 + ||β||2 + 2.0 = ||α||2 + ||β||2.

CS(⇐): Si ||α + β||2 = ||α||2 + ||β||2 entonces α ⊥ β.

196 197
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Por hipótesis, ||α + β||2 = ||α||2 + ||β||2 y por el teorema 5.1, apartado p −1 n

5 se cumple que ||α + β||2 = ||α||2 + ||β||2 + 2<α, β>. Luego, = <β,αp> – ∑ < β, α
i =1
i > .0 – < β, α p > .1 – ∑ < β, α
i = p +1
i > .0

||α||2 + ||β||2 = ||α||2 + ||β||2 + 2<α, β> = <β,αp> – 0– < β, α p > – 0 = 0.


⇒ 2<α, β> = ||α||2 + ||β||2 – ||α||2 – ||β||2
⇒ 2<α, β> = 0 Luego, δ∈ W⊥ y δ = β – β W , es decir, β = β W + δ. Nótese que
⇒ <α, β> = 0
⇒α⊥β β W = Pr oy Wβ y es un vector único en W. Si definimos β W ⊥ = δ se

Observación: cumple que β = β W + β W ⊥ . Nótese que β W ⊥ = Pr oy Wβ⊥ y es un


vector único en W⊥.
Del teorema anterior se desprende que:
2. Veamos que d(β, Pr oy Wβ ) ≤ d(β, δ) ∀ δ∈W:
1. α ⊥ β si y sólo si d2(α + β, θ) = d2(α, θ) + d2(β, θ).
2. α ⊥ β si y sólo si d2(α, β) = d2(α, θ) + d2(β, θ).
d(β, Pr oy Wβ ) ≤ d(β, δ) si y sólo si (d(β, Pr oy Wβ ))2 ≤ (d(β, δ))2, es
Teorema 5.11.
decir, d(β, Pr oy Wβ ) ≤ d(β, δ) si y sólo si ||β – β W ||2 ≤ ||β – δ||2.
Sea V un espacio euclídeo. Si W es un subespacio de V finito dimensional
entonces: Ahora bien,

1. ∀ β∈V se cumple que existen vectores únicos β W ∈W y β W ⊥ ∈W⊥ β – δ = (β – β W ) +( β W – δ)

tales que β = β W + β W ⊥ = Pr oy Wβ + Pr oy Wβ⊥ .


Luego,
2. Pr oy Wβ es la mejor aproximación a β por vectores de W, en el
||β – δ||2 = ||(β – β W ) +( β W – δ)||2. Pero (β – β W )∈ W⊥ y ( β W – δ)∈
sentido que la d(β, δ) ≥ d(β, Pr oy Wβ ) ∀ δ∈W, es decir, d(β, δ)
W, luego, (β – β W )⊥( β W – δ). Por consiguiente, por el teorema
es mínima cuando δ = Pr oy Wβ , ∀ δ∈W.
5.9., se cumple que:

Demostración ||β – δ||2 = ||β – β W ||2 +|| β W – δ||2 ≥ ||β – β W ||2.


1. Como W es finito dimensional entonces por el teorema 5.6. existe
una base ortonormal B = {α1, α2, …, αn} de W. Por lo tanto, d(β, δ) es mínima cuando δ = Pr oy Wβ , ∀ δ∈W.
n
Sea β∈V. Definamos a β W como β W = ∑ < β, α
i =1
i > α i y sea
Ejemplo 5.14.

δ = β – β W . Veamos que δ∈ W . En relación al ejemplo 5.11., por el teorema 5.11., apartado 2, el elemento de
W = P2[0, 1] más cercano a β(t) = et es Pr oy βW( t ) , es decir:
En efecto,

n Pr oyβW
(t)
= (210e − 570) t 2 + (588 − 216e) t + (39e − 105)
<δ, αp> = <β – β W , αp> = <β – ∑ < β, α
i =1
i > α i , αp >

n Igualmente, para calcular Pr oy βW( t⊥) nos valemos del teorema 5.10., apartado 1,
= <β,αp> – < ∑ i =1
< β, α i > α i , αp>
es decir, β(t) = Pr oy βW( t ) + Pr oy βW( t⊥) . Luego,
n
= <β,αp> – ∑ < β, α
i =1
i >< α i , α p >
Pr oy βW( t⊥) =β(t) – Pr oy βW( t )
p −1 n
=<β,αp>– ∑ < β, α
i =1
i >< α i , α p > – < β, α p >< α p , α p > – ∑ < β, α
i = p +1
i >< α i , α p > ⇒ Pr oy βW( t⊥) = et – ( (210e − 570) t 2 + (588 − 216e) t + (39e − 105) )

198 199
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Definición 5.7. p

∑ < β, α i >< β, α j >< α i , α j >


Sean V un espacio euclídeo, W un subespacio de V finito dimensional y β∈V. j=1

Se define como distancia de β a W y se denota por d(β, W) a la mínima i

distancia de β a W, es decir:
= ∑< β,α ><β,α ><α , α >+ < β,α ><β, α ><α , α >
j=1
i j i j i i i i

p
d (β, W ) = min{| d(β, δ); δ ∈ W} + ∑< β,α ><β, α ><α , α >
i j i j
δ
j=i+1

i p
Observación: = ∑< β, α
j=1
i >< β, α j > .0 + (< β, αi >) 2 .1 + ∑< β, α >< β, α
j=i +1
i j > .0

Por el teorema anterior se cumple que d(β, W) = d(β, Pr oy Wβ ). = (< β, αi >)2

Teorema 5.12. En consecuencia,


p
Sean V un espacio euclídeo, W un subespacio de V finito dimensional, < Pr oy Wβ , Pr oy Wβ > = ∑ (< β, α i >) 2
S = {α1, α2, …, αp} una base ortonormal de W y β∈V. Entonces se cumple i =1

que: p
2. < β, Pr oy Wβ > = < β, ∑ < β, α
i =1
i > αi >
p
d2(β, W) = < β, β > − ∑ (< β, α i >) 2
i =1 Por el teorema 5.3., apartado 3 se tiene que :

Demostración p
< β, Pr oy Wβ > = ∑ < β, α
i =1
i > < β, α i >
d2(β, W) = d2(β, Pr oy Wβ ) p
= ∑ (< β, α i >) 2
Por el teorema 5.2., se cumple que: i =1

2 2 Luego,
d2(β, W) = β + Pr oy Wβ − 2 < β, Proy Wβ >
p p
⇒ d2(β, W) = < β, β > + < Pr oy Wβ , Pr oy Wβ > −2 < β, Proy Wβ > d2(β, W) = < β, β > + ∑ (< β, α
i =1
i >) 2 – 2 ∑ (< β, α
i =1
i >) 2

Ahora bien, p
⇒ d2(β, W) = < β, β > – ∑ (< β, α
i =1
i >) 2
p p
1. < Pr oy Wβ , Pr oy Wβ > = < ∑ < β, α
i =1
i > αi , ∑ < β, α
i =1
i > αi >

p p
= < ∑ < β, α
i =1
i > αi , ∑ < β, α
j=1
j > αj >

Por el teorema 5.3., apartado 4 se tiene que:

p p
< Pr oy Wβ , Pr oy Wβ > = ∑∑ < β, α
i =1 j=1
i >< β, α j >< α i , α j >

Como {α1, α2, …, αp} es una base ortonormal de W se tiene que:

200 201
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

EJERCICIOS PROPUESTOS. 6. Utilizando el proceso de ortonormalización de Gram-Schmidt,


determine una base ortonormal de ℜ4 a partir de la base formada por los
1. Determine cuáles de las siguientes expresiones son productos internos ⎡0 ⎤ ⎡ 1⎤ ⎡ 1⎤ ⎡1⎤
en ℜ3, siendo X, Y∈ℜ3. Justifique su respuesta. ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
2 − 1 2 0
vectores α1 = ⎢ ⎥ , α 2 = ⎢ ⎥ , α 3 = ⎢ ⎥ y α 4 = ⎢ ⎥ .
1.1. <X, Y> = X1Y1 + X3Y3. ⎢1 ⎥ ⎢ 0⎥ ⎢ 0⎥ ⎢0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
1.2. <X, Y> = (X1Y1)2 + (X2Y2)2 + (X3Y3)2. ⎣⎢0⎦⎥ ⎣⎢ 0⎦⎥ ⎣⎢ − 1 ⎦⎥ ⎣⎢1⎦⎥
1.3. <X, Y> = 2X1Y1 + X2Y2 + 4X3Y3.
1.4. <X, Y> = X1Y1 – X2Y2 + X3Y3.
7. Sea α∈ℜ3. Exprese α de la forma α = β + δ, donde β pertenece al
1.5. <X, Y> = X1Y1 – X2Y1 – X1Y2 + 2X2Y2.
subespacio generado por α1 y α2 y δ es ortogonal a este subespacio en
1.6. <X, Y> = X1Y1 + X2Y1 + X1Y2 – X2Y2.
los siguientes casos:
1.7. <X, Y> = X1Y1 – X2Y1 + X1Y2 + 2X2Y2.

2. Sea <α, β> = αtAβ, ∀ α, β∈ℜ2. Determine si la función <,> así ⎡ 4 ⎤ ⎡0 ⎤


definida es un producto interno para cada una de las siguientes ⎢ 5⎥ ⎢ ⎥
7.1. α1 = ⎢ 0 ⎥ y α 2 = ⎢1⎥ .
matrices: ⎢− 3 ⎥ ⎢⎣0⎥⎦
⎣⎢ 5 ⎦⎥
⎡1 5⎤ ⎡1⎤ ⎡ 2⎤
2.1. A=⎢ ⎥
⎣5 1⎦ ⎢⎥ ⎢ ⎥
7.2. α1 = ⎢1⎥ y α 2 = ⎢ 0⎥ .
⎡ 2 −2 ⎤ ⎢⎣1⎥⎦ ⎢⎣ − 1⎥⎦
2.2. A=⎢ ⎥
⎣− 2 3⎦
⎡0 3 ⎤ 8. Sea Dn el conjunto de matrices diagonales D∈Mnxn(ℜ) con las
2.3. A=⎢ ⎥ n
⎣1 2 ⎦ operaciones matriciales usuales y <A, B> = ∑A B
i =1
ii ii .

⎡c ⎤ ⎡c ⎤ 8.1. Demuestre que la función <,> así definida es un producto


⎢ ⎥ ⎢ ⎥ interno en Dn.
3. Sean α = ⎢c⎥ y β = ⎢5 ⎥ 8.2. Determine una base ortonormal para D4.
⎢⎣1⎥⎦ ⎢⎣6⎥⎦
9. Sea
3.1. Determine el valor de c para que α y β sean ortogonales.
3.2. Utilizando los vectores así obtenidos, determine una base ⎡ 2 5⎤
ortonormal de ℜ3. ⎢ 3a 0 − ⎥
⎢ 5 ⎥
A=⎢ 0 2c 0 ⎥
4. Sea V un espacio euclídeo. Demuestre que si α, β∈V entonces: ⎢2 5 5 ⎥
⎢ 0 ⎥
||α – β|| ≥ ||α|| – ||β|| ⎣ 5 5 ⎦

5. Sea X∈Mnxp(ℜ) una matriz de datos. Demuestre que: Determine los valores de a y c para que A sea ortogonal.

10. Sea A∈Mnxn(ℜ) tal que A es ortogonal y α, β∈ℜn. Demuestre que:


d 2 ((X̂ E ) j , (X̂ E ) h )
= 2(1 − rjh )
n 10.1. <α, β> = <Aα, Aβ>.
10.2. ||β|| = ||Aβ||.
Siendo rjh el coeficiente de correlación lineal de Pearson entre las
variables j-ésima y h-ésima. Interprete el resultado obtenido. 11. Sea V = ℜ3 con el producto interno usual.

⎡0 ⎤ ⎡ 3⎤
⎢ ⎥ ⎢ ⎥
11.1. Determine un vector normalizado ortogonal a ⎢2⎥ y ⎢1 ⎥ .
⎢⎣1 ⎥⎦ ⎢⎣2⎥⎦

202 203
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ 2 ⎤ ⎡1 ⎤ ⎡ 4 ⎤ x
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Determine el elemento de V más cercano a δ = f(x) =Sen( π ), así
11.2. A partir de la base { ⎢1 ⎥ , ⎢2⎥ , ⎢1 ⎥ } construir una base 2
⎢⎣1 ⎥⎦ ⎢⎣4⎥⎦ ⎢⎣2⎥⎦ como también la distancia de f(x) a V.

ortonormal. 17. Consideremos el espacio vectorial de las funciones polinómicas de


1

⎡ 1⎤ ⎡ 0⎤
grado a lo sumo 3 con el producto interno <α, β> = ∫ f (t )g(t )dt , con
0
⎢ ⎥ ⎢ ⎥ α = f(t) y β = g(t). Determine una base del complemento ortogonal del
⎢ − 1⎥ 1
12. Sea W el subespacio generado por y ⎢ ⎥. subespacio generado por p1, p2, siendo p1(x) = 1 y p2(x) = x2.
⎢ 0⎥ ⎢ 2⎥
⎢ ⎥ ⎢ ⎥
⎣⎢ 2⎦⎥ ⎣⎢ −1 ⎦⎥ 18. Sea V = M2x2(ℜ) con el producto interno <A, B> = Traza(ABt).
Consideremos W = {M∈V: Traza(MAt) = Traza(MBt)}, siendo:
12.1. Hallar una base de W⊥.
⎡1 0⎤ ⎡1 1⎤
⎡ 3⎤ A=⎢ ⎥ y B=⎢ ⎥
⎢ ⎥ ⎣0 − 1⎦ ⎣0 1⎦
2
12.2. Expresar ⎢ ⎥ como la suma de un vector de W y de un
⎢ − 1⎥ 18.1. Determine el complemento ortogonal de W.
⎢ ⎥
⎣⎢ 0⎦⎥ ⎡1 1⎤
18.2. Sea C = ⎢ ⎥ . Determine el elemento M∈W tal que d(C,
vector de W⊥. ⎣0 0 ⎦
M) sea mínima.
13. Sean V un espacio euclídeo y α, β∈V tales que ||α|| = ||β||. Demuestre
que α – β es ortogonal a α + β. 19. Sea V = M3x3(ℜ) con el producto interno <A, B> = Traza(ABt) y el
subespacio vectorial H de todas las matrices simétricas. Determine H⊥ y
14. Sean H = {X∈ℜ4: X1 + X2 – 2X3 + 2X4 = 0, X1 + 2X2 – X3 = 0} e su dimensión.
⎡ 2⎤
⎢ ⎥ 20. Sean V el conjunto de funciones polinómicas de grado a lo sumo 3 con
−1
Y= ⎢ ⎥ .
1
⎢ 0⎥ el producto interno <α, β> = ∫
−1
(1 − t 2 )f ( t )g ( t )dt , con α = f(t) y β =g(t)
⎢ ⎥ 2 3
⎣⎢ 1 ⎦⎥ y W = {p∈V: p(x) = ax + bx ; a, b∈ℜ}. Determine el complemento
⊥ ortogonal de W y su dimensión.
14.1. Determine H .
14.2. Determine Pr oy YH . 21. Sea V = M2x2(ℜ).
14.3. Determine Pr oy YH ⊥ . 21.1. Demuestre que <A, B> = Traza(AtB) es un producto interno
Y en V.
14.4. Determine d (Y, Pr oy ) .H
⎡ 1 0⎤ ⎡ −1 0⎤
14.5. Determine d(Y, Pr oy YH ⊥ ) . 21.2. Sean A=⎢ ⎥, B=⎢ ⎥ y
⎣ − 1 0⎦ ⎣ 0 1⎦
15. Sea H = {X∈ℜ4: X1 + X2 – 2X3 + X4 = 0} H = {M∈V: <M, A> = <M, B>}. Demuestre que H es un
subespacio de V.
15.1. Determine una base ortonormal de H. ⎡1 2⎤
15.2. Determine el vector del complemento ortogonal de H más 21.3. Sea C = ⎢ ⎥ . Determine el elemento de H más cercano a
⎣0 1 ⎦
⎡ 2⎤
⎢ ⎥ C y d(C, H).
−1
cercano a β = ⎢ ⎥ . Sea V un espacio euclídeo y H un subespacio vectorial de V.
⎢ 0⎥ 22.
⎢ ⎥ Demuestre que α∈H⊥ si y sólo si d(α, H) = ||α||.
⎢⎣ 3⎥⎦
23. Sea V un espacio euclídeo de dimensión n y E = {α1, α2,…, αp}, con p
16. Sea V el conjunto de funciones polinómicas de grado a lo sumo 2 con < n un conjunto ortonormal de V. Demuestre que ∀β∈V se cumple que
1
∫ f (t )g(t )dt , siendo α = f(t) y β = g(t).
p
el producto interno <α, β> =
0 ∑ < β, α
i =1
i > 2 ≤ || β ||2 .

204 205
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Demostración
Capítulo 6 1. Es claro que θ∈V. Luego,
T(θ) = T(θ+θ) = T(θ)+T(θ).
TRANSFORMACIONES
LINEALES Por otro lado, θ = T(θ) – T(θ). Luego,

T(θ) + θ = T(θ) + T(θ) – T(θ) ⇒ T(θ) = T(θ) – T(θ) = θ.

2. Sean α∈V y c∈K. Luego, T(c•α) = c•T(α).


6.1. INTRODUCCIÓN. Si c = -1 entonces T((-1)α) = (-1)T(α), es decir, T(-α) = -T(α).
3. T(α + c•β) = T(α) + c•T(β). Si c = -1 entonces se cumple que
En este capítulo se presenta el importante concepto de Transformación Lineal. T(α – β) = T(α) – T(β).
Se exponen los principales conceptos asociados como lo son Kernel, Imagen, 4. Utilicemos inducción completa. Demostremos que la igualdad se
Nulidad y Rango de una Transformación Lineal, Monomorfismos, cumple para n = 2, es decir :
Epiformismos e Isomorfismos, Matriz asociada a una Transformación Lineal
T( c1 • α1 + c 2 • α 2 ) = c1•T(α1)+ c2•T(α2)
de ℜn a ℜm y Matriz de una Transformación Lineal T: V→W relativa a bases
de V y W, respectivamente.
En efecto,
6.2. DEFINICIONES, PROPIEDADES Y EJEMPLOS.
T( c1 • α1 + c 2 • α 2 ) = T(c1•α1)+ T(c2•α2) = c1•T(α1)+ c2•T(α2)
Definición 6.1.
Supongamos que la igualdad se cumple para n = p, es decir :
Sean V y W espacios vectoriales sobre K y T: V→W. Se dice que T es una
Transformación Lineal (T.L) u homomorfismo si T verifica las siguientes p p

condiciones: T( ∑c
i =1
i • αi ) = ∑c
i =1
i • T (α i )

1. ∀ α, β∈V se cumple que T(α + β) = T(α) + T(β).


2. ∀ α∈V, ∀ c∈K se cumple que T(c•α) = cT(α). Demostremos ahora que la igualdad se cumple para n = p+1.

Observación: En efecto,

p +1 p
Una función T: V→W es una T.L. si ∀ α, β∈V, ∀ c∈K se cumple que
T(c•α + β) = c•T(α) + T(β).
T( ∑c
i =1
i • α i ) = T( ∑c
i =1
i • α i + cp+1•α1p+1)

p
Teorema 6.1. = T( ∑c
i =1
i • α i ) + T(cp+1•α1p+1)

Sea T: V→W una T.L. Entonces se cumple que: p


= ∑c i • T(α i ) + cp+1•T(α1p+1)
1. T(θ) = θ. i =1

2. ∀ α∈V se cumple que T(-α) = -T(α). p +1

3. ∀ α, β∈V se cumple que T(α – β) = T(α) – T(β). = ∑c


i =1
i • T (α i )
4. Si αi∈V, ci∈K, i = 1, 2, …, n, entonces se cumple que
n n
T( ∑c
i =1
i • αi ) = ∑c
i =1
i • T (α i ) . Por tanto se cumple que:

n n

∑c ∑c
5. Si U1 es un subespacio de V entonces el conjunto:
T( • αi ) = • T (α i )
T(U1) = {T(α): α∈U1} = {β∈W: β = T(α), para algún α∈U1} i =1
i
i =1
i

es un subespacio de W.
5. Sea U1 un subespacio de V. Veamos que T(U1) así definido es un
6. Si U2 es un subespacio de W entonces el conjunto:
subespacio de W.
T-1(U2) = {α∈V: T(α)∈U2}
es un subespacio de V.
Es claro que θ∈T(U1) ya que θ = T(θ), θ∈U1.

207
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Sean δ, γ ∈T(U1) y c∈K. Entonces δ = T(α), γ = T(β), α, β∈U1. Por ⎡ X1 ⎤ ⎡ X 2 ⎤


lo tanto, c•δ + γ = c•T(α) + T(β) = T(c•α + β), con ⎢ ⎥ ⎢ ⎥
T(c•α+β) = T(c• ⎢ Y1 ⎥ + ⎢ Y2 ⎥ )
(c•α + β)∈U1. Luego, (c•δ + γ)∈T(U1) y por consiguiente, T(U1) es
un subespacio de W. ⎢⎣ Z1 ⎥⎦ ⎢⎣ Z 2 ⎥⎦

⎡cX1 ⎤ ⎡X 2 ⎤
6. Sea U2 un subespacio de W. Veamos que T-1(U2) así definido es un ⎢ ⎥ ⎢ ⎥
subespacio de W. = T( ⎢ cY1 ⎥ + ⎢ Y2 ⎥ )
⎢⎣ cZ1 ⎥⎦ ⎢⎣ Z 2 ⎥⎦
Es claro que θ∈T-1(U2) ya que θ∈V y T(θ) = θ∈U2.
⎡cX1 + X 2 ⎤
⎢ ⎥
Sean δ, γ∈T-1(U2) y c∈K. Entonces δ∈V con T(δ)∈U2, γ∈V con = T( ⎢ cY1 + Y2 ⎥ )
T(γ)∈U2. Por lo tanto, (c•δ + γ)∈V, siendo ⎢⎣ cZ1 + Z 2 ⎥⎦
T(c•δ) + T(γ) = T(c•δ + γ)∈U2. Luego, (c•δ + γ)∈T-1(U2) y por
consiguiente, T-1(U2) es un subespacio de V. ⎡ (cX1 + X 2 ) − (cY1 + Y2 ) ⎤
= ⎢ ⎥
⎣(cY1 + Y2 ) + 2(cZ1 + Z 2 )⎦
Ejemplo 6.1.
⎡ cX1 + X 2 − cY1 − Y2 ) ⎤
= ⎢ ⎥
Sean V y W espacios vectoriales sobre K. La función Θ: V→W definida como ⎣cY1 + Y2 + 2cZ1 + 2 Z 2 )⎦
Θ(α) = θ, ∀ α∈V es una T.L., ya que:
⎡ c(X1 − Y1 ) + (X 2 − Y2 ) ⎤
= ⎢ ⎥
Θ(c•α + β) = θ = c•θ + θ = c•Θ(α) + Θ(β) ⎣c(Y1 + 2Z1 ) + (Y2 + 2Z 2 )⎦
Esta T.L. recibe el nombre de Transformación Lineal Nula. ⎡ c(X1 − Y1 ) ⎤ ⎡ X 2 − Y2 ⎤
= ⎢ ⎥+⎢ ⎥
⎣c(Y1 + 2Z1 )⎦ ⎣Y2 + 2 Z 2 ⎦
Ejemplo 6.2.
⎡ X − Y1 ⎤ ⎡ X 2 − Y2 ⎤
= c•⎢ 1 ⎥+⎢ ⎥
Sea V un espacio vectorial sobre K. La función I: V→V definida como ⎣Y1 + 2 Z1 ⎦ ⎣Y2 + 2 Z 2 ⎦
I(α) = α, ∀ α∈V es una T.L., ya que ∀ α,β∈V y c∈K:
= c•T(α) + T(β)
I(c•α+β) = c•α+β = c•I(α)+I(β)
Por tanto, T es una T.L.
Esta T.L. recibe el nombre de Transformación Lineal Identidad.
Teorema 6.2.
Ejemplo 6.3.
Sean V un espacio vectorial finito dimensional con Dim(V) = n y
B = {α1, α2, …, αn} una base de V. Sean W un espacio vectorial y
Sea T: ℜ →ℜ la función definida por:
3 2
β1, β2, …, βn∈W. Supongamos que T1 y T2 son T.L. Tj: V→W; j = 1, 2, tales
que T1(αi) = T2(αi) = βi, ∀ i = 1, 2, …, n. Entonces se cumple que ∀α∈V,
⎡X ⎤ ⎡X ⎤ T1(α) = T2(α).
⎢ ⎥ ⎡ X−Y ⎤ ⎢ ⎥
⎥,∀ ⎢Y ⎥ ∈ℜ .
3
T( ⎢Y ⎥ ) = ⎢
⎢⎣ Z ⎥⎦ ⎣ Y + 2 Z⎦ ⎢⎣ Z ⎥⎦ Demostración

Como B es una base de V, por el teorema 4.12., existe un conjunto único de


⎡X1 ⎤ ⎡X 2 ⎤ n
⎢ ⎥ ⎢ ⎥
Sean α = ⎢ Y1 ⎥ ∈ℜ3, β = ⎢ Y2 ⎥ ∈ℜ3 y c∈ℜ. Luego,
escalares c1, c2, …, cn tales que ∀α∈V se cumple que α = ∑c
i =1
i • αi .
⎢⎣ Z1 ⎥⎦ ⎢⎣ Z 2 ⎥⎦ Luego, por el teorema 6.1., apartado 4 se cumple que:
⎡ X − Y1 ⎤
T(α) = ⎢ 1 ⎥
n n n

⎣Y1 + 2Z1 ⎦ T1(α) = T1( ∑c


i =1
i • αi ) = ∑ c • T (α ) = ∑ c • β
i =1
i 1 i
i =1
i i

⎡ X − Y2 ⎤
T(β) = ⎢ 2 ⎥
⎣Y2 + 2 Z 2 ⎦ Igualmente,

208 209
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

n n n Luego, β∈[{T(α1), T(α2), …, T(αn)}] y por lo tanto:


T2(α) = T2( ∑c
i =1
i • αi ) = ∑ c • T (α ) = ∑ c • β
i =1
i 2 i
i =1
i i Img(T) ⊆ [{T(α1), T(α2), …, T(αn)}] (2)

Por (1) y (2) se concluye que Img(T) = [{T(α1), T(α2), …, T(αn)}], es decir,
Luego, ∀α∈V, T1(α) = T2(α). Img(T) es finito dimensional.
6.3. KERNEL, IMAGEN, NULIDAD Y RANGO. Definición 6.4.
Definición 6.2. Sean V y W espacios vectoriales sobre K tales que V es finito dimensional y
T: V→W una T.L. Se define como Nulidad de T y se denota por Nul(T) a la
Sea T: V→W una T.L. Se define como Núcleo o Kernel de T y se denota por dimensión del Kernel de T, es decir, Nul(T) = Dim(Ker(T)).
Ker(T) al conjunto:
Definición 6.5.
Ker(T) = {α∈V: T(α) = θ}
Sean V y W espacios vectoriales sobre K tales que V es finito dimensional y
Definición 6.3. T: V→W una T.L. Se define como Rango de T y se denota por Ran(T) a la
dimensión de la Imagen de T, es decir, Ran(T) = Dim(Img(T)).
Sea T: V→W una T.L. Se define como Imagen de T y se denota por Img(T) al
conjunto: Ejemplo 6.4.

Img(T) = {T(α): α∈V} = {β∈W: β = T(α), para algún α∈V} En el ejemplo 6.3.:

Observación:
⎡X ⎤ ⎡X ⎤
⎢ ⎥ ⎡ X−Y ⎤ ⎢ ⎥
Es sencillo demostrar que Ker(T) e Img(T) son subespacios de V y W, T: ℜ3→ℜ2 definida por T( ⎢Y ⎥ ) = ⎢ ⎥,∀ ⎢Y ⎥ ∈ℜ es una T.L.
3

respectivamente. En particular, Ker(T) = T-1({θ}) e Img(T) = T(V) (Ver ⎢⎣ Z ⎥⎦ ⎣ Y + 2 Z⎦ ⎢⎣ Z ⎥⎦


Teorema 6.1., apartados 5 y 6).
Determinemos Ran(T):
Teorema 6.3.

Sean V y W espacios vectoriales sobre K tales que V es finito dimensional y ⎡ X1 ⎤ ⎡ X1 ⎤


⎡a ⎤ ⎢ ⎥ ⎢ ⎥ ⎡a ⎤
⎢ ⎥ ∈Img(T) si y sólo si ∃ ∈ℜ 3
T: V→W una T.L. Entonces Ker(T) e Img(T) son subespacios finito X
⎢ 2⎥ : T( ⎢X 2 ⎥ ) = ⎢b⎥
dimensionales de V y W, respectivamente. ⎣b⎦ ⎢⎣ X 3 ⎥⎦ ⎢⎣ X 3 ⎥⎦ ⎣ ⎦

Demostración ⎡a ⎤ ⎡ X − X2 ⎤ ⎡a ⎤
⇒ ⎢ ⎥ ∈Img(T) si y sólo si ⎢ 1 ⎥ = ⎢ ⎥
⎣ ⎦
b ⎣ 2
X + 2 X 3⎦ ⎣b⎦
Se sabe que Ker(T) e Img(T) son subespacios de V y W, respectivamente.
Supongamos que Dim(V) = n y sea B = {α1, α2, …, αn} una base de V. Como ⎡a ⎤ ⎧ X1 − X 2 = a
⇒ ⎢ ⎥ ∈Img(T) si y sólo si el SEL ⎨ es consistente.
⎩X 2 + 2 X 3 = b
V es finito dimensional entonces por definición Ker(T)⊆B, luego por el
⎣b⎦
teorema 4.14., apartado 1, Dim(Ker(T)) ≤ n. Por consiguiente, Ker(T) es
finito dimensional. Veamos ahora que Img(T) = [{T(α1), T(α2), …, T(αn)}].
⎡1 − 1 0 a ⎤ ⎡1 0 2 a + 2b ⎤
⎢ ⎥ r1 → r1 + r2 ⎢ ⎥
Es claro que por definición de Img(T), [{T(α1), T(α2), …, T(αn)}] ⊆ Img(T) ⎢⎣0 1 2 b ⎥⎦ ⎢⎣0 1 2 b ⎥⎦
(1).
Por lo tanto,
Sea β∈Img(T). Entonces existe α∈V tal que T(α) = β.
Por otra parte como B es una base de V se tiene que existen escalares c1, c2, …,
⎡1 0 2⎤ ⎡1 0 2 a + 2b ⎤
⎥ ) = Rango( ⎢
n
Rango( ⎢ ⎥
cn∈K tales que α = ∑
i =1
c i • α i , ci∈K. Por lo tanto, ⎣ 0 1 2 ⎦ ⎣0 1 2 b ⎦

n n
T(α) = T( ∑c
i =1
i • αi ) = ∑c
i =1
i • T (α i ) = β Independientemente de los valores de a y b. En consecuencia,

210 211
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡a ⎤ Demostración
Img(T) = { ⎢ ⎥ ∈ℜ2: a∈ℜ y b∈ℜ} = ℜ2.
⎣b⎦ Supongamos que Dim(V) = n y sea B = {α1, α2, …, αn} una base de V. Como
B es una base de V se tiene que existen escalares c1, c2, …, cn∈K tales que
⎡a ⎤ ⎡a ⎤ ⎡0⎤ ⎡1⎤ ⎡0 ⎤ n
⇒ ⎢ ⎥ = ⎢ ⎥ + ⎢ ⎥ = a• ⎢ ⎥ + b• ⎢ ⎥
⎣b⎦ ⎣0 ⎦ ⎣b⎦ ⎣0 ⎦ ⎣1⎦
α= ∑c
i =1
i • α i , ci∈K; ∀ i = 1, 2, …, n y α∈V. Por lo tanto,

⇒ Ran(T) = Dim(Img(T)) = 2 n n

Determinemos ahora Nul(T) :


T(α) = T( ∑c
i =1
i • αi ) = ∑c
i =1
i • T (α i )

⎡ X1 ⎤ ⎡ X1 ⎤ Supongamos que Nul(T) = p y que sin pérdida de generalidad


⎢ ⎥ ⎢ ⎥ ⎡0 ⎤ α1, α2, …, αp∈Ker(T). Luego, T(αi) = θ, ∀ i = 1, 2, …, p. Supongamos ahora
X
⎢ 2⎥ ∈Ker(T) si y sólo si T( ⎢ X 2 ⎥ ) = ⎢0 ⎥
⎣ ⎦ que β∈Img(T). Entonces existe α∈V tal que T(α) = β.
⎢⎣ X 3 ⎥⎦ ⎢⎣ X 3 ⎥⎦
Luego,
⎡ X1 ⎤
⎢ ⎥ ⎡ X1 − X 2 ⎤ ⎡0 ⎤ n p n
⇒ ⎢X 2 ⎥ ∈Ker(T) si y sólo si ⎢
⎣ X + 2 X
⎥ = ⎢ ⎥
⎦ ⎣0 ⎦
β = T(α) = ∑c i • T (α i ) = ∑c i • T (α i ) + ∑ c • T (α )i i
⎢⎣ X 3 ⎥⎦ 2 3 i =1 i =1 i = p +1
p n
⎡ X1 ⎤
⎢ ⎥ ⎧ X1− X 2 = 0
= ∑ c • θ + ∑ c • T (α )
i =1
i
i = p +1
i i

⇒ ⎢X 2 ⎥ ∈Ker(T) si y sólo si ⎨
⎢⎣ X 3 ⎥⎦ ⎩X 2 + 2 X 3 = 0 n
=θ+ ∑ c • T (α )
i = p +1
i i

⎡ X1 ⎤
⎢ ⎥ ⎧ X1 = X 2 n
⇒ ⎢X 2 ⎥ ∈Ker(T) si y sólo si ⎨
⎩X 2 = −2X 3
= ∑ c • T (α )i i
⎢⎣ X 3 ⎥⎦ i = p +1

⎡ X1 ⎤ Por consiguiente, Ran(T) = n – (p+1) + 1 = n – p – 1 + 1 = n – p, es decir:


⎢ ⎥ ⎧ X1 = −2X 3
⇒ ⎢X 2 ⎥ ∈Ker(T) si y sólo si ⎨
⎢⎣ X 3 ⎥⎦ ⎩X 2 = −2X 3 Ran(T) = Dim(V) – Nul(T)

⎡ X1 ⎤ ⎡ X1 ⎤ ⎡ −2X 3 ⎤ ⎡ −2 ⎤ ⇒ Ran(T) + Nul(T) = Dim(V)


⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⇒ ⎢X 2 ⎥ ∈Ker(T) si y sólo si X
⎢ 2⎥ = ⎢ − 2 X 3⎥ = X3 ⎢ − 2⎥
Teorema 6.5.
⎢⎣ X 3 ⎥⎦ ⎢⎣ X 3 ⎥⎦ ⎢⎣ X 3 ⎥⎦ ⎢⎣ 1 ⎥⎦

⎡ X1 ⎤ ⎡ X1 ⎤ ⎡ −2 ⎤ Sean V y W espacios vectoriales sobre K tales que V es finito dimensional con


⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Dim(V) = n, B = {α1, α2, …, αn} una base de V y β1, β2, …, βn vectores
⇒ Ker(T) = { ⎢X 2 ⎥ ∈ℜ3: X
⎢ 2⎥ = a ⎢− 2⎥ ; a∈ℜ} cualesquiera de W. Entonces existe una única T.L. T: V→W tal que T(αj) = βj,
⎢⎣ X 3 ⎥⎦ ⎢⎣ X 3 ⎥⎦ ⎢⎣ 1 ⎥⎦ ∀ j = 1, 2, …, n.

⇒ Nul(T) = Dim (Ker(T)) = 1 Demostración

Nótese que Ran(T) + Nul(T) = 2 + 1 = 3 = Dim(ℜ3) Como B = {α1, α2, …, αn} es una base de V por el teorema 4.12., se cumple
n

Teorema 6.4.
que ∀ α∈V, existen escalares únicos c1, c2, …, cn∈K tales que α = ∑c i =1
i • αi .

Sean V y W espacios vectoriales sobre K tales que V es finito dimensional y n


T: V→W una T.L. Entonces Ran(T) + Nul(T) = Dim(V) Definamos T(α) = ∑c •β
i =1
i i . Es claro que T(αj) = βj, ∀ j = 1, 2, …, n ya que:

212 213
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

n n n ⇒ a = c1 – c2 y b = c2 ⇒ c1 = a + b y c2 = b.
T(α) = T( ∑c
i =1
i • αi ) = ∑c
i =1
i • T (α i ) = ∑c •β
i =1
i i

⎡a ⎤ ⎡1⎤ ⎡−1⎤
⇒ ⎢ ⎥ = (a+b)• ⎢ ⎥ + b• ⎢ ⎥
Veamos que T es una T.L. ⎣b⎦ ⎣0 ⎦ ⎣ 1⎦

n n
⎡a ⎤ ⎡1 ⎤ ⎡−1⎤
Sean α = ∑c i • αi , δ = ∑d i • α i , con d1, d2, …, dn∈K y c∈K. ⇒ T( ⎢ ⎥ ) = T((a+b)• ⎢ ⎥ + b• ⎢ ⎥ )
i =1 i =1 ⎣b⎦ ⎣0 ⎦ ⎣ 1⎦
⎡1⎤ ⎡−1⎤
Ahora bien, = (a+b)T( ⎢ ⎥ ) + bT( ⎢ ⎥ )
⎣ ⎦
0 ⎣ 1⎦
n n n
⎡ −1 ⎤ ⎡0 ⎤
T(c•α+δ) = T(c• ∑c
i =1
i • αi + ∑d i =1
i • α i ) = T( ∑ (cc + d ) • α
i =1
i i i ⎢ ⎥ ⎢ ⎥
= (a+b)• ⎢ 2⎥ + b• ⎢1⎥
n ⎢⎣ 3⎥⎦ ⎢⎣0⎥⎦
= ∑ (cc + d ) • T(α )
i =1
i i i
⎡ −a − b ⎤ ⎡0⎤
⎢ ⎥ ⎢ ⎥
n
= ⎢ 2a + 2 b ⎥ + ⎢ b ⎥
= ∑ (cc + d ) • β
i =1
i i i
⎢⎣ 3a + 3b ⎥⎦ ⎢⎣0⎥⎦
n n
⎡ −a − b ⎤
= c ∑c •β + ∑d
i =1
i i
i =1
i • βi ⎢
= ⎢ 2a + 3b ⎥

n n ⎢⎣ 3a + 3b ⎥⎦
= c ∑ c • T (α ) + ∑ d
i =1
i i
i =1
i • T (α i )

= cT(α) + T(δ) Luego, si existe una T.L. T: ℜ2→ℜ3 que cumple con ambas condiciones y
⎡ −a − b ⎤
Veamos ahora que T es única. Sea S: V→W otra T.L. tal que: ⎡a ⎤ ⎢ ⎥
además tiene por regla de correspondencia T( ⎢ ⎥ ) = ⎢ 2a + 3b ⎥ .
⎣ ⎦
b
⎢⎣ 3a + 3b ⎥⎦
S(αj) = βj, j = 1, 2, …, n.

n 6.4. MONOMORFISMOS, EPIMORFISMOS E ISOMORFISMOS.


Ahora bien, si α = ∑c
i =1
i • α i entonces:
Definición 6.6.
n n n
S(α) = S( ∑
i =1
ci • α i ) = ∑ i =1
c i • S(α i ) = ∑ i =1
ci • βi = T(α) Sea T: V→W una T.L. Se dice que T es un:

1. Monomorfismo si T es inyectiva.
Ejemplo 6.5. 2. Epimorfismo si T es sobreyectiva.
3. Isomorfismo si T es biyectiva.
⎡ −1 ⎤
⎡1⎤ ⎢ ⎥
Determinemos si existe una T.L. T: ℜ2→ℜ3 tal que T( ⎢ ⎥ ) = ⎢ 2⎥ y Teorema 6.6.
⎣0 ⎦ ⎢⎣ 3⎥⎦
Sea T: V→W una T.L. T es un Monomorfismo si y sólo si Ker(T) = {θ}.
⎡0 ⎤
⎡−1⎤ ⎢ ⎥ ⎡1 ⎤ ⎡−1⎤ Demostración
⎢ ⎥ y ⎢ ⎥ forman una base de ℜ .
2
T( ⎢ ⎥ ) = ⎢1⎥ . Veamos primero que
⎣ 1⎦ ⎢⎣0⎥⎦ ⎣ ⎦
0 ⎣ 1⎦
CN(⇒): Si T es un Monomorfismo entonces Ker(T) = {θ}.

⎡a ⎤ ⎡1 ⎤ ⎡−1⎤ ⎡c1 ⎤ ⎡ −c 2 ⎤ ⎡c1 − c 2 ⎤ Sea α∈Ker(T). Entonces T(α) = θ. Pero también T(θ) = θ. Como T es un
⎢ ⎥ = c1• ⎢ ⎥ + c2• ⎢ ⎥ = ⎢ ⎥ + ⎢ ⎥ = ⎢ ⎥ Monomorfismo entonces T es inyectiva. Luego, α = θ. Por consiguiente,
⎣ ⎦
b ⎣ ⎦
0 ⎣ ⎦
1 ⎣ ⎦
0 ⎣ c 2 ⎦ ⎣ c2 ⎦ Ker(T) = {θ}.

214 215
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

CS(⇐): Si Ker(T) = {θ} entonces T es un Monomorfismo. Si T es un Epimorfismo entonces T es sobreyectiva, es decir,


Img(T) = W. Luego,
Sean α1, α2∈V tales que T(α1) = T(α2). Entonces, T(α1) – T(α2) = θ, es decir,
T(α1 – α2) = θ. Esto indica que (α1 – α2)∈Ker(T), pero como por hipótesis Ran(T) = Dim(W) = n
Ker(T) = {θ} entonces α1 – α2 = θ, es decir, α1 = α2. Luego, T es inyectiva y
por consiguiente T es un Monomorfismo. Por consiguiente, Nul(T) = Dim(V) – n = n – n = 0, es decir, Ker(T) = {θ}.
Por lo tanto, por el teorema 6.5., T es un Monomorfismo.
Ejemplo 6.6.
Teorema 6.8.
En el ejemplo 6.5.:
Sea T: V→W una T.L. con Dim(V) = n y Dim(W) = m. Entonces se cumple
que:
⎡X ⎤ ⎡X ⎤
⎢ ⎥ ⎡ X−Y ⎤ ⎢ ⎥
La T.L. T: ℜ3→ℜ2 definida por T( ⎢Y ⎥ ) = ⎢ ⎥,∀ ⎢Y ⎥ ∈ℜ tiene las
3
1. Si n > m entonces T no es un Monomorfismo.
⎢⎣ Z ⎥⎦ ⎣ Y + 2 Z⎦ ⎢⎣ Z ⎥⎦ 2. Si m > n entonces T no es un Epimorfismo.
siguientes características:
Demostración
⎡a ⎤ 1. Utilicemos reducción al absurdo. Supongamos que n > m y que T
Img(T) = { ⎢ ⎥ ∈ℜ2: a∈ℜ y b∈ℜ} = ℜ2.
⎣b⎦ es un Monomorfismo. Luego, por el teorema 6.6., Ker(T) = {θ}.
Sea {α1, α2, …, αn} una base de V. Sea βi = T(αi), ∀ i = 1, 2, …, n.
Ran(T) = Dim(Img(T)) = 2 Analicemos el conjunto S = {β1, β2, …, βn}. Como m = Dim(W) < n
entonces por la equivalencia contrarecíproca del teorema 4.14.,
apartado 1, se tiene que el conjunto S es L.D. De esta forma existen
⎡ X1 ⎤ ⎡ X1 ⎤ ⎡ −2 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ escalares c1, c2, …, cn no todos iguales a cero tales que:
Ker(T) = { ⎢X 2 ⎥ ∈ℜ3: X
⎢ 2⎥ = a ⎢− 2⎥ ; a∈ℜ}
⎢⎣ X 3 ⎥⎦ ⎢⎣ X 3 ⎥⎦ ⎢⎣ 1 ⎥⎦ c1•β1 + c2•β2 + … + cn•βn = θ

Nul(T) = Dim (Ker(T)) = 1 Sea α = c1•α1 + c2•α2 + … + cn•αn. Como el conjunto


{α1, α2, …, αn} es una base de V entonces es L.I. y como no todos
Como Ker(T) ≠ {θ} entonces aplicando equivalencia contrarecíproca en el los coeficientes ci son iguales a cero se cumple que α ≠ θ. Pero,
teorema 6.6., se obtiene que T no es un Monomorfismo. Por su parte, como
Img(T) = ℜ2 entonces T es un epimorfismo. Sin embargo, como T no es un T(α) = T(c1•α1 + c2•α2 + … + cn•αn)
Monomorfismo, aún y cuando es un Epimorfismo no es un Isomorfismo. = c1•T(α1) + c2•T(α2) + … + cn•T(αn)
= c1•β1 + c2•β2 + … + cn•βn = θ
Teorema 6.7.
Por consiguiente, α∈Ker(T) y Ker(T) ≠ {θ}, lo cual es una
Sea T: V→W una T.L. con Dim(V) = Dim(W) = n. T es un Monomorfismo si contradicción.
y sólo si T es un Epimorfismo.
2. Utilicemos reducción al absurdo. Supongamos que m > n y que T
Demostración es un Epimorfismo. Luego, Img(T) = W. Sea {α1, α2, …, αn} una
base de V. Supongamos que α∈V. Luego, existen escalares
CN(⇒): Si Dim(V) = Dim(W) = n y T es un Monomorfismo entonces T es un c1, c2, …, cn tales que α = c1•α1 + c2•α2 + … + cn•αn. Sea
Epimorfismo. βi = T(αi), ∀ i = 1, 2, …, n. Por consiguiente:

Si T es un Monomorfismo entonces Ker(T) = {θ}. Por consiguiente, T(α) = T(c1•α1 + c2•α2 + … + cn•αn)
Nul(T) = 0, lo cual significa que Ran(T) = Dim(V) – 0 = n = Dim(W). Esto = c1•T(α1) + c2•T(α2) + … + cn•T(αn)
significa que Img(T) = W, es decir, que T es sobreyectiva. Por lo tanto, T es un = c1•β1 + c2•β2 + … + cn•βn
Epimorfismo.
Luego, {β1, β2, …, βn} = {T(α1), T(α2), …, T(αn)} es un conjunto de
CS(⇐): Si Dim(V) = Dim(W) = n y T es un Epimorfismo entonces T es un generadores de Img(T). Por el teorema 4.14. apartado 2 se cumple
Monomorfismo.

216 217
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

que n ≥ Dim(Img(T)), es decir, n ≥ Ran(T), osea Ran(T) ≤ n. Como αh∈ℜm, lo cual significa que αh∈Mmx1(ℜ) y además (αh)ij = (AT)ih
m > n entonces Img(T) ≠ W, lo cual es una contradicción.
Ahora bien,
Definición 6.7.
AT∈Mmxn(ℜ)
Sean V y W espacios vectoriales sobre K. Se dice que V y W son isomorfos y eh∈Mnx1(ℜ),∀ h = 1, 2, …, n.
se escribe V ≅ W si existe un Isomorfismo T: V→W.
Por consiguiente,
Observación:
(ATeh)∈Mmx1(ℜ) y además:
Sean V y W espacios vectoriales sobre K finito dimensionales. V ≅ W si y
sólo si Dim(V) = Dim(W). n
(ATeh)ij = ∑ (A
r =1
T ) ir (e
h
) rj
Ejemplo 6.7.
= (A T ) i1 (e h )1 j + L + (A T )ih (e h ) hj + L + (A T )in (e h ) nj
K4 ≅ M2x2(K), ya que se puede verificar fácilmente que la función T:
= (A T )i1.0 + L + (A T )ih .1 + L + (A T )in .0 = (A T )ih
K4→M2x2(K) definida por:
= (αh)ij
⎡a ⎤
⎢ ⎥ Es decir,
b ⎡a b ⎤
T( ⎢ ⎥ ) = ⎢ ⎥
⎢c⎥ ⎣c d⎦ ATeh = αh = T(eh)
⎢ ⎥
⎣⎢d ⎦⎥
Por el teorema 6.2., ∀ α∈ℜn, T(α) = ATα.
es un isomorfismo.
Veamos que AT es única. Supongamos que existen matrices AT∈Mmxn(ℜ) y
En general se cumple que Kmn ≅ Mmxn(K). BT∈Mmxn(ℜ) tales que ∀ α∈ℜn, T(α) = ATα = BTα. Sea CT = AT – BT. Luego,
CTα = (AT – BT)α = ATα – BTα = ATα – ATα = θmx1, ∀ α∈ℜn. En particular,
6.5. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL CTeh = θmx1, ∀ h = 1, 2, …, n. Pero, CTeh es la h-ésima columna de CT. De esta
T: ℜn→ℜm. forma cada una de las n columnas de CT es el vector nulo θmx1 y CT = θmxn. Por
consiguiente, AT – BT = θmxn, es decir, AT = BT.
Teorema 6.9.
Ejemplo 6.8.
Sea T: ℜn→ℜm una T.L. Entonces existe una matriz única AT∈Mmxn(ℜ)
denominada matriz de la transformación T tal que ∀ α∈ℜn se cumple que Como se demostró anteriormente la función T: ℜ3→ℜ2 definida por:
T(α) = ATα.
⎡X ⎤ ⎡X ⎤
Demostración ⎢ ⎥ ⎡ X−Y ⎤ ⎢ ⎥
⎥,∀ ⎢Y ⎥ ∈ℜ .
3
T( ⎢Y ⎥ ) = ⎢
⎢⎣ Z ⎥⎦ ⎣ Y + 2 Z⎦ ⎢⎣ Z ⎥⎦
Como se sabe α∈ℜn en notación matricial es α∈Mnx1(ℜ).

Sea αh = T(eh), ∀ h = 1, 2, …, n, siendo {e1, e2, …, en} la base canónica de ℜn. es una T.L.
Sea AT la matriz cuyas columnas son α1, α2, …, αn. Luego,
Determinemos la matriz AT. Como n = 3 y m = 2 entonces AT∈M2x3(ℜ).
⎡ (A T )1h ⎤ Luego, ∀ α∈ℜn se cumple que T(α) = ATα. Por consiguiente:
⎢ ⎥
(A )
α h = ⎢ T 2 h ⎥ ; ∀ h = 1, 2, …, n ⎡X ⎤
⎢ M ⎥ ⎡ A11 A12 A13 ⎤ ⎢ ⎥ ⎡ X − Y ⎤
⎢ ⎥ ⎢ ⎥ Y =⎢ ⎥
⎣⎢(A T ) mh ⎦⎥ ⎣A 21 A 22 A 23 ⎦ ⎢ ⎥ ⎣Y + 2Z⎦
⎢⎣ Z ⎥⎦

Es decir,

218 219
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ A X + A12 Y + A13 Z ⎤ ⎡ X − Y ⎤ ⎡ c1 ⎤
⇒ ⎢ 11 ⎥=⎢ ⎥ ⎢ ⎥
⎣A 21X + A 22 Y + A 23 Z⎦ ⎣Y + 2Z⎦ c
[α]B = ⎢ 2 ⎥
⎢M⎥
A11X + A12 Y + A13 Z = X − Y ⎢ ⎥

A 21X + A 22 Y + A 23 Z = Y + 2 Z ⎢⎣c n ⎥⎦
A11 = 1, A12 = −1, A13 = 0
⇒ Observación:
A 21 = 0, A 22 = 1, A 23 = 2
⎡1 −1 0⎤ Nótese que ([α]B)ij = ci.
⇒ AT = ⎢ ⎥
⎣0 1 2 ⎦ Definición 6.9.

Teorema 6.10. Sea V un espacio vectorial sobre K finito dimensional con Dim(V) = n y sean
B1 = {α1, α2, …, αn} y B2 = {β1, β2, …, βn} bases de V. ∀ αj∈B1;
Sea T: ℜ →ℜ una T.L. y AT∈Mmxn(ℜ) su matriz asociada. Entonces se
n m
j = 1, 2, …, n existen escalares únicos c1j, c2j, …, cnj∈K tales que
cumple que: n
αj = ∑c
i =1
ij • βi . Se define como matriz de transición de la base B1 a la base B2
1. Img(T) = I A t = C A T .
y se denota por [α ]B12 a la matriz [α ]B12 ∈Mnxn(K) siguiente:
B B
2. Ran(T) = r(AT).
3. Ker(T) = N AT .
4. Nul(T) = n(AT). ⎡ c11 c12 L c1n ⎤
⎢ ⎥
c 22 L c 2 n ⎥
[α]BB
c
Demostración
2
= ⎢ 21
1 ⎢ M M M ⎥
⎢ ⎥
1. Por definición, Img(T) = {β∈ℜm: β = T(α), para algún α∈ℜn} y a ⎣⎢ n1 n 2
c c L c nn ⎦⎥
su vez T(α) = ATα. Luego,
Observación:
Img(T) = {β∈ℜm: β = ATα, para algún α∈ℜn} = I A t = C A T .
Nótese que ( [α ]B12 )ij = cij.
B
2. Por definición, Ran(T) = Dim(Img(T)) = Dim ( I A t ) = r(AT).
3. Por definición, Ker(T) = {α∈ℜn: T(α) = θmx1} y a su vez
Ejemplo 6.9.
T(α) = ATα. Luego,
⎡2⎤ ⎡ 1⎤ ⎡1 ⎤ ⎡0 ⎤
Ker(T) = {α∈ℜn: ATα = θmx1} = N AT Sea V = ℜ2 y B1 = { α1 = ⎢ ⎥ , α 2 = ⎢ ⎥ } y B2 = { β1 = ⎢ ⎥ , β 2 = ⎢ ⎥ }
⎣ ⎦
1 −
⎣ ⎦1 ⎣ ⎦
2 ⎣1⎦
bases de V. Determinemos la matriz de transición de B1 a B2.
4. Por definición, Nul(T) = Dim(Ker(T)) = Dim( N A T ) = n(AT).
Hallemos los valores de c11, c12, c21, c22 tales que:
6.6. MATRIZ DE UNA TRANSFORMACIÓN LINEAL T: V→W
RELATIVA A BASES DE V Y W. α1 = c11 • β1 + c 21 • β 2 y α 2 = c12 • β1 + c 22 • β 2

Definición 6.8.
⎡ 2⎤ ⎡1 ⎤ ⎡0⎤ ⎡ c11 ⎤ ⎡ 0 ⎤ ⎡ c11 ⎤
⎢ ⎥ = c11 ⎢ ⎥ + c 21 ⎢ ⎥ = ⎢ ⎥+⎢ ⎥=⎢ ⎥
Sea V un espacio vectorial sobre K finito dimensional con Dim(V) = n y sea ⎣1 ⎦ ⎣ 2⎦ ⎣1⎦ ⎣2c11 ⎦ ⎣c 21 ⎦ ⎣2c11 + c 21 ⎦
B = {α1, α2, …, αn} una base de V. ∀ α∈V existen escalares únicos
n
⇒ c11 = 2; 1 = 2c11 + c 21 ⇒ 1 = 2.2 + c 21 ⇒ 1 = 4 + c 21 ⇒ c 21 = −3
c1, c2, …, cn∈K tales que α = ∑ c i • α i . Se define como matriz de ⎡ 1⎤ ⎡1 ⎤ ⎡0⎤ ⎡ c12 ⎤ ⎡ 0 ⎤ ⎡ c12 ⎤
i =1 ⎢ ⎥ = c12 ⎢ ⎥ + c 22 ⎢ ⎥ = ⎢ ⎥+⎢ ⎥ = ⎢ ⎥
coordenadas del vector α relativa a la base B y se denota por [α]B a la matriz ⎣ − 1⎦ ⎣ 2⎦ ⎣1⎦ ⎣2c12 ⎦ ⎣c 22 ⎦ ⎣2c12 + c 22 ⎦
[α]B∈Mnx1(K) siguiente: ⇒ c12 = 1; − 1 = 2c12 + c 22 ⇒ − 1 = 2.1 + c 22 ⇒ − 1 = 2 + c 22 ⇒ c 22 = −3

220 221
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Luego, la matriz de transición de B1 a B2 es: Demostración

⎡ 2 1⎤
[α]BB 2
=⎢ ⎥
Por el teorema 6.11., se tiene que:
⎣ − 3 − 3⎦
1

[α]B = [α]BB [α]B


1
1
2 2
Teorema 6.11.
Sea V un espacio vectorial sobre K finito dimensional con Dim(V) = n y sean Pero [α ]B2 = [α ]B12 [α ]B1 . Luego,
B

B1 = {α1, α2, …, αn} y B2 = {β1, β2, …, βn} bases de V. Entonces se cumple


que ∀α∈V:
[α ]B = [α]BB [α]BB [α ]B 1 2

[α]B = [α]BB [α ]B 2
1 2 1 1

⇒ [α ]B – [α ]B [α ]B [α ]B = θnx1
2 1 1 B B 1 2
1 2 1 1

Demostración ⇒ [α ]B (In – [α ]B [α ]B ) = θnx1


B B 1 2
1 2 1

Como B1 es una base de V entonces ∀α∈V existen escalares únicos


c1, c2, …, cn∈K tales que: Como [α ]B1 ≠θnx1 entonces (In – [α ]B12 [α ]B12 ) = θnxn. Por lo tanto,
B B

α = c1 • α1 + c 2 • α 2 + ... + c n • α n

Igualmente, existen escalares únicos cij; i, j = 1, 2, …, n tales que:


[α]BB [α]BB
1
2
2
1
= In

α1 = c11 • β1 + c 21 • β 2 + ... + .c n1 • β n Por el teorema 1.10., [α ]B12 = ([α ]B12 ) −1


B B

α 2 = c12 • β1 + c 22 • β 2 + ... + .c n 2 • β n
M Definición 6.10.
α n = c1n • β1 + c 2 n • β 2 + ... + .c nn • β n
Sean V y W espacios vectoriales finito dimensionales sobre K con Dim(V) = n
Sustituyendo en la ecuación anterior se obtiene que: y Dim(W) = m y B1 = {α1, α2, …, αn} y B2 = {β1, β2, …, βm} bases de V y W,
respectivamente. Sea T: V→W una T.L. ∀ j = 1, 2, …, n, T(αj)∈W, por lo cual
α = c1 • (c11 • β1 + c 21 • β 2 + ... + .c n1 • β n ) + c 2 • (c12 • β1 + c 22 • β 2 + ... + .c n 2 • β n ) m

+... + c n • (c1n • β1 + c 2 n • β 2 + ... + .c nn • β n ) existen m escalares Aij∈K tales que T(αj) = ∑A β


i =1
ij i . Se define como matriz
⇒ α = (c11c1 + c12 c 2 + ... + c1n c n ) • β1 + (c 21c1 + c 22 c 2 + ... + c 2 n c n ) • β 2
de la T.L. T relativa a las bases B1 y B2 y se denota por [T ]B12 a la matriz
B

+... + (c n1c1 + c n 2c 2 + ... + c nn c n ) • β n


⇒ α = d1 • β1 + d 2 • β 2 + ... + d n • β n
[T]BB1
2
∈Mmxn(K) particionada 1xn siguiente:

Luego, [T]BB 2
1
= [ [T(α1 )]B2 [T(α 2 )]B 2
L [T(α n )]B 2
]
⎡ d1 ⎤ ⎡ c11c1 + c12c 2 + ... + c1n c n ⎤ ⎡ c11 c12 L c1n ⎤ ⎡ c1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ Observaciones
c c + c c + ... + c 2 n c n ⎥ ⎢c 21 c 22 L c 2 n ⎥ ⎢c 2 ⎥
[α]B = [α ]B12 [α ]B1
d
= ⎢ 2 ⎥ = ⎢ 21 1 22 2 =
B
⎢M⎥ ⎢ M ⎥ ⎢ M M M ⎥⎢ M ⎥
[T]BB
2

⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ 1. 2
ij = Aij; ∀ i = 1, 2, …, m, j = 1, 2, …, n.
⎣⎢d n ⎦⎥ ⎣⎢c n1c1 + c n 2 c 2 + ... + c nn c n ⎦⎥ ⎣⎢c n1 c n 2 L c nn ⎥⎦ ⎢⎣c n ⎥⎦
1

Ran(T) = r( [T ]B12 )
B
2.
Teorema 6.12.
Nul(T) = n( [T ]B12 )
B
3.
Sea V un espacio vectorial sobre K finito dimensional con Dim(V) = n y sean
B1 = {α1, α2, …, αn} y B2 = {β1, β2, …, βn} bases de V. Entonces se cumple 4. [T(α)]B = [T]BB [α]B
2
2
1 1

que: m

[α]BB 1
= ([α ]B12 ) −1
B
5. T(α) = ∑ ([T(α)]
i =1
B2 ) i β i
2

222 223
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Ejemplo 6.10. ⎡⎡ − 1⎤ ⎤ ⎡3⎤


[T(α 2 )]B = ⎢⎢ ⎥ ⎥ = ⎢ ⎥
⎣⎢ ⎣ ⎦ ⎦⎥ B2 ⎣4⎦
4
2
Sea T: ℜ →ℜ la T.L. definida por:
3 2

⎡ ⎡0 ⎤ ⎤ ⎡1⎤
⎡X ⎤ [T(α 3 )]B = ⎢⎢ ⎥ ⎥ = ⎢ ⎥
⎢ ⎥ ⎡X − Y ⎤ 2
⎢⎣ ⎣1⎦ ⎥⎦ B2 ⎣1⎦
T( ⎢Y ⎥ ) = ⎢ ⎥
⎢⎣ Z ⎥⎦ ⎣Y + Z⎦ Luego,

⎡3 3 1⎤
Sean: [T]BB 2
= ⎢ ⎥
⎣1 4 1⎦
1

⎡ 1⎤ ⎡0 ⎤ ⎡0 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Nótese que: T(α1) = 3•β1 + 1•β2; T(α2) = 3•β1 + 4•β2 y T(α3) = 1•β1 + 1•β2
B 1 = { α 1 = ⎢ − 1 ⎥ , α 2 = ⎢1 ⎥ , α 3 = ⎢ 0 ⎥ } Ahora bien,
⎢⎣ 2⎥⎦ ⎢⎣3⎥⎦ ⎢⎣1⎥⎦

⎡1 ⎤ ⎡−1⎤ ⎡X ⎤ ⎡ 1⎤ ⎡0 ⎤ ⎡0 ⎤
B2 = { β1 = ⎢ ⎥ , β 2 = ⎢ ⎥ } ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
α = c1 • α1 + c 2 • α 2 + c 3 • α 3 ⇒ ⎢Y ⎥ = c1 • ⎢ − 1 ⎥ + c 2 • ⎢1⎥ + c3 • ⎢0⎥
⎣ ⎦
0 ⎣ 1⎦
⎢⎣ Z ⎥⎦ ⎢⎣ 2⎥⎦ ⎢⎣3⎥⎦ ⎢⎣1⎥⎦
Tales que B1 y B2 son bases de ℜ3 y ℜ2, respectivamente.
⎡ X ⎤ ⎡ c1 ⎤ ⎡ 0 ⎤ ⎡ 0 ⎤ ⎡X ⎤ ⎡ c1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⇒ ⎢ Y ⎥ = ⎢ − c1 ⎥ + ⎢ c 2 ⎥ + ⎢ 0 ⎥ ⇒ ⎢Y ⎥ = ⎢ − c1 + c 2
Determinemos [T ] . ⎥
B2
B1
⎢⎣ Z ⎥⎦ ⎢⎣ 2c1 ⎥⎦ ⎢⎣3c 2 ⎥⎦ ⎢⎣c3 ⎥⎦ ⎢⎣ Z ⎥⎦ ⎢⎣ 2c1 + 3c 2 + c3 ⎥⎦
⇒ c1 = X
⎡a ⎤ ⎡1 ⎤ ⎡−1⎤ ⎡c1 ⎤ ⎡ −c 2 ⎤ ⎡c1 − c 2 ⎤
⎢ ⎥ = c1•β1 + c2•β2 = c1• ⎢ ⎥ + c2• ⎢ ⎥ = ⎢ ⎥ + ⎢ ⎥ = ⎢ ⎥ Y = –c1 + c2 ⇒ Y = –X + c2 ⇒ c2 = X + Y
⎣ ⎦
b ⎣ ⎦
0 ⎣ ⎦
1 ⎣ ⎦
0 ⎣ 2⎦
c ⎣ c2 ⎦ Z = 2c1 + 3c2 + c3 ⇒ Z = 2X + 3(X + Y) + c3 ⇒ Z = 2X + 3X + 3Y + c3
⇒ Z = 5X + 3Y + c3 ⇒ c3 = –5X – 3Y + z
⇒ a = c1 – c2 y b = c2 ⇒ a = c1 – b y c2 = b ⇒ c1 = a + b y c2 = b.
Luego,
⎡ ⎡a ⎤ ⎤ ⎡a + b ⎤
⇒ ⎢⎢ ⎥⎥ = ⎢ ⎥ ⎡ X ⎤
⎣⎢ ⎣ ⎦ ⎦⎥ B2 ⎣ b ⎦
b ⎢ ⎥
[α]B1
=⎢ X+Y ⎥
⎢⎣ − 5X − 3Y + Z⎥⎦
⎡ 1⎤
⎢ ⎥ ⎡ 2⎤
T(α1) = T( ⎢ − 1 ⎥ ) = ⎢ ⎥ Por otra parte,
⎢⎣ 2⎥⎦ ⎣1 ⎦

⎡0 ⎤ ⎡X ⎤
⎡ ⎡a ⎤ ⎤ ⎡a + b ⎤ ⎢ ⎥ ⎡X − Y ⎤
⎢ ⎥ ⎡ −1 ⎤ ⎢⎢ ⎥⎥ = ⎢ ⎥
T(α2) = T( ⎢1⎥ ) = ⎢ ⎥ y además T( ⎢Y ⎥ ) = ⎢ Y + Z ⎥ . Por lo tanto,
⎣ 4⎦ ⎢⎣ ⎣b ⎦ ⎥⎦ B2 ⎣ b ⎦ ⎢⎣ Z ⎥⎦ ⎣ ⎦
⎢⎣3⎥⎦

⎡0 ⎤
⎢ ⎥ ⎡0 ⎤ ⎡ ⎛ X ⎞⎤
T(α3) = T( ⎢0⎥ ) = ⎢ ⎥ ⎢ ⎜ ⎟⎥ ⎡⎛ X − Y ⎞⎤ ⎡ X − Y + Y + Z⎤ ⎡ X + Z⎤
⎣1 ⎦ ⎢T ⎜ Y ⎟ ⎥ = ⎢⎜⎜ ⎟⎟⎥ = ⎢ ⎥=⎢ ⎥
⎢⎣1⎥⎦ + Y+Z
⎢ ⎜ Z ⎟⎥ ⎣⎢⎝ Y Z ⎠⎦⎥ B2 ⎣ ⎦ ⎣ Y + Z⎦
⎣ ⎝ ⎠⎦
⎡ ⎡2⎤ ⎤
B2
⎡3⎤
[T(α1 )]B = ⎢⎢ ⎥ ⎥ = ⎢ ⎥
⎣⎢ ⎣ ⎦ ⎦⎥ B2 ⎣1⎦
1
2
Por consiguiente,

224 225
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ ⎛ X ⎞⎤ ⎡ X ⎤ Teorema 6.13.
⎢ ⎜ ⎟⎥ ⎡X + Z⎤ ⎡3 3 1⎤ ⎢ ⎥
= = + ⎥ = [T ]B1 [α ]B1
B2
⎢ ⎜ ⎟⎥
T Y ⎢
+
⎥ ⎢ ⎥⎢ X Y Sean T: ℜn→ℜm una T.L. y, B1 = {α1, α2, …, αn} y B2 = {β1, β2, …, βm} bases
⎢ ⎜ Z ⎟⎥ ⎣ Y Z ⎦ ⎣1 4 1⎦ ⎢− 5X − 3Y + Z⎥
de ℜn y ℜm, respectivamente. Si A1∈Mnxn(ℜ) definida como una matriz
⎣ ⎝ ⎠ ⎦ B2 ⎣ ⎦
particionada 1xn A1 = [α1 α2 … αn] y A2∈Mnxn(ℜ) definida como una matriz
particionada 1xm A2 = [β1 β2 … βm] entonces se cumple que:
Para hallar la imagen a través de esta matriz de un vector determinado,
⎡1 ⎤ [T]BB1
2
= A −2 1A T A1 .
⎢ ⎥
digamos el vector α = ⎢2⎥ se procede de la siguiente manera:
⎢⎣3⎥⎦ Demostración

Por definición,
⎡1 ⎤ ⎡ ⎡1 ⎤ ⎤ ⎡ ⎡1 ⎤ ⎤ ⎡ ⎡1 ⎤ ⎤
⎢ ⎥
m
⎢ ⎢ ⎥⎥ ⎢ ⎢ ⎥⎥
[ ]B2 ⎢ ⎢ ⎥ ⎥ [T]BB = [ [T(α1 )]B2 [T(α 2 )]B [T(α n )]B
∑ L
2
( ⎢T( ⎢2⎥ )⎥ ) i β i , siendo = ]
T( ⎢ 2⎥ ) = ⎢ ⎢ ⎥⎥
T ( 2 ) T B1 ⎢ ⎢ 2⎥ ⎥
1 2 2

⎢⎣3⎥⎦ i =1 ⎢ ⎢ ⎥⎥ ⎢ ⎢3⎥ ⎥ ⎢ ⎢ 3⎥ ⎥
⎣ ⎣ 3 ⎦ ⎦ B2 ⎣ ⎣ ⎦ ⎦ B2 ⎣ ⎣ ⎦ ⎦ B1 A su vez, existen escalares c1, c2, …, cn tales que:

m
Hallamos: T (α j ) = ∑c
i =1
ij • βi

⎡ ⎡1 ⎤ ⎤ ⎡ 1 ⎤ ⎡ 1⎤
⎢⎢ ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ Luego,
⎢⎢ ⎥ ⎥
2 = ⎢ 1 + 2 ⎥ = ⎢ 3⎥
⎢ ⎢3⎥ ⎥ ⎢ − − + ⎥⎦ ⎢⎣− 8⎥⎦ ⎡ c1 j ⎤
⎣ ⎣ ⎦ ⎦ B1 ⎣ 5 .1 3 . 2 3
⎢ ⎥
[T(α )] j B2
c2 j
=⎢ ⎥
⎢ M ⎥
Luego, ⎢ ⎥
⎣⎢c mj ⎦⎥
⎡ ⎡1 ⎤ ⎤ ⎡ ⎡1 ⎤ ⎤ ⎡ 1⎤
⎢ ⎢ ⎥⎥ B2 ⎢ ⎢ ⎥ ⎥ ⎡3 3 1⎤ ⎢ ⎥ ⎡ 4⎤ Por consiguiente,
⎢ ⎢ ⎥⎥
T ( 2 ) = [T ]B1 ⎢ ⎢ ⎥ ⎥
2 = ⎢ ⎥ ⎢ 3⎥ = ⎢ ⎥
⎢ ⎢3⎥ ⎥ ⎢ ⎢ 3⎥ ⎥ ⎣1 4 1⎦ ⎢⎣ − 8⎥⎦ ⎣5⎦
⎣ ⎣ ⎦ ⎦ B2 ⎣ ⎣ ⎦ ⎦ B1 ⎡ c11 c12 L c1n ⎤
⎢ ⎥
c 22 L c 2 n ⎥
[T]
c
= ⎢ 21
B2
Por consiguiente, B1
⎢ M M M ⎥
⎢ ⎥
⎣⎢c m1 c m 2 L c mn ⎦⎥
⎡1 ⎤ ⎡ ⎡1 ⎤ ⎤
⎢ ⎥ ⎢ ⎥ ⎡1 ⎤ ⎡−1⎤ ⎡−1⎤
∑ (⎢T(⎢⎢2⎥⎥)⎥
m
T( ⎢2⎥ ) = ) i β i = 4. ⎢ ⎥ + 5. ⎢ ⎥ = ⎢ ⎥ Ahora bien,
⎢ ⎥ ⎣ ⎦
0 ⎣ ⎦
1 ⎣ 5⎦
⎢⎣3⎥⎦ ⎣⎢3⎥⎦ ⎦ B2
i =1
⎣ m
T (α j ) = ∑c
i =1
ij • βi = c1 j • β1 + c 2 j • β 2 + ... + c mj • β m
Directamente con la transformación lineal se obtiene que:
⎡ c1 j ⎤
⎡1 ⎤ ⎢ ⎥
c2 j
⎢ ⎥ ⎡1 − 2 ⎤ ⎡−1⎤ ⇒ T(α j ) = [β1 β 2 L β m ]⎢ ⎥
T( ⎢2⎥ ) = ⎢ ⎥=⎢ ⎥ ⎢ M ⎥
⎢⎣3⎥⎦ ⎣2 + 3⎦ ⎣ 5⎦ ⎢ ⎥
⎢⎣c mj ⎥⎦

226 227
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ c1 j ⎤ ⎡ 1⎤ ⎡0 ⎤ ⎡0 ⎤ ⎡ 1 0 0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
c2 j Como B1 = { α1 = ⎢ − 1 ⎥ , α 2 = ⎢1⎥ , α 2 = ⎢0⎥ } entonces A1 = ⎢ − 1 1 0⎥
⇒ T (α j ) = A 2 ⎢ ⎥
⎢ M ⎥ ⎢⎣ 2⎥⎦ ⎢⎣3⎥⎦ ⎢⎣1⎥⎦ ⎢⎣ 2 3 1⎥⎦
⎢ ⎥
⎢⎣c mj ⎥⎦
⎡1⎤ ⎡−1⎤ ⎡1 −1⎤
Como B2 = { β1 = ⎢ ⎥ , β 2 = ⎢ ⎥ } entonces A 2 = ⎢ ⎥
Luego,
⎣ ⎦
0 ⎣ ⎦
1 ⎣0 1⎦

⎡ ⎡ c11 ⎤ ⎡ c12 ⎤ ⎡ c1n ⎤ ⎤ ⎡1 1⎤


⎢ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎥ Se puede verificar fácilmente que A 2−1 = ⎢ ⎥
[T(α1 ) T(α 2 ) L T(α n )] = ⎢⎢A 2 ⎢⎢ 21 ⎥⎥ A 2 ⎢⎢ 22 ⎥⎥ L A 2 ⎢⎢ 2n ⎥⎥ ⎥⎥
c c c
⎣0 1⎦
M M M
⎢ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎥
⎣⎢ ⎣⎢ m1 ⎦⎥
c ⎢⎣ m 2 ⎦⎥
c ⎣⎢ mn ⎥⎦ ⎦⎥
c ⎡ 1 0 0⎤
⎡1 1⎤ ⎡1 − 1 0⎤ ⎢ ⎥ ⎡3 3 1⎤
Luego, [T ]B12 = A 2−1A T A1 = ⎢ ⎥ − 1 1 0⎥ = ⎢
B
⎡ c11 c12 c1n ⎤ ⎥⎢ ⎥
⎣0 1⎦ ⎣0 1 1⎦ ⎢
⎢⎣ 2 3 1⎥⎦ ⎣
⎢ ⎥ 1 4 1⎦
⇒ [T(α1 ) T(α 2 ) L T(α n )] = A 2 ⎢ c 21 c 22 c2n ⎥
L
⎢ M M M ⎥
⎢ ⎥
⎣⎢c m1 c m 2 c mn ⎦⎥
⇒ [T(α1 ) T(α 2 ) L T(α n )] = A 2 [T ]B12
B

Por otro lado, T(α) = ATα, es decir que:

[A T α1 A T α 2 L A T α n ] = A 2 [T ]B12
B

Por consiguiente,

A T [α1 α 2 L α n ] = A 2 [T ]B12 ⇒ A T A1 = A 2 [T ]B12


B B

Como B2 = {β1, β2, …, βm} es una base entonces B2 es un conjunto L.I. Luego,
la matriz A2 = [β1 β2 … βm] es no singular. Por lo tanto,

A T A1 = A 2 [T ]B12 ⇒ [T ]B12 = A −2 1A T A1
B B

Ejemplo 6.11.

En el ejemplo 6.9., la T.L. T: ℜ3→ℜ2 es definida por:

⎡X ⎤
⎢ ⎥ ⎡X − Y ⎤
T( ⎢Y ⎥ ) = ⎢ ⎥
⎢⎣ Z ⎥⎦ ⎣Y + Z⎦

Es sencillo verificar que:

⎡1 −1 0⎤
AT = ⎢ ⎥
⎣0 1 1⎦

228 229
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

EJERCICIOS PROPUESTOS. ⎡1 ⎤
4. Determine si existe una T.L. T: ℜ2→ℜ tal que T( ⎢ ⎥ ) = 3,
1. Determine cuáles de las siguientes funciones son T.L.: ⎣ 2⎦
1.1. T: ℜ3→ℜ3 definida por: ⎡ ⎤
2 ⎡ ⎤
2 19
T( ⎢ ⎥ ) = –1 y T( ⎢ ⎥ ) = .
⎡ X1 ⎤ ⎡X 2 − X1 ⎤ ⎣ 2⎦ ⎣5 ⎦ 2
⎢ ⎥ ⎢ ⎥
1.1.1. T( ⎢X 2 ⎥ ) = ⎢ X1 ⎥
⎢⎣ X 3 ⎥⎦ ⎢⎣ X 3 ⎥⎦ ⎡ X1 X1 0 ⎤
⎢ ⎥
5. Sea T: ℜ2→M3x3(ℜ) definida por T(X1, X2) = ⎢ − X1 X1 X2 ⎥
⎡ X1 ⎤ ⎡X1 + 1⎤
⎢ ⎥ ⎢ ⎥ ⎢⎣ 0 X2 X1 − X 2 ⎥⎦
1.1.2. T( ⎢X 2 ⎥ ) = ⎢ X2 ⎥
⎢⎣ X 3 ⎥⎦ ⎢⎣ 0 ⎥⎦
5.1. Demuestre que T es una T.L.
⎡ X1 ⎤ ⎡ 0 ⎤ 5.2. Determine Kernel e Imagen de T, así como también bases
⎢ ⎥ ⎢ ⎥ de estos subespacios.
1.1.3. T( ⎢X 2 ⎥ ) = ⎢X1 + X 2 ⎥
⎢⎣ X 3 ⎥⎦ ⎢⎣ 0 ⎥⎦
⎡ X1 + 2 X 2 ⎤
⎡X ⎤ ⎢ ⎥
⎡ X1 ⎤ ⎡X1X 2 ⎤ 6. Sea T: ℜ2→ℜ3 una T.L. definida por T( ⎢ 1 ⎥ ) = ⎢ − X1 ⎥ .
⎢ ⎥ ⎢ ⎥ ⎣X 2 ⎦
1.1.4. T( ⎢X 2 ⎥ ) = ⎢ X3 ⎥ ⎢⎣ 0 ⎥⎦
⎢⎣ X 3 ⎥⎦ ⎢⎣ X1 ⎥⎦
6.1. Determine la matriz asociada con T con respecto a las
1.2. T: ℜ →ℜ definida por:
3 2
⎡1⎤ ⎡2⎤ ⎡3⎤
⎡1⎤ ⎡ −2 ⎤ ⎢⎥ ⎢ ⎥ ⎢ ⎥
⎡ X1 ⎤ bases { ⎢ ⎥ , ⎢ ⎥ } de ℜ2 y { ⎢1⎥ , ⎢2⎥ , ⎢0⎥ } de ℜ3.
⎢ ⎥ ⎡X 2 ⎤ ⎣3⎦ ⎣ 4⎦
1.2.1. T( ⎢X 2 ⎥ ) = ⎢ ⎥ ⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣0⎥⎦
⎢⎣ X 3 ⎥⎦ ⎣ X1 ⎦
⎡8⎤
6.2. Calcular mediante esta matriz T( ⎢ ⎥ ).
⎡ X1 ⎤ ⎣3⎦
⎢ ⎥ ⎡2X − X 2 ⎤
1.2.2. T( ⎢X 2 ⎥ ) = ⎢ 1 ⎥
⎢⎣ X 3 ⎥⎦ ⎣ X3 ⎦ ⎡1⎤ ⎡1⎤ ⎡ 1⎤ ⎡0 ⎤
7. Sea T: ℜ2→ℜ2 una T.L. tal que T( ⎢ ⎥ ) = ⎢ ⎥ y T( ⎢ ⎥ ) = ⎢ ⎥ .
1.3. T: M2x2(ℜ)→M2x2(ℜ) tal que T(A) = A + At. ⎣1⎦ ⎣0 ⎦ ⎣ − 1⎦ ⎣1⎦
1.4. T: M2x2(ℜ)→ℜ tal que T(A) = Det(A). Determine la representación matricial de T con respecto a la base
1.5. T: M2x2(ℜ)→ℜ tal que T(A) = Traza(A). ⎡1⎤ ⎡ 1⎤
{⎢ ⎥ , ⎢ ⎥}
2. Para cada una de las funciones anteriores que sean transformaciones ⎣1⎦ ⎣ − 1⎦
lineales determine Kernel, Imagen, Nulidad y Rango.
8. Determine una T.L. T: ℜ3→ℜ3 tal que:
⎡ −1 ⎤
⎡1 ⎤ ⎢ ⎥
3. La función T: ℜ2→ℜ2 es una T.L. y verifica que T( ⎢ ⎥ ) = ⎢ 0⎥ y
⎣ 2⎦ ⎡ X1 ⎤
⎢⎣ 2⎥⎦ ⎢ ⎥
Ker(T) = { ⎢X 2 ⎥ : 2X1 – X2 + X3 = 0}.
⎡ 0⎤ ⎢⎣ X 3 ⎥⎦
⎡ 2⎤ ⎢ ⎥ ⎡3⎤
T( ⎢ ⎥ ) = ⎢ 2⎥ . Determine las imágenes de los vectores ⎢ ⎥ y
⎣1 ⎦ ⎢⎣ −1 ⎥⎦ ⎣3⎦

⎡ 0⎤ ⎡ X1 ⎤
⎢ ⎥ ⎡ X − 2X 3 ⎤
⎢ ⎥. 9. Sea T: ℜ3→ℜ2 una T.L. definida por T( ⎢X 2 ⎥ ) = ⎢ 1 ⎥.
⎣ −1⎦ ⎣ X 2 + X3 ⎦
⎢⎣ X 3 ⎥⎦

230 231
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Determine la matriz asociada a T con respecto a las bases 15. Sean U, V y W espacios vectoriales y T1: V→W y T2: W→U T.L.,
⎡1⎤ ⎡2⎤ ⎡3⎤ tales que T1 y T2 son monomorfismos. Demuestre que T1°T2 es un
⎢⎥ ⎢ ⎥ ⎢ ⎥ ⎡ 2⎤ ⎡0 ⎤ monomorfismo.
{ ⎢1⎥ , ⎢2⎥ , ⎢0⎥ } de ℜ3 y { ⎢ ⎥ , ⎢ ⎥ } de ℜ .
2

⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣0⎥⎦ ⎣0 ⎦ ⎣ 2⎦ ⎡2 1 −1 ⎤


16. Sea T: ℜ3→ℜ2 una T.L. y ⎢ ⎥ la matriz asociada con T con
⎣1 1 − 2 ⎦
respecto a las bases canónicas de cada espacio. Determine la
10. Sea T: M2x2(ℜ)→ℜ3 una T.L. definida por
⎡−1⎤
⎡ X1 + X 2 − X 3 ⎤ preimagen por T del vector ⎢ ⎥ . ¿Es T un monomorfismo?.
⎡X X2 ⎤ ⎢ ⎥ ⎣ 1⎦
T( ⎢ 1 ⎥ ) = ⎢ X1 + X 2 + X 4 ⎥
⎣X 3 X4 ⎦
⎢⎣X 2 + X 3 + X 4 ⎥⎦
17. Sea T: V→V una T.L. y tal que T2 – T + I = θ. Demuestre que T-1
existe y que T-1 = I – T.
10.1. Determine la matriz asociada a T con respecto a las bases ⎡ b ⎤
⎡1 1⎤ ⎡1 0⎤ ⎡0 0 ⎤ ⎡0 1⎤ ⎢a + c 2 ⎥⎥ .
{⎢ ⎥, ⎢ ⎥, ⎢ ⎥, ⎢ ⎥ } de M2x2(ℜ) y 18. Sea T :P2→M2x2(ℜ) tal que T(ax2+bx+c) = ⎢
b
⎣1 1⎦ ⎣1 0⎦ ⎣0 1 ⎦ ⎣1 1⎦ ⎢ a + c⎥
⎣⎢ 2 ⎦⎥
⎡ 0 ⎤ ⎡ 2 ⎤ ⎡0 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
{ ⎢2⎥ , ⎢0⎥ , ⎢1⎥ de ℜ3.
18.1. Demuestre que T es una T.L.
⎢⎣1 ⎥⎦ ⎢⎣1 ⎥⎦ ⎢⎣1⎥⎦ 18.2. Determine Imagen, Kernel, Rango y Nulidad de T. ¿Es T
10.2. Utilizando la matriz determinada en 10.1., determine la un isomorfismo?
18.3. Determine la matriz asociada a T respecto a la base
⎡ −1 3 ⎤
imagen de ⎢ ⎥. {1+x, 1–x, x2–1} de P2 y la base canónica de M2x2(ℜ).
⎣ 2 2⎦ Mediante esta matriz determine la Imagen por T de
4x2–3x+5.
11. Determine la T.L. T: ℜ3→ℜ2 tal que respecto a las bases
⎡0⎤ ⎡1⎤ ⎡1⎤ 19. Sea T:M2x2(ℜ)→ℜ3 tal que la matriz asociada con T respecto a la base
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎡1 ⎤ ⎡ 2⎤ ⎡1⎤ ⎡2⎤ ⎡ 3⎤
{ ⎢1⎥ , ⎢0⎥ , ⎢1⎥ } de ℜ3 y { ⎢ ⎥ , ⎢ ⎥ } de ℜ la matriz asociada es
2
⎢⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣1⎥⎦ ⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎣ 2⎦ ⎣1 ⎦ canónica de M2x2(ℜ) y la base { ⎢1⎥ , ⎢2⎥ , ⎢0⎥ } de ℜ3 es
⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣0⎥⎦
⎡1 0 0⎤
⎢ ⎥. ⎡0
⎣1 − 1 1⎦ 0 1 −1 ⎤
⎢ ⎥
⎢0 − 1 0 −1 ⎥
⎢ 2 2 ⎥
12. Sea Tφ: ℜ2→ℜ2 la T.L. representada por la matriz
⎢⎣ 1 3 2 −1 0⎥
⎡Cos(φ) −Sen (φ)⎤ 3 3 ⎦
⎥ respecto a la base canónica de ℜ . Demuestre
2
⎢ ⎡1 ⎤
⎣Sen (φ) Cos(φ) ⎦
⎢ ⎥
que si φ1∈ℜ y φ2∈ℜ entonces: 19.1. Determine la preimagen de ⎢2⎥ . ¿Es T inyectiva?
⎢⎣3⎥⎦
12.1. Tφ1 o Tφ2 = Tφ1 + φ 2 .
⎡ X1 ⎤
⎢ ⎥ ⎡ X1 + X 2 ⎤
12.2. Tφ−11 = T−φ2 . 19.2. Sea T2: ℜ3→ℜ2 tal que T2( ⎢X 2 ⎥ ) = ⎢ ⎥.
⎢⎣ X3 ⎥⎦ ⎣ X 2 − X1 + X 3 ⎦
13. Sea T: V→W una T.L., β∈W y α0∈V tal que T(α0) = β. Demuestre
Determine la matriz asociada con (T2°T) con respecto a las
que toda solución de T(α) = β es de la forma α0 + δ, donde δ∈Ker(T).
bases canónicas de M2x2(ℜ) y ℜ2.
14. Sea B∈nxn(K) una matriz no singular. Demuestre que la T.L.
T: Mmxn(ℜ)→Mmxn(ℜ) definida por T(A) = AB es un isomorfismo.

232 233
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ a1 ⎤ 23.2. Determine T(5x3–x2+3x+2).


⎢ ⎥ 23.3. Sea T2: ℜ3→ℜ2 tal que T2(x1, x2, x3) = (-2x1+3x3, x1+2x2–
a
20. Sea T: ℜ4→P2 tal que T( ⎢ 2 ⎥ ) = a1 + a2x + (a3+a4)x2. ⎡−2⎤ ⎡5⎤
⎢a 3 ⎥ x3) y la base B3 = { ⎢ ⎥ , ⎢ ⎥ } de ℜ2. Determine la matriz
⎢ ⎥ ⎣− 1⎦ ⎣3⎦
⎢⎣a 4 ⎥⎦
asociada con T2°T con respecto a las bases B1 y B3. ¿Es
20.1. Demuestre que T es una T.L. T2°T un monomorfismo?
20.2. Determine Kernel, Imagen, Rango y Nulidad de T.

21. Sea T: M2x2(ℜ)→P2 tal que: ⎡ a1 ⎤


⎢ ⎥
24. Sea T: ℜ3→P2 tal que T( ⎢a 2 ⎥ ) = (a2–a1) + (a1+2a3)x + (a3–a2)x2.
⎡a b ⎤ 2
⎢⎣a 3 ⎥⎦
T( ⎢ ⎥ ) = (b–c)x + (3a–d)x + (4a–2c+d).
⎣c d ⎦ 24.1. Demuestre que T es un isomorfismo.
24.2. Determine T-1 y la matriz asociada a T-1 con respecto a las
21.1. Determine el Kernel, Imagen, Rango y Nulidad de T. ¿Es T bases {2x–1, 4x2+x+1, –x2+2x+1} de P2 y
un epimorfismo? ⎡ 2 ⎤ ⎡ 3⎤ ⎡ 4 ⎤
21.2. Determine la matriz asociada con T con respecto a las ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
{ ⎢2⎥ , ⎢1⎥ , ⎢0⎥ } de ℜ3.
⎡3 −4⎤ ⎡−2 1⎤ ⎡2 −2⎤ ⎡−2 1⎤ ⎢⎣2⎥⎦ ⎢⎣0⎥⎦ ⎢⎣0⎥⎦
bases { ⎢ ⎥, ⎢ ⎥, ⎢ ⎥, ⎢ ⎥ } de
⎣1 − 1⎦ ⎣ 1 1⎦ ⎣ 1 − 1⎦ ⎣ 0 1⎦ 24.3. Mediante esta matriz determine T-1(p) siendo
M2x2(ℜ) y {2x–1, -5x2+3x-1, x2–2x+1} de P2. p(x) = 2x2–x+6.
⎡1 2⎤
21.3. Mediante esta matriz determine la imagen de ⎢ ⎥.
⎣3 4⎦ 25. Sea T: P2→P2 una T.L. y tal que la matriz asociada con T respecto a la
⎡−1 3 0⎤
⎢ ⎥
22. Sea P2 el espacio vectorial de los polinomios de grado a lo sumo 2, base B = {2x–1, 4x2–x+1, x2+2x+1} es ⎢ 2 − 3 1⎥
B = {1+2x, x2–2x+1, x2+x–1} una base de P2 y T: P2→P2 tal que la ⎢⎣ 3 − 4 1⎥⎦
matriz asociada a T con respecto a la base B es:
25.1. Demuestre que T es un isomorfismo.
25.2. Determine T-1.
⎡ 1 −3 0⎤
⎢ ⎥ 25.3. Sea T2: ℜ3→P2 tal que:
⎢− 4 3 − 1⎥
⎢⎣ 8 − 5 2⎥⎦ ⎡ c1 ⎤
⎢ ⎥
T2( ⎢c 2 ⎥ ) = c3 + (c2–c1)x + (c3+2c2)x2.
22.1. Demuestre que T es un isomorfismo. ⎢⎣c 3 ⎥⎦
22.2. Determine T-1 y la matriz asociada con T-1 respecto a la
base B.
22.3. Mediante esta matriz, obtener T-1(p) siendo Determine la matriz asociada a T°T2 respecto a las bases
p(x) = –x2–3x+2. ⎡1⎤ ⎡2⎤ ⎡4⎤
⎢⎥ ⎢ ⎥ ⎢ ⎥
B de P2 y { ⎢1⎥ , ⎢2⎥ , ⎢0⎥ } de ℜ3.
23. Sea P3 el espacio vectorial de los polinomios de grado a lo sumo 3 y
T: P3→ℜ3 tal que la matriz asociada con T con respecto a las bases ⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣0⎥⎦
⎡ −2 ⎤ ⎡ 1 ⎤ ⎡ 3 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 26. Sea P2 el espacio vectorial de los polinomios de grado a lo sumo 2,
B1 = {x3+x2, x2+x, x+1, 1} de P3 y B2 = { ⎢ 1⎥ , ⎢ − 3⎥ , ⎢ − 6 ⎥ } de ℜ3
B = {1+2x, x2–2x+1, x2+x–1} una base de P2 y T: P2→P2 tal que la
⎢⎣− 3⎥⎦ ⎢⎣ 0⎥⎦ ⎢⎣ 2⎥⎦
matriz asociada con T respecto a la base B es:
⎡ −1 −10 −15 −9 ⎤
⎢ ⎥ ⎡ 1 −3 0⎤
es ⎢ 1 26 41 25⎥
⎢ ⎥
⎢⎣− 1 − 15 − 23 − 14 ⎥⎦ ⎢− 4 3 − 1⎥
⎢⎣ 8 − 5 2⎥⎦
23.1. Determine si T es un monomorfismo.

234 235
CAPÍTULO 6: TRANSFORMACIONES LINEALES

26.1. Demuestre que T es un isomorfismo.


26.2. Determine T-1 y la matriz asociada con T-1 respecto a la
base B.
26.3. Mediante esta matriz, determinar T-1(p) siendo
p(x) = –x2–3x+2.

27. Sea T: M2x2(ℜ)→P3 una T.L. tal que la matriz asociada con T respecto
a las bases B1 y B2 es:

⎡ 0 1 2 3⎤
⎢ ⎥
⎢ 1 3 −1 0⎥
⎢ 2 0 1 − 1⎥
⎢ ⎥
⎣⎢ − 1 2 0 1⎦⎥

⎡1 1⎤ ⎡−1 1⎤ ⎡0 0⎤ ⎡1 −1⎤
B1 = { ⎢ ⎥, ⎢ ⎥, ⎢ ⎥, ⎢ ⎥}
⎣0 0 ⎦ ⎣ 1 0 ⎦ ⎣0 1 ⎦ ⎣ 0 1⎦
B2 = {x3+x2, x2+x, x+1, 1}

⎡0 2 ⎤
27.1. Determine T( ⎢ ⎥ ).
⎣3 1 ⎦
27.2. Demuestre que T es un isomorfismo.
27.3. Determine T-1.
⎡a ⎤
⎢ ⎥ ⎡a − b a + b ⎤
27.4. Sea T2: ℜ3→M2x2(ℜ) tal que T2( ⎢b⎥ )= ⎢ ⎥.
⎢⎣ c ⎥⎦ ⎣a + c b − c⎦

Determine la matriz asociada con T°T2 respecto a las bases


⎡1⎤ ⎡2⎤ ⎡0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B2 y B3, siendo B3 = { ⎢1⎥ , ⎢0⎥ , ⎢1 ⎥ }. ¿Es T°T2 un
⎢⎣0⎥⎦ ⎢⎣1 ⎥⎦ ⎢⎣2⎥⎦
isomorfismo?

28. Determine la matriz de transición de B1 a B2 y de B2 a B1 en los


siguientes casos:

⎡1⎤ ⎡0⎤ ⎡2⎤ ⎡−3⎤


28.1. V = ℜ2, B1 = { α1 = ⎢ ⎥ , α2 = ⎢ ⎥ }, B2 = { β1 = ⎢ ⎥ , β2 = ⎢ ⎥ }
⎣0⎦ ⎣1⎦ ⎣3⎦ ⎣− 4⎦
⎡ 2⎤ ⎡ −3 ⎤ ⎡1⎤ ⎡2⎤
28.2. V = ℜ2, B1 = { α1 = ⎢ ⎥ , α2 = ⎢ ⎥ }, B2 = { β1 =⎢ ⎥ , β2 = ⎢ ⎥ }
⎣⎦3 −
⎣ ⎦ 4 ⎣⎦
5 ⎣⎦
6
28.3. V = P1, B1 = { α1 =1 , α2 = x }, B2 = { β1 = 2 +3x , β2 = −4 + 5x }

236
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡2 0 2⎤ ⎡ 1 ⎤ ⎡ 6 ⎤ ⎡1⎤
Capítulo 7 ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥
AX 3 = ⎢0 6 0⎥ ⎢ 5 ⎥ = ⎢10⎥ = 6 ⎢ 5 ⎥ = λ 3X 3 ; siendo λ3 = 6
3
⎢⎣1 3 3⎥⎦ ⎢⎣ 2 ⎥⎦ ⎢⎣12⎥⎦
3
⎢⎣ 2 ⎥⎦
AUTOVALORES
Y AUTOVECTORES Es decir, λ1 = 1, λ2 = 4 y λ3 = 6 son autovalores de A con autovectores
⎡ −2 ⎤ ⎡1⎤ ⎡1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
asociados X1 = ⎢ 0⎥ , X 2 = ⎢0⎥ y X 3 = ⎢ 5 ⎥ , respectivamente.
3
⎢⎣ 1⎥⎦ ⎢⎣1⎥⎦ ⎢⎣ 2 ⎥⎦
7.1. INTRODUCCIÓN.

En este capítulo se presentan dos de los más importantes conceptos del Nótese que A∈M3x3(K) y tiene exactamente 3 autovalores.
Álgebra Lineal que son claves en el Análisis de Datos Multivariante como lo
son los conceptos de Autovalor y Autovector. Se exponen todos sus temas Definición 7.2.
asociados como lo son la relación entre los autovalores y autovectores de una
matriz y su matriz transpuesta, la semejanza de matrices y los autovalores y Sea A∈Mnxn(K). Se define como espectro de A y se denota por E(A) al
autovectores de matrices simétricas. conjunto formado por todos los autovalores de A.

7.2. DEFINICIONES, PROPIEDADES Y EJEMPLOS. Ejemplo 7.2.

Definición 7.1. En el ejemplo 7.1, E(A) = {1, 4, 6}

Sean A∈Mnxn(K) y λ∈K. Se dice que λ es autovalor, valor propio, valor Definición 7.3.
característico o eigenvalor de A si:
Sean A∈Mnxn(K) y λ∈K, tales que λ es autovalor de A. Se define como
n autoespacio, espacio propio, espacio característico o eigenespacio de A y se
∃X ∈ K (X ≠ θ nx1 ) : AX = λX denota por Vλ(A) al conjunto:

En ese caso, se dice que el vector X es autovector, vector propio, vector


característico o eigenvector, respectivamente de A asociado al autovalor λ.
{ }
Vλ (A) = X ∈ K n (X ≠ θ nx1 ) : AX = λX

Ejemplo 7.1. Ejemplo 7.3.

Sean A∈M3x3(ℜ) y X1, X2, X3∈ℜ3 definidas por: En el ejemplo 7.1.,

⎡2 0 2⎤ ⎡ −2 ⎤ ⎡1⎤ ⎡1⎤ ⎧ ⎡− 2⎤ ⎫ ⎧ ⎡1⎤ ⎫


⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎪ ⎢ ⎥ ⎪ ⎪ ⎢ ⎥ ⎪
A = ⎢0 6 0⎥ ; X1 = ⎢ 0⎥ ; X 2 = ⎢0⎥ ; X 3 = ⎢ 5 ⎥ V1 (A) = ⎨X ∈ ℜ3 : X = a ⎢ 0⎥; a ∈ ℜ* ⎬ , V4 (A) = ⎨X ∈ ℜ3 : X = b ⎢0⎥; b ∈ ℜ* ⎬
3 ⎪ ⎪ ⎪ ⎪
⎢⎣1 3 3⎥⎦ ⎢⎣ 1⎥⎦ ⎢⎣1⎥⎦ ⎢⎣ 2 ⎥⎦ ⎢⎣ 1⎥⎦ ⎢⎣1⎥⎦
⎩ ⎭ ⎩ ⎭
⎧ ⎡1 ⎤ ⎫
Luego, se verifica que: ⎪ ⎢ ⎥ ⎪
y V6 (A) = ⎨X ∈ ℜ3 : X = c ⎢ 5 ⎥; c ∈ ℜ* ⎬
3
⎪ ⎢⎣ 2 ⎥⎦ ⎪
⎡2 0 2⎤ ⎡ −2 ⎤ ⎡ −2 ⎤ ⎡ −2 ⎤ ⎩ ⎭
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥
AX1 = ⎢0 6 0⎥ ⎢ 0⎥ = ⎢ 0⎥ = 1⎢ 0⎥ = λ1X1 ; siendo λ1 = 1
⎢⎣1 3 3⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣ 1⎥⎦ Observación:

⎡2 0 2⎤ ⎡1⎤ ⎡4⎤ ⎡1⎤ Nótese que para cada autovalor existen infinitos autovectores, los cuales se
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ generan por un conjunto finito de vectores. En el ejemplo 7.3., los autovectores
AX = ⎢0 6 0⎥ ⎢0⎥ = ⎢0⎥ = 4⎢0⎥ = λ 2 X 2 ; siendo λ2 = 4
2
de cada autovalor se generan cada uno por un solo vector.
⎢⎣1 3 3⎥⎦ ⎢⎣1⎥⎦ ⎢⎣4⎥⎦ ⎢⎣1⎥⎦

238
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Teorema 7.1. CS (⇐): Si Det(A-λIn) = 0 entonces λ es autovalor de A.


n
Sean A∈Mnxn(K) y X∈K -{θnx1}. Si X es autovector de A entonces X esta Si Det(A-λIn) = 0, por el teorema 3.1., apartado 13 se tiene que A − λI n es
asociado a un único autovalor de A.
singular. Luego, por el teorema 4.19., n( A − λI n ) ≠ 0, es decir,
Demostración θ nx1 ∉ N ( A −λI n ) . Por consiguiente, ∃X ∈ K n (X ≠ θ nx1 ) : (A − λI n )X = θ nx1 , lo

Supongamos que X es autovector de A asociado a los autovalores λ y μ. cual significa que ∃X ∈ K n (X ≠ θ nx1 ) : AX = λX , es decir, λ es autovalor de
Luego, A.

AX = λX Definición 7.4.
⇒ AX − AX = λX − μX ⇒ θ nx1 = (λ − μ)X
AX = μX
Sea A∈Mnxn(K). Se define como autopolinomio, polinomio propio, polinomio
característico o eigenpolinomio de A y se denota por PA(λ) a:
Como X∈K -{θnx1} entonces para que (λ − μ)X = θ nx1 debe cumplirse que
n

λ − μ = 0 , es decir, λ = μ . Por consiguiente, X esta asociado a un único PA(λ) = Det (A − λI n )


autovalor.
La igualdad PA(λ) = 0 recibe el nombre de autoecuación, ecuación propia,
Teorema 7.2. ecuación característica o eigenecuación de A.

Sean A∈Mnxn(K) y λ∈K. Si λ es autovalor de A entonces Observación:


{ }
Vλ* (A) = X ∈ K n : AX = λX es un subespacio de Kn.
Del teorema 7.3., se obtiene que λ es autovalor de A si y sólo si es solución de
Demostración la autoecuación de A, es decir, es raíz del autopolinomio de A, PA(λ). El
próximo teorema nos indicará las características de PA(λ).
Si AX = λX entonces AX – λX = θnx1, es decir, (A – λIn)X = θnx1. Por
Teorema 7.4.
consiguiente, Vλ* (A) = N ( A −λIn ) y por el teorema 4.18, Vλ* (A) es un n

subespacio de K . n Sea A∈Mnxn(K). Entonces se cumple que PA (λ ) = ∑ (−1)


j= 0
n− j
SDMPAO( j)λn − j ;

Observación: con SDMPAO(0) = 1, donde SDMPAO(j) significa “Suma de los


determinantes de los menores principales de A de orden j”.
Vλ* (A) = Vλ (A) ∪ {θ nx1}
Demostración
Teorema 7.3. Expresemos la matriz A∈Mnxn(K) particionada 1xn por columnas, es decir,
Sean A∈Mnxn(K) y λ∈K. λ es autovalor de A si y sólo si Det(A-λIn) = 0. A = [ A1 A 2 L A n ]. De la misma forma expresemos la matriz In
[
particionada 1xn por columnas, es decir, In = e1 e 2 L e n . Luego, ]
Demostración
PA(λ) = Det (A − λI n ) = Det([ A1 − λe1 A 2 − λe 2 L A n − λe n ]).
CN (⇒): Si λ es autovalor de A entonces Det(A-λIn) = 0.

Utilicemos reducción al absurdo. Supongamos que λ es autovalor de A y que Por el teorema 3.1., apartados 5 y 8 se tiene que:
Det(A-λIn) ≠ 0. Luego, por el teorema 3.1, apartado 13 se tiene que A − λI n es
Det (A − λI n ) = Det([ A1 A 2 − λe 2 L A n − λe n ]) +
no singular. Por lo tanto, por el teorema 4.19., n( A − λI n ) = 0, es decir,
+ Det([ −λe1 A 2 − λe 2 L A n − λe n ])
N ( A − λI n ) = {X ∈ K n : (A − λI n )X = θ nx1} = {θnx1}. Esto significa que
= Det([ A1 A 2 − λe 2 L A n − λe n ]) +
(A − λI n )X = θ nx1 ⇒ X = θ nx1 , es decir, AX − λX = θ nx1 ⇒ X = θ nx1 , lo cual a
+ ( −λ )Det([ e1 A 2 − λe 2 L A n − λe n ])
su vez indica que AX = λX ⇒ X = θ nx1 . Por consiguiente, X es autovector de
= Det([ A1 A 2 L A n − λe n ]) +
A asociado al autovalor λ y X = θnx1 , lo cual es una contradicción.

239 240
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

+ Det([ A1 −λe 2 L A n − λe n ]) + n
⇒ Det (A − λI n ) = ∑ (−1) n− j
SDMPAO( j)λn − j
+ ( −λ )Det([ e1 A 2 L A n − λe n ]) j=0

+ ( −λ )Det([ e1 −λe 2 L A n − λe n ])
Observaciones:
= Det([ A1 A 2 L A n − λe n ]) +
+ ( −λ )Det([ A1 e 2 L A n − λe n ]) + 1. PA(λ) es un polinomio de grado n en λ. Como todo autovalor λ de
A es raíz de PA(λ) demuestra que A tiene exactamente n
+ ( −λ )Det([ e1 A 2 L A n − λe n ]) autovalores.
+ ( −λ ) Det([ e
2 1
e 2 L A n − λe n ]) 2. El término independiente de PA(λ) es Det(A). Esto implica que:
2.1. A tiene al menos 1 autovalor nulo si y sólo si Det(A) = 0.
2.2. A tiene al menos 1 autovalor nulo si y sólo si Rango(A) < n.
Aplicando estas 2 propiedades n–2 veces cada una sobre cada matriz se
2.3. A tiene al menos 1 autovalor nulo si y sólo si A es singular.
obtiene:
2.4. A tiene todos sus autovalores no nulos si y sólo si A es no
singular.
Det (A − λI n ) = (−λ ) n Det([ e1 e 2 L e n ]) + 2.5. Si Rango(A) = r entonces A tiene exactamente n–r
+ (−λ ) n −1 Det([ A1 e 2 L e n ]) + (−λ ) n −1 Det([ e1 A 2 L e n ]) + … autovalores nulos y r autovalores no nulos.
3. Al resolver la ecuación PA(λ)= 0 se obtienen los n autovalores de A.
+ (−λ ) n −1 Det([ e1 e 2 L A n ]) + (−λ) n − 2 Det([ A1 A 2 L e n ]) + 4. Para cada autovalor calculado λ se obtiene el conjunto Vλ(A)
+ (−λ ) n − 2 Det([ A1 e 2 A 3 L A n ]) + … + resolviendo el SEL homogéneo (A − λI n )X = θ nx1 .
+ (−λ) n − 2 Det([ e1 e 2 L A n −1 A n ])+ … +
1 1 2
Definición 7.5.
+ (−λ ) Det([ e A L A ]) + (−λ )1 Det([ A1 e 2 L A n ]) + … +
n

+ (−λ )1 Det([ A1 A 2 L e n ]) + Det([ A1 A 2 L A n ]) Sean A∈Mnxn(K) y λi∈K, tales que λi es autovalor de A, ∀ i = 1, 2, …, m. Se


n −1 n −1
define como multiplicidad algebraica del autovalor λi y se denota por ri a la
⇒ Det (A − λI n ) = (−1) λ Det(In) + (−1)
n n
λ Det(M(A)23…n) + multiplicidad de la raíz λi de PA(λ).
n −1 n −1 n −1 n −1
+ (−1) λ Det(M(A)13…n) + … + (−1) λ Det(M(A)12…n-1) +
Observaciones:
+ (−1) n − 2 λn − 2 Det(M(A)34…n) + (−1) n − 2 λn − 2 Det(M(A)24…n) + … +
+ (−1) n − 2 λn − 2 Det(M(A)12…n-2) + … + (−1)1 λ1 Det(M(A)1) + m

1 1
+ (−1) λ Det(M(A)2) + … + (−1) λ Det(M(A)n) + Det(A)1 1
1. Si λ1, λ2, …, λm son los autovalores de A entonces ∑r = n .
i =1
i

2. Si λ1, λ2, …, λm son los autovalores de A entonces PA(λ) se puede


⇒ Det (A − λI n ) = (−1) n λn .1 + (−1) n −1 λn −1 (Det(M(A)23…n) + factorizar de la siguiente forma:
+ Det(M(A)13…n) + … + Det(M(A)12…n-1)) + PA(λ) = (λ − λ1 ) r1 (λ − λ 2 ) r2 ...(λ − λ m ) rm
+ (−1) n − 2 λn − 2 (Det(M(A)34…n) + Det(M(A)24…n)+ … +Det(M(A)12…n-2)) 3. Si λi es autovalor de A entonces Det (A − λ i I n ) = 0 y por tanto
+ … + (−1) λ (Det(M(A)1) + Det(M(A)2) + … + Det(M(A)n)) + Det(A)
1 1 A − λ i I n es singular. Esto implica que n( A − λ i I n ) ≠ 0, es decir,
n( A − λ i I n ) ≥ 1. Por el teorema 4.24., r( A − λ i I n )+ n( A − λ i I n ) = n
⇒ Det (A − λI n ) = (−1) n λn SDMPAO(0) + (−1) n −1 λn −1 (SDMPAO(1)) + y como Rango( A − λ i I n ) = r( A − λ i I n ) entonces
+ (−1) n − 2 λn − 2 (SDMPAO(2)) + … + (−1)1 λ1 (SDMPAO(n-1)) + n( A − λ i I n ) = n–Rango( A − λ i I n ), es decir, n–Rango( A − λ i I n )≥1.
+ (−1) 0 λ0 DMPAO(n) Esto a su vez implica que n – 1 ≥ Rango( A − λ i I n ), es decir,
Rango( A − λ i I n ) ≤ n – 1. Esto asegura que existe al menos un
⇒ Det (A − λI n ) = (−1) n SDMPAO(0)λn + (−1) n −1 (SDMPAO(1)) λn-1 + autovector asociado al autovalor λi.
+ (−1) n − 2 (SDMPAO(2))λn-2 + … + (−1)1 (SDMPAO(n-1))λ1 + 4. Si Rango( A − λ i I n ) = r < n entonces se cumple que
0
+ (−1) DMPAO(n)λ 0 n( A − λ i I n ) = n – Rango( A − λ i I n ), lo que es lo mismo que decir
que n( A − λ i I n ) = n – r. Esto significa que N ( A − λ i I n ) se genera por
n – r vectores L.I., es decir, existen exactamente n – r autovectores
L.I. asociados con el autovalor λi.

241 242
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Ejemplo 7.4. ⎡ x1 ⎤ ⎡−2 x 3 ⎤ ⎡ −2 ⎤


⎢ ⎥ ⎢ ⎥ ⎢ ⎥
En el ejemplo 7.1.: X = ⎢ x 2 ⎥ = ⎢ 0 ⎥ = x 3 ⎢ 0⎥
⎢⎣ x 3 ⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣ 1⎥⎦
PA (λ ) = (−1)3 λ3 + (−1) 2 (Det ([2]) + Det ([6] + Det ([3])λ2 +
Por consiguiente,
⎡ 2 0 2⎤
1 ⎡ 2 0⎤ ⎡ 2 2⎤ ⎡6 0 ⎤ 1 ⎢ ⎥
(−1) (Det ( ⎢ ⎥ ) + Det ( ⎢ ⎥ ) + Det ( ⎢ ⎥ ))λ + Det ( ⎢0 6 0⎥ )
⎣ 0 6⎦ ⎣1 3⎦ ⎣ 3 3⎦ ⎧ ⎡− 2⎤ ⎫
⎣⎢1 3 3⎦⎥ ⎪ ⎢ ⎥ ⎪
V1 (A) = ⎨X ∈ ℜ3 : X = a ⎢ 0⎥; a ∈ ℜ* ⎬
= −λ3 + (2 + 6 + 3)λ2 − (12 + 4 + 18)λ + 24 = = −λ3 + 11λ2 − 34λ + 24 ⎪ ⎢⎣ 1⎥⎦ ⎪
⎩ ⎭
Para determinar los autovalores de A hallamos las raíces de PA(λ). Como este
V4(A):
es un polinomio de grado 3 utilizamos la regla de Ruffini:

Posibles raíces: ±1, ±2, ±3, ±4, ±6, ±8, ±12, ±24 ⎡2 0 2⎤ ⎡1 0 0⎤ ⎡ x1 ⎤ ⎡0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
( A − 4 I 3 ) X = θ 3 x1 ⇒ ( ⎢ 0 6 0 ⎥ − 4 ⎢ 0 1 0 ⎥ ) ⎢ x 2 ⎥ = ⎢ 0 ⎥
−1 11 −34 24 ⎢⎣1 3 3⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦

⎡ −2 0 2⎤ ⎡ x1 ⎤ ⎡0⎤ ⎧ −2x1 + 2x 3 = 0
1 −1 10 − 24 ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎪ ⎧⎪x − x 3 = 0 ⎧x1 = x 3
⇒⎢ 0 2 0 ⎥ ⎢ x 2 ⎥ = ⎢0 ⎥ ⇒ ⎨ 2x 2 = 0 ⇒⎨ 1 ⇒⎨
⎪ x =0 ⎩ x2 = 0
− 1 10 − 24 0 ⎢⎣ 1 3 − 1 ⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎪⎩x1 + 3x 2 − x 3 = 0 ⎩ 2

4 −4 24 Luego,

−1 6 0 ⎡ x1 ⎤ ⎡ x 3 ⎤ ⎡1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X = ⎢ x 2 ⎥ = ⎢ 0 ⎥ = x 3 ⎢0 ⎥
6 −6 ⎢⎣ x 3 ⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣1⎥⎦
−1 0
Por consiguiente,
Luego,
⎧ ⎡1 ⎤ ⎫
E(A) = {1, 4, 6} ⎪ 3 ⎢ ⎥ *⎪
V4 (A) = ⎨X ∈ ℜ : X = b ⎢0⎥; b ∈ ℜ ⎬
⎪ ⎢⎣1⎥⎦ ⎪
Determinemos ahora el autoespacio asociado a cada autovalor: ⎩ ⎭

V1(A): V6(A):

⎡2 0 2⎤ ⎡1 0 0⎤ ⎡ x1 ⎤ ⎡0⎤ ⎡2 0 2⎤ ⎡1 0 0⎤ ⎡ x1 ⎤ ⎡0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
(A − 1I3 )X = θ3 x1 ⇒ ( ⎢0 6 0⎥ − 1⎢0 1 0⎥ ) ⎢ x 2 ⎥ = ⎢0⎥ ( A − 6 I 3 ) X = θ 3 x1 ⇒ ( ⎢ 0 6 0 ⎥ − 6 ⎢ 0 1 0 ⎥ ) ⎢ x 2 ⎥ = ⎢ 0 ⎥
⎢⎣1 3 3⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣1 3 3⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦
⎡1 0 2⎤ ⎡ x1 ⎤ ⎡0⎤ ⎧ x1 + 2x 3 = 0 ⎡ −4 0 2⎤ ⎡ x1 ⎤ ⎡0⎤
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎪ ⎧⎪x + 2x 3 = 0 ⎧x1 = −2x 3 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎧ − 4 x1 + 2 x 3 = 0 ⎧⎪ 2 x 3 = 4 x1 ⎧ x 3 = 2 x1
⇒ ⎢0 5 0 ⎥ ⎢ x 2 ⎥ = ⎢0⎥ ⇒ ⎨ 5x 2 = 0 ⇒⎨ 1 ⇒⎨ ⇒⎢ 0 0 0 ⎥ ⎢ x 2 ⎥ = ⎢0⎥ ⇒ ⎨ ⇒⎨ ⇒⎨
x2 = 0 ⎩ x2 = 0 x + 3x 2 − 3x 3 = 0 ⎪⎩3x 2 = 3x 3 − x1 ⎩3x 2 = 3x 3 − x1
⎢⎣1 3 2⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎪⎩x1 + 3x 2 + 2x 3 = 0 ⎪⎩ ⎢⎣ 1 3 − 3 ⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎩ 1

⎧ x 3 = 2 x1 ⎧ x 3 = 2 x1 ⎧ x = 2 x1 ⎪⎧ x 3 = 2x1
Luego, ⇒⎨ ⇒⎨ ⇒⎨ 3 ⇒⎨ 5
⎩3x 2 = 3(2x1 ) − x1 ⎩3x 2 = 6 x1 − x1 ⎩3x 2 = 5x1 ⎪⎩x 2 = 3 x1

243 244
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Luego, ⎡1 − 18 − 7 0⎤
3 → r3 − r2
⎢ ⎥ ⎧x − 18x 2 − 7 x 3 = 0 ⎧⎪x1 = 18x 2 + 7 x 3
⎯r⎯ ⎯⎯→ ⎢0 7 3 0⎥ ⇒ ⎨ 1 ⇒⎨ 3
⎡ x1 ⎤ ⎡ x1 ⎤ ⎡1⎤
⎢0 ⎥ ⎩ 7 x 2 + 3x 3 = 0 ⎪⎩ x 2 = − 7 x 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣ 0 0 0 ⎦
X = ⎢ x 2 ⎥ = ⎢ 5 x1 ⎥ = x 3 ⎢ 5 ⎥
3 3
⎢⎣ x 3 ⎥⎦ ⎢⎣ 2 x1 ⎥⎦ ⎢⎣ 2 ⎥⎦ ⎧x1 = 18(− 3 x 3 ) + 7 x 3 ⎧x1 = − 54 x 3 + 7 x 3 ⎧ x1 = − 5 x 3
⎪ 7 ⎪ 7 ⎪ 7
⇒⎨ ⇒⎨ ⇒⎨
⎪⎩ x2 = − 3 x3 ⎪ x2 = − 3 x3 ⎪ x2 = − 3 x3
Por consiguiente, 7 ⎩ 7 ⎩ 7

⎧ ⎫ Luego,
⎡1⎤
⎪ ⎢ ⎥ ⎪
V6 (A) = ⎨X ∈ ℜ3 : X = c ⎢ 5 ⎥; c ∈ ℜ* ⎬
⎡ x1 ⎤ ⎡⎢− 7 x 3 ⎤⎥ ⎡− 5 ⎤
3 5
⎪ ⎢⎣ 2 ⎥⎦ ⎪ ⎢ 7⎥
⎩ ⎭ ⎢ ⎥ ⎢ 3
X = ⎢x 2 ⎥ = − x 3 ⎥ = x 3 ⎢− 3 ⎥
⎢ 7 ⎥ ⎢ 7⎥
Ejemplo 7.5. ⎣⎢ x 3 ⎦⎥ ⎢⎣ x 3 ⎥⎦ ⎢ 1⎥
⎣ ⎦

Sea A∈M3x3(ℜ) definida por: Por consiguiente,

⎡ 0 −18 −7 ⎤ ⎧ ⎡− 5 ⎤ ⎫
⎢ ⎥ ⎪ ⎢ 7⎥ ⎪
A = ⎢ 1 − 12 − 4⎥ ⎪ ⎪
V−1 (A) = ⎨X ∈ ℜ3 : X = a ⎢− 3 ⎥; a ∈ ℜ* ⎬
⎢⎣ − 1 25 9⎥⎦ ⎢ 7 ⎥
⎪ ⎪
⎢ 1⎥
⎩⎪ ⎣ ⎦ ⎭⎪
PA (λ ) = (−1)3 λ3 + (−1) 2 (Det ([0]) + Det ([−12] + Det ([9])λ2 +
Ejemplo 7.6.
⎡ 0 −18 −7 ⎤
⎡0 − 18⎤ ⎡ 0 − 7⎤ ⎡ − 12 − 4⎤ 1 ⎢ ⎥
1
(−1) ( Det ( ⎢ ⎥ ) + Det ( ⎢ ⎥ ) + Det ( ⎢ ⎥ ))λ + Det( ⎢ 1 − 12 − 4⎥ ) Sea A∈Mnxn(ℜ) una matriz diagonal definida por:
⎣1 − 12⎦ ⎣ −1 9⎦ ⎣ 25 9⎦
⎢⎣ − 1 25 9⎦⎥

= −λ3 + (0 − 12 + 9)λ2 − (18 − 7 − 8)λ − 1 = −λ3 − 3λ2 − 3λ − 1 ⎡A11 0 L 0 ⎤


⎢ ⎥
0 A L 0 ⎥
A=⎢ 22
Para determinar los autovalores de A hallamos las raíces de PA(λ). Pero, PA(λ) ⎢ M M M ⎥
⎢ ⎥
es el cubo perfecto −(λ3 + 3λ2 + 3λ + 1) = −(λ + 1)3 . Luego, λ1 = –1 es autovalor ⎢⎣ 0 0 L A nn ⎥⎦
de A con r1 = 3, es decir, E(A) = {–1}
Determinemos los autovalores de A.
Determinemos ahora el autoespacio asociado a este único autovalor:

V-1(A):
⎡A11 0 L 0 ⎤ ⎡1 0 L 0⎤
⎢ ⎥ ⎢ ⎥
−18 −7 ⎤ ⎡1 0 0⎤ ⎡ x1 ⎤ ⎡0⎤ 0 A 22 L 0 ⎥ 0 1 L 0⎥
⎡ 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ PA(λ) = Det (A − λI n ) = Det ( ⎢ − λ⎢ )
(A − (−1)I 3 )X = θ3x1 ⇒ (A + I 3 )X = θ3 x1 ⇒ ( ⎢ 1 − 12 − 4⎥ + ⎢0 1 0⎥ ) ⎢ x 2 ⎥ = ⎢0⎥ ⎢ M M M ⎥ ⎢M M M⎥
⎢ ⎥ ⎢ ⎥
⎢⎣ − 1 25 9⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎣⎢ 0 0 L A nn ⎥⎦ ⎣⎢0 0 L 1⎦⎥

⎡ 1 − 18 − 7 ⎤ ⎡ x1 ⎤ ⎡0⎤ ⎡ 1 − 18 − 7 0⎤ r → r − r ⎡1 − 18 − 7 0⎤ ⎡A11 − λ 0 L 0 ⎤
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎯⎯2
⎯⎯→ ⎢
2 1
⎥ ⎢ ⎥
⇒ ⎢ 1 − 11 − 4⎥ ⎢ x 2 ⎥ = ⎢0⎥ ⇒ ⎢ 1 − 11 − 4 0⎥ r →r + r ⎢0 7 3 0⎥ 0 A − λ L 0
⎯⎯3
⎯⎯
3 1
→ = Det ( ⎢ 22 ⎥)
⎢⎣ − 1 25 10 ⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣− 1 25 10 0⎥⎦ ⎢0
⎣ 7 3 0⎥⎦ ⎢ M M M ⎥
⎢ ⎥
⎣⎢ 0 0 L A nn − λ ⎦⎥

Por el teorema 3.1., apartado 18 se tiene que:


PA (λ) = (A11 − λ )(A 22 − λ)...(A nn − λ )

245 246
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Por lo tanto,
Luego, al hacer PA(λ) = 0 se obtiene que los autovalores de A son λ1 = A11,
λ2 = A22, …, λn = Ann, es decir, los autovalores de una matriz diagonal son los
elementos de la diagonal principal. Determinemos el autoespacio asociado al ⎡0 ⎤
i-ésimo autovalor de A: ⎢ ⎥
⎢M⎥
VAii (A) = {X ∈ ℜ : X = a ⎢1⎥; a ∈ ℜ*} = {X ∈ ℜ n : X = aei ; a ∈ ℜ*}
n
(A − λ i I n )X = θ nx1 ⇒ (A − A ii I n )X = θ nx1 ⎢ ⎥
⎢M⎥
⎡A11 L 0 L 0 ⎤ ⎡1 L 0 L 0⎤ ⎢0 ⎥
⎢ ⎥ ⎢ ⎥ ⎣ ⎦
⎢ M M M ⎥ ⎢M M M⎥
⇒ ( ⎢ 0 L A ii L 0 ⎥ − A ii ⎢0 L 1 L 0⎥ )X = θ nx1 Esto indica que los autoespacios asociados a los autovalores de A son
⎢ ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎢M M M⎥ generados por los vectores de la base canónica de ℜn.
⎢ 0 L 0 L A ⎥ ⎢0 L 0 L 1 ⎥
⎣ nn ⎦ ⎣ ⎦
⎡A11 L 0 L 0 ⎤ ⎡A ii L 0 L 0 ⎤ Ejemplo 7.7.
⎢ ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎢ M M M ⎥
Sea A∈Mnxn(ℜ) una matriz triangular superior definida por:
⇒ ( ⎢ 0 L A ii L 0 ⎥ − ⎢ 0 L A ii L 0 ⎥ )X = θ nx1
⎢ ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎢ M M M ⎥
⎡A11 A12 L A1n ⎤
⎢ 0 L 0 L A ⎥ ⎢0 L 0 L A ⎥ ⎢ ⎥
⎣ nn ⎦ ⎣ ii ⎦ 0 A 22 L A 2 n ⎥
A=⎢
⎡A11 − A ii L 0 L 0 ⎤ ⎢ M M M ⎥
⎢ ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎣⎢ 0 0 L A nn ⎦⎥
⇒ (⎢ 0 L A ii − A ii L 0 ⎥ )X = θ nx1
⎢ ⎥
⎢ M M M ⎥ Determinemos los autovalores de A.
⎢ 0 L 0 L A nn − A ii ⎥⎦

⎡A11 A12 L A1n ⎤ ⎡1 0 L 0⎤
⎡A11 − A ii L 0 L 0 ⎤ ⎡ x 1 ⎤ ⎡0 ⎤ ⎢ ⎥ ⎢ ⎥
0 A 22 L A 2 n ⎥ 0 1 L 0⎥

M M M
⎥ ⎢ ⎥ ⎢ ⎥ PA(λ) = Det (A − λI n ) = Det ( ⎢ − λ⎢ )
⎢ ⎥ ⎢ M ⎥ ⎢M⎥ ⎢ M M M ⎥ ⎢M M M⎥
⇒ (⎢ 0 L 0 L 0 ⎥ ) ⎢ x i ⎥ = ⎢0 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣⎢ 0 0 L A nn ⎦⎥ ⎣⎢0 0 L 1⎦⎥
⎢ M M M ⎥ ⎢ M ⎥ ⎢M⎥
⎢ ⎡A11 − λ A12 A1n ⎤
L 0 L A nn − A ii ⎥⎦ ⎢⎣ x n ⎥⎦ ⎢⎣0⎥⎦
L
⎣ 0 ⎢ ⎥
0 A − λ L A
= Det ( ⎢ 22 2n ⎥
)
⎢ M M M ⎥
⎡ (A11 − A ii ) x1 ⎤ ⎡0⎤ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎣⎢ 0 0 L A nn − λ ⎦⎥
⎢ M ⎥ ⎢M⎥
⇒) ⎢ 0 ⎥ = ⎢0⎥ ⇒ x i = 0; ∀ i = 1, 2, ..., i - 1, i + 1, ..., n.
⎢ ⎥ ⎢ ⎥ Por el teorema 3.1., apartado 19 se tiene que:
⎢ M ⎥ ⎢M⎥
⎢( A − A ) x ⎥ ⎢0 ⎥ PA (λ) = (A11 − λ )(A 22 − λ)...(A nn − λ )
⎣ nn ii n⎦ ⎣ ⎦

Luego, Luego, al hacer PA(λ) = 0 se obtiene que los autovalores de A son λ1 = A11, λ2
= A22, …, λn = Ann, es decir, los autovalores de una matriz triangular superior
⎡0⎤ ⎡0 ⎤ son los elementos de la diagonal principal. Análogamente se demuestra que los
⎢ ⎥ ⎢ ⎥ autovalores de una matriz triangular inferior son los elementos de la diagonal
⎢M⎥ ⎢M⎥ principal.
X = ⎢ x i ⎥ = x i ⎢1 ⎥ = x i e i
⎢ ⎥ ⎢ ⎥
⎢M⎥ ⎢M⎥
⎢0⎥ ⎢0 ⎥
⎣ ⎦ ⎣ ⎦

247 248
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Teorema 7.5. Consideremos la igualdad:

Sean A∈Mnxn(K), λ1, λ2, …, λm∈K y X1, X2, …, Xm∈Kn-{θnx1}, tales que λ1, c1•X1 + c2•X2 + … + cp•Xp + cp+1•Xp+1 = θnx1 (5)
λ2, …, λm son autovalores de A, con λi ≠ λj, ∀ i ≠ j; i = 1, 2, …, m;
j = 1, 2, …, m. Si X1, X2, …, Xm son autovectores de A asociados a los Premultiplicando a ambos lados de (5) por A se obtiene que:
autovalores λ1, λ2, …, λm de A entonces X1, X2, …, Xm son L.I.
A(c1•X1 + c2•X2 + … + cp•Xp + cp+1•Xp+1) = A(θnx1)
Demostración ⇒ c1•AX1 + c2•AX2 + … + cp•AXp + cp+1•AXp+1 = θnx1 (6)

Utilicemos inducción matemática. Demostremos que la proposición es cierta Como λ1, λ2, …, λp+1 son autovalores de A con autovectores asociados
para m = 2. En efecto, X1, X2, …, Xp+1 respectivamente se tiene que AX1 = λ1X1, AX2 = λ2X2, …,
AXp+1 = λp+1Xp+1. Sustituyendo en (6) se obtiene que:
Consideremos la igualdad c1•X1 + c2•X2 = θnx1 (1). Premultiplicando a ambos
lados de (1) por A se obtiene que: c1λ1•X1 + c2λ2•X2 + … + cpλp•Xp + cp+1λp+1•Xp+1 = θnx1 (7)

A(c1•X1 + c2•X2) = A(θnx1) Ahora, multipliquemos a ambos lados de (5) por λp+1. Luego,
⇒ c1•AX1 + c2•AX2 = θnx1 (2)
λp+1(c1•X1 + c2•X2 + … + cp•Xp + cp+1•Xp+1) = λp+1(θnx1)
Como λ1, λ2 son autovalores de A con autovectores asociados X1, X2, ⇒ c1λp+1•X1 + c2λp+1•X2 + … + cpλp+1•Xp + cp+1λp+1•Xp+1 = θnx1 (8)
respectivamente se tiene que AX1 = λ1X1 y AX2 = λ2X2. Sustituyendo en (2) se
obtiene que: Restando a ambos lados (8) menos (7) se obtiene que :

c1λ1•X1 + c2λ2•X2 = θnx1 (3) (c1λp+1•X1 + c2λp+1•X2 + … + cpλp+1•Xp + cp+1λp+1•Xp+1) – (c1λ1•X1 + c2λ2•X2
+ … + cpλp•Xp + cp+1λp+1•Xp+1) = θnx1 – θnx1
Ahora, multipliquemos a ambos lados de (1) por λ1. Luego,
⇒ (c1λp+1 – c1λ1)•X1 + (c2λp+1 – c2λ2)•X2 + … + (cpλp+1 – cpλp)•Xp +
λ1(c1•X1 + c2•X2) = λ1(θnx1) (cp+1λp+1 – cp+1λp+1)•Xp+1 = θnx1
⇒ c1λ1•X1 + c2λ1•X2 = θnx1 (4)
⇒ c1(λp+1 – λ1)•X1 + c2(λp+1 – λ2)•X2 + … + cp(λp+1 – λp)•Xp = θnx1
Restando a ambos lados (4) menos (3) se obtiene que:
Como por hipótesis de inducción X1, X2, …, Xp son L.I. se tiene que:
(c1λ1•X1 + c2λ1•X2) – (c1λ1•X1 + c2λ2•X2) = θnx1 – θnx1
⇒ (c1λ1•X1 – c1λ1•X1) + (c2λ1•X2 – c2λ2•X2) = θnx1 c1(λp+1 – λ1) = c2(λp+1 – λ2) = … = cp(λp+1 – λp) = 0
⇒ θnx1 + (c2λ1 – c2λ2)•X2 = θnx1
⇒ c2(λ1 – λ2)•X2 = θnx1 Como λi ≠ λj, ∀ i ≠ j; i = 1, 2, …, m; j = 1, 2, …, m, se concluye que
c1 = c2 = … = cp = 0. Sustituyendo este resultado en (5) se obtiene que:
Como X2 es autovector de A entonces X2 ≠ θnx1. Además, λ1 ≠ λ2. Luego,
c2 = 0. Sustituyendo en (1) se obtiene que: 0•X1 + 0•X2 + … + 0 •Xp + cp+1•Xp+1 = θnx1
⇒ cp+1•Xp+1 = θnx1
c1•X1 + c2•X2 = θnx1
⇒ c1•X1 + 0•X2 = θnx1 Como Xp+1 es autovector de A entonces Xp+1 ≠ θnx1. Luego, cp+1 = 0. Por
⇒ c1•X1 = θnx1 consiguiente, c1 = c2 = … = cp = cp+1 = 0 y de esta forma X1, X2, …, Xp, Xp+1
son L.I.
Como X1 ≠ θnx1 se obtiene que c1 = 0. Por consiguiente, c1 = c2 = 0 y en
consecuencia X1 y X2 son L.I. Teorema 7.6.

Supongamos que la proposición se cumple para m = p, es decir, si Sean A∈Mnxn(K), λ∈K y X∈Kn-{θnx1}. Si λ es autovalor de A con autovector
X1, X2, …, Xp son autovectores de A asociados a los autovalores λ1, λ2, …, λp asociado X entonces λm es autovalor de Am con autovector asociado X;
de A entonces X1, X2, …, Xp son L.I. m∈ℵ-{0, 1}.

Demostremos que la proposición se cumple para m = p+1. En efecto,

249 250
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Demostración 7.3. RELACIÓN ENTRE LOS AUTOVALORES Y AUTOVECTORES


DE UNA MATRIZ Y SU MATRIZ TRANSPUESTA.
Utilicemos inducción matemática. Demostremos que la proposición es cierta
para m = 2. En efecto, Teorema 7.7.

Si λ es autovalor de A con autovector X entonces: Sean A∈Mnxn(K) y λ∈K. λ es autovalor de A si y sólo si λ es autovalor de At.

AX = λX Demostración
⇒ A(AX) = A(λX)
⇒ A2X = λ(AX) CN(⇒): Si λ es autovalor de A entonces λ es autovalor de At.
⇒ A2X = λ(λX)
⇒ A2X = λ2X Como λ es autovalor de A entonces por el teorema 7.3., Det(A–λIn)= 0. Luego,
⇒ λ2 es autovalor de A2 con autovector asociado X. por el teorema 3.1., apartado 2 se tiene que:

Supongamos que la proposición es cierta para m = p, es decir: Det((A–λIn)t) = 0


⇒ Det(At– (λIn)t) = 0
Si λ es autovalor de A con autovector asociado X entonces λp es autovalor de ⇒ Det(At–λ(In)t) = 0
Ap con autovector asociado X; m∈ℵ-{0, 1}. ⇒ Det(At–λIn) = 0
⇒ λ es autovalor de At
Demostremos que la proposición se cumple para m = p+1. En efecto,
CS(⇐):Si λ es autovalor de At entonces λ es autovalor de A.
Por hipótesis de inducción,
Como λ es autovalor de At entonces por el teorema 7.3., Det(At–λIn) = 0.
ApX = λpX Luego, por el teorema 3.1., apartado 2 se tiene que:
⇒ A(ApX) = A(λpX)
⇒ Ap+1X = λp(AX) Det((At–λIn)t) = 0
⇒ Ap+1X = λp(λX) ⇒ Det((At)t– (λIn)t) = 0
⇒ Ap+1X = λp+1X ⇒ Det(A–λ(In)t) = 0
⇒ λp+1 es autovalor de Ap+1 con autovector asociado X. ⇒ Det(A–λIn) = 0
⇒ λ es autovalor de A
Ejemplo 7.8.
Definición 7.6.
Sea A∈Mnxn(K) tal que A es idempotente. Determinemos los valores posibles
que pueden tomar los autovalores de A. Sea λ autovalor de A con autovector Sean A∈Mnxn(K) y λ1, λ2, …, λn∈K, tales que λ1, λ2, …, λn son los n
asociado X. Luego, autovalores de A. Se define como matriz de autovalores de A y se denota por
Dλ(A) a la matriz diagonal Dλ(A)∈Mnxn(K) definida por:
AX = λX
⇒ A(AX) = A(λX) ⎡λ1 0 L 0 ⎤
⇒ A2X = λ(AX) ⎢ ⎥
0 λ2 L 0 ⎥
⇒ AX = λ(λX) (Por ser A idempotente) D λ (A) = ⎢
⎢M M M⎥
⇒ λX = λ2X ⎢ ⎥
⇒ λX – λ2X = θnx1 ⎣⎢ 0 0 L λ n ⎦⎥
⇒ (λ – λ2)X = θnx1
⇒ (λ – λ2) = 0 (Por ser X autovector, es decir, X ≠ θnx1) Observación:
⇒ λ(1 – λ) = 0
⇒λ=0ó1–λ=0⇒λ=0óλ=1 Los valores λ1, λ2, …, λn de la diagonal principal de Dλ(A) no necesariamente
llevan un orden determinado, aunque es usual colocar primero los autovalores
positivos ordenados, luego los negativos ordenados y por último los nulos.

Ejemplo 7.9.

En el ejemplo 7.1.,

251 252
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡1 0 0⎤ ⎡λ1 0 L 0 ⎤
⎢ ⎥ ⎢ ⎥
D λ ( A ) = ⎢0 4 0 ⎥ 0 λ2 L 0 ⎥
[ X1 X 2 L Xn ] ⎢ = XDλ(A)
⎢⎣0 0 6⎥⎦ ⎢M M M⎥
⎢ ⎥
⎢⎣ 0 0 L λ n ⎥⎦
Teorema 7.8.
Luego,
Sean A∈Mnxn(K), λ, μ∈K y X, Y∈Kn-{θnx1}. Si λ es autovalor de A con
autovector asociado X y μ es autovalor de At con autovector asociado Y con λ X-1AX = Dλ(A)
≠ μ entonces X ⊥ Y.
7.4. SEMEJANZA DE MATRICES.
Demostración
Definición 7.7.
Por hipótesis,
Sean A, B∈Mnxn(K). Se dice que A es semejante a B si y sólo si:
⎧ AX = λX ⎪⎧ Y AX = Y (λX) ⎧⎪ Y t AX = λY t X ⎧⎪(Y t AX) t = (λY t X) t
t t

⎨ t ⇒⎨ t t ⇒⎨ t t ⇒⎨
⎩A Y = μY ⎪⎩X A Y = X (μY) ⎪⎩X A Y = μX Y ⎪⎩ X A Y = μX Y
t t t t t ∃ P ∈ M nxn (K ) (P no singular) : P -1AP = B

Ejemplo 7.10.
⎧⎪X t A t Y = λX t Y
⇒⎨ t t
⎪⎩X A Y = μX t Y En el ejemplo 7.4., ∃ P∈M3x3(ℜ) (P no singular) definida por:

Restando a ambos lados en las ecuaciones anteriores: ⎡ −2 1 1 ⎤


⎢ ⎥
P=⎢ 0 0 5 ⎥
XtAtY – XtAtY = λXtY – μXtY 3
⎢⎣ 1 1 2 ⎥⎦
⇒ 0 = (λ – μ)XtY

Como λ ≠ μ se tiene que XtY = 0, es decir, <X, Y> = 0. Luego, X ⊥ Y. tal que P-1AP = Dλ(A). Es decir, A es semejante a Dλ(A).

Observación: Ejemplo 7.11.

Sean A∈Mnxn(K), λ1, λ2, …, λn∈K y X1, X2, …, Xn∈Kn-{θnx1}, tales que Sea A∈M3x3(ℜ) definida por:
λ1, λ2, …, λn son los n autovalores de A, con λi ≠ λj, ∀ i ≠ j; i = 1, 2, …, n;
j = 1, 2, …, n, con autovectores asociados X1, X2, …, Xn, respectivamente. ⎡1 0 1⎤
Consideremos la matriz particionada por columnas 1xn siguiente: ⎢ ⎥
A = ⎢2 2 0⎥
⎢⎣3 1 3⎥⎦
X = [ X1 X2 L Xn ]

Como λi ≠ λj, ∀ i ≠ j; i = 1, 2, …, n; j = 1, 2, …, n entonces por el teorema 7.5. Hallaremos una matriz B semejante a la matriz A así como también la matriz P
X1, X2, …, Xn son L.I. Por lo tanto, por el teorema 4.10., la matriz X es no que define la semejanza entre dichas matrices. Apliquemos sobre A y sobre I3
singular. una operación elemental de filas. Digamos r2→r2 – 2r1:

Ahora bien, ⎡1 0 1 1 0 0 ⎤ ⎡1 0 1 1 0 0⎤
[A I ] = ⎢⎢2
3
⎥ 2 →r2 − 2 r1 ⎢
2 0 0 1 0⎥ ⎯r⎯

⎯⎯→⎢0 2 − 2 − 2 1 0⎥ = C E [ ]
AX = A[ X1 X 2 L X n ] = [ AX1 AX 2 L AX n ] ⎢3 1 3 0 0 1⎥ ⎢3 1
⎣ ⎦ ⎣ 3 0 0 1⎥⎦
= [ λ1 X1 λ 2 X 2 L λ n X n ]
La matriz E es una matriz elemental y se cumple que EA = C. Hallemos E-1
aplicando la operación elemental de filas inversa de r2→r2 – 2r1 sobre I3:

253 254
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ 1 0 0 1 0 0⎤ ⎡1 0 0 1 0 0⎤ = Det(A – λIn) = PA(λ)


[E I ] = ⎢⎢− 2
3
⎥ 2 →r2 +2 r1 ⎢
1 0 0 1 0⎥ ⎯r⎯

⎯⎯→⎢0 1 0 2 1 0⎥ = I3 E −1 [ ] 2. Traza(B) = Traza(P AP) = Traza(APP-1) = Traza(AIn) = Traza(A).
-1
⎢ 0 0 1 0 0 1⎥ ⎢0 0 1 0 0 1 ⎥
⎣ ⎦ ⎣ ⎦
3. Det(B) = Det(P-1AP) = Det(APP-1) = Det(AIn) = Det(A).
Luego,
4. Rango(B) = Rango(P-1AP) = Rango(AP) = Rango(A).
⎡1 0 1 ⎤ ⎡1 0 0 ⎤ ⎡1 0 1⎤
⎢ ⎥⎢ ⎥ ⎢ ⎥ P-1AP = B ⇒ AP = PB. Si X∈Vλ(B) entonces BX = λX. Luego,
EA = C ⇒ EAE-1 = CE-1 = ⎢0 2 − 2⎥ ⎢2 1 0⎥ = ⎢4 2 − 2⎥ = B 5.
⎢⎣3 1 3⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣5 1 3⎥⎦
PBX = P(λX)
⇒ APX = λPX
Por consiguiente, ⇒ AY = λY; Y = PX
EAE-1 = B
Por consiguiente, Vλ(A) = {Y∈Kn: Y = PX; X∈Vλ(B)}.
⇒ (E-1)-1AE-1 = B
⇒ (P)-1AP = B; P = E-1 Ejemplo 7.12.
En consecuencia, ∃ P∈M3x3(ℜ) (P no singular): P AP = B, es decir, A es
-1
Sean A, B∈M3x3(ℜ) definidas por:
semejante a B.

Para resolver este mismo problema de una forma más fácil sólo basta definir ⎡1 4 1⎤ ⎡2 0 1⎤
⎢ ⎥ ⎢ ⎥
arbitrariamente una matriz P∈M3x3(ℜ) no singular y al hacer P-1AP se obtiene A = ⎢2 4 0⎥ y B = ⎢0 2 1⎥
la matriz B. En este caso, dicha matriz B se obtendría definiendo la matriz ⎢⎣3 1 3⎥⎦ ⎢⎣3 1 3⎥⎦
P = E-1.

Si sobre B se aplica un procedimiento análogo al aplicado sobre A se obtendrá Determinemos si A y B son semejantes.
una matriz D semejante a B con la correspondiente matriz Q que define la
semejanza entre dichas matrices. El lector podrá comprobar fácilmente que la El teorema 7.9., plantea 5 condiciones necesarias para que A y B sean
matriz A también es semejante a D. semejantes. Aplicando la equivalencia contrarecíproca en cada una de ellas se
obtiene que si alguna de estas 5 condiciones no se cumple entonces eso es
Teorema 7.9. suficiente para decir que A y B no son semejantes.

Sean A, B∈Mnxn(K). Si A es semejante a B entonces: En este caso se aprecia fácilmente que Traza(A) = 1 + 4 + 3 = 8 y
Traza(B) = 2 + 2 + 3 = 7. Luego, Traza(A) ≠ Traza(B) y por consiguiente A no
es semejante a B.
1. PA(λ) = PB(λ).
2. Traza(A) = Traza(B).
3. Det(A) = Det(B). Definición 7.8.
4. Rango(A) = Rango(B).
5. Vλ(A) = {Y∈Kn: Y = PX; X∈Vλ(B)}. Sea A∈Mnxn(K). Se dice que A es diagonalizable si y sólo si A es semejante a
su respectiva matriz de autovalores Dλ(A). En ese caso se dice que dicha
Demostración matriz de autovalores es la forma canónica de Jordan de A. Si A no es
diagonalizable entonces se dice que es una matriz defectuosa.
Por definición, PB(λ) = Det(B – λIn). Por hipótesis, ∃P∈Mnxn(K)
(P no singular): P-1AP = B. Luego, Teorema 7.10.

Sea A∈Mnxn(K). A es diagonalizable si y sólo si tiene n autovectores L.I.


1. PB(λ) = Det(B – λIn) = Det(P-1AP – λIn)
= Det(P-1AP – λP-1P)
Demostración
= Det(P-1(A – λIn)P)
= Det(P-1)Det(A – λIn)Det(P) CN(⇒): Si A es diagonalizable entonces tiene n autovectores L.I.
= Det(A – λIn)Det(P)Det(P-1)
= Det(A – λIn)Det(PP-1) Si A es diagonalizable entonces es semejante a su correspondiente forma
= Det(A – λIn)Det(In) canónica de Jordan Dλ(A), es decir,

255 256
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

∃P∈Mnxn(K) (P no singular): P-1AP = Dλ(A) ⎡ −2 1 1 ⎤


⎢ ⎥
P=⎢ 0 0 5 ⎥
Ahora bien, Dλ(A) es una matriz diagonal y como se demostró en el ejemplo 3
7.6., los vectores de la base canónica en ℜn e1, e2, …, en son los autovectores ⎢⎣ 1 1 2 ⎥⎦
de Dλ(A). Por otra parte, por el teorema 7.9., apartado 5, si Y1, Y2, …, Yn son
los autovectores de A entonces se cumple que Yi = Pei; ∀ i = 1, 2, …, n. Definición 7.9.
Veamos si los vectores Y1, Y2, …, Yn son L.I. Sean ci∈ℜ; ∀ = 1, 2, …, n, tales
que: Sean A∈Mnxn(K) y λi∈K, tales que λi es autovalor de A, ∀ i = 1, 2, …, m. Se
define como multiplicidad geométrica del autovalor λi y se denota por ki a la
c1•Y + c2•Y + … + cn•Y = θnx1
1 2 n
dimensión del autoespacio correspondiente al autovalor λi, es decir:

Luego, k i = Dim(Vλ i (A))

c1•Pe1 + c2•Pe2 + … + cn•Pen = θnx1


⇒ P(c1•e1 + c2•e2 + … + cn•en) = θnx1 Observaciones:
⇒ P-1P(c1•e1 + c2•e2 + … + cn•en) = P-1θnx1
1. Notemos que:
⇒ c1•e1 + c2•e2 + … + cn•en = θnx1
Vλ i (A) = {X ∈ K n (X ≠ θ nx1 ) : AX = λ i X}
Como e1, e2, …, en es una base de ℜn entonces es un conjunto L.I. Por
consiguiente, c1 = c2 = … = cn = 0, es decir, los vectores Y1, Y2, …, Yn son L.I. = {X ∈ K n (X ≠ θ nx1 ) : (A − λ i I n )X = θ nx1}
Por lo tanto, A tiene n autovectores L.I.
Luego, k i = Dim(Vλi (A)) = Dim( N A −λi I n ) = n (A − λ i I n )
CS(⇐): Si A tiene n autovectores L.I. entonces es diagonalizable.

Además como n (A − λ i I n ) + r (A − λ i I n ) = n entonces se cumple


Sean X1, X2, …, Xn los n autovectores L.I. de A correspondientes a los n
autovalores λ1, λ2, …, λn. Luego, AXi = λiXi; ∀ i = 1, 2, …, n. Sea P∈Mnxn(K) que n (A − λ i I n ) = n − r (A − λ i I n )
la matriz particionada por columnas 1xn definida por P = [X1 X2 … Xn].
Luego, Por lo tanto,

AP = [AX1 AX2 … AXn] k i = n (A − λ i I n ) = n − r (A − λ i I n ) = n − Rango(A − λ i I n ) .


= [λ1X1 λ2X2 … λnXn]
⎡λ1 0 L 0 ⎤ Notemos también que por definición de autovalor ki ≥ 1.
⎢ ⎥
[
= X 1
X 2
L X ⎢
n
⎢M
]
0 λ2 L 0 ⎥
M M⎥
= PDλ(A) 2. ki ≤ ri, ∀ i = 1, 2, …, m.
⎢ ⎥
⎣⎢ 0 0 L λ n ⎦⎥ Teorema 7.11.

Como X1, X2, …, Xn son L.I. entonces P es no singular. Por consiguiente, Sean A∈Mnxn(K) y λi∈K; ∀ i = 1, 2, …, m tales que son autovalores de A. A
es diagonalizable si y sólo si ri = ki, ∀ i = 1, 2, …, m.
AP = PDλ(A) ⇒ P-1AP = Dλ(A)
Demostración
Esto indica que A es semejante a Dλ(A), es decir, A es diagonalizable.
CN(⇒): Si A es diagonalizable entonces ri = ki, ∀ i = 1, 2, …, m.
Ejemplo 7.13.
Por hipótesis, A es diagonalizable, es decir, A es semejante a su
En el ejemplo 7.10., se observó como la matriz A del ejemplo 7.4., resultó ser correspondiente forma canónica de Jordan Dλ(A). Por consiguiente,
semejante a su correspondiente matriz de autovalores Dλ(A), es decir, resultó
ser diagonalizable. Veamos ahora otra forma de apreciar esta situación. En ese ∃P∈Mnxn(K) (P no singular): P-1AP = Dλ(A)
caso, E(A) = {1, 4, 6}. Como A∈M3x3(ℜ) y tiene 3 autovalores distintos ⇒ ∃P∈Mnxn(K) (P no singular): P-1AP – λiIn = Dλ(A) – λiIn
entonces por el teorema 7.5., A tiene 3 autovectores L.I. Por ello, A es ⇒ ∃P∈Mnxn(K) (P no singular): P-1AP – λiP-1P = Dλ(A) – λiIn
diagonalizable y además la matriz P que la diagonaliza es:

257 258
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⇒ ∃P∈Mnxn(K) (P no singular): P-1(A – λiIn)P = Dλ(A) – λiIn serían L.I., lo cual es imposible debido a que Y1 + Y2 + … Ym = θnx1. En
⇒ Rango(P-1(A – λiIn)P) = Rango(Dλ(A) – λiIn) consecuencia, Yi = θnx1, ∀ i = 1, 2, …, m, es decir:

Ahora bien, ki
Yi = ∑c ij • X ij = θ nx1 ; ∀ i = 1, 2, …, m.
El autovalor λi aparece ri veces en la diagonal principal de Dλ(A) por lo cual la j=1

matriz diagonal Dλ(A) – λiIn tiene n – ri filas no nulas. Luego,


Como los conjuntos {X 11
}
, X12 , ..., X1k1 , {X 21
}
, X 22 , ..., X 2k 2 , …,
Rango(Dλ(A) – λiIn) = n – ri
{X m1 m2
, X , ..., X mk m
} son L.I. entonces se cumple que:
Por consiguiente,
c11 = c12 = ... = c1k1 = 0
Rango(P-1(A – λiIn)P) = n – ri
c 21 = c 22 = ... = c 2 k 2 = 0
⇒ Rango((A – λiIn)P) = n – ri
⇒ Rango(A – λiIn) = n – ri M
⇒ ri = n – Rango(A – λiIn) c m1 = c m 2 = ... = c mk m = 0
⇒ ri = ki

CS (⇐) : Si ri = ki, ∀ i = 1, 2, …, m, entonces A es diagonalizable. Por consiguiente, los n autovectores de A son L.I. y por el teorema 7.10., A es
diagonalizable.
Si ri = ki, ∀ i = 1, 2, …, m, entonces el autovalor λi de A tiene asociados
m m
Ejemplo 7.14.
exactamente ki autovectores L.I., con ∑k = ∑r = n .
i =1
i
i =1
i Supongamos que
En el ejemplo 7.5.,
dichos autovectores son los siguientes:
⎡ 0 −18 −7 ⎤
{
Para λ1: X11 , X12 , ..., X1k1 } ⎢
A = ⎢ 1 − 12 − 4⎥

Para λ : {X
2
21
, X 22 , ..., X 2k 2 } ⎢⎣ − 1 25 9⎥⎦

M λ1 = -1 es autovalor de A con r1 = 3, es decir, E(A) = {-1}


{
Para λm: X m1 , X m2 , ..., X mk m }
Determinemos la multiplicidad geométrica de λ1 = -1. Esto se puede hacer de 2
Veamos si estos n vectores son L.I. Sean cij∈K; i = 1, 2, …, m; j = 1, 2, …, ki maneras. Veamos la primera:
tales que:
k1 = 3 – Rango(A – (-1)I3) = 3 – Rango(A + I3). Hallemos ahora la matriz
k1 k2 km escalonada reducida por filas de A + I3 para determinar su Rango:
∑c
j=1
1j
1j
•X + ∑c
j=1
2j
2j
• X + ... + ∑c j=1
mj •X mj
= θ nx1 (9)
⎡ 0 −18 −7 ⎤ ⎡1 0 0⎤ ⎡ 1 −18 −7 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
ki A + I3 = ⎢ 1 − 12 − 4⎥ + ⎢0 1 0⎥ = ⎢ 1 − 11 − 4⎥
Sea Y i = ∑c
j=1
ij • X ij ; ∀ i = 1, 2, …, m. (10) ⎢⎣ − 1 25 9⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣ − 1 25 10⎥⎦

⎡ 1 −18 −7 ⎤ r2 →r2 − r1 ⎡1 −18 −7 ⎤ 1 ⎡1 −18 −7 ⎤


⎢ ⎥ 3 →r3 + r1 ⎢ ⎥ r2 → 7 r2 ⎢ 3 ⎥
Sustituyendo (10) en (9) se obtiene que: ⎢ 1 − 11 − 4 ⎥ ⎯r⎯ ⎯⎯→ ⎢0 7 3 ⎥ ⎯⎯ ⎯ ⎯→ ⎢0 1
7⎥
⎢⎣ − 1 25 10⎥⎦ ⎢⎣0 7 3 ⎥⎦ ⎢⎣0 7 3 ⎥⎦
Y1 + Y2 + … Ym = θnx1
⎡1 −18 −7 ⎤ ⎡1 0 −7 ⎤
Ahora bien, Yi es una combinación lineal de autovectores asociados al 3 → r3 − 7 r2 ⎢ 3 ⎥ ⎯r⎯
1 → r1 +18 r2 ⎢ 5 ⎥=R
⎯r⎯ ⎯⎯→⎢0 1 ⎯ ⎯ → ⎢0 1
autovalor λi. En consecuencia, Yi es también un autovector asociado al 7⎥ 7⎥
⎢⎣0 0 0 ⎥⎦ ⎢⎣0 0 0 ⎥⎦
autovalor λi o en su defecto Yi = θnx1. Pero Yi no puede ser considerado
autovector asociado al autovalor λi ya que de serlo entonces los vectores Y1,
Y2, …, Ym serían autovectores asociados a autovalores diferentes, es decir, Luego, Rango(A + I3) = 2. Por lo tanto, k1 = 3 – 2 = 1.

259 260
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Pero, r1 = 3 ≠ k1 = 1. Por consiguiente, A no es diagonalizable. tienen los mismos autovalores por lo cual tienen idénticas formas canónicas de
Jordan. Luego,
La otra forma de hallar k1 es con la dimensión de V-1(A). Como:
∃ P, Q∈Mnxn(ℜ) (P, Q no singulares): P-1AP = Dλ(A), Q-1BQ = Dλ(B) y
⎧ ⎡− 5 ⎤ ⎫ Dλ(A) = Dλ(B)
⎪ ⎢ 7⎥ ⎪
⎪ ⎪
V−1 (A) = ⎨X ∈ ℜ3 : X = a ⎢− 3 ⎥; a ∈ ℜ* ⎬ Por consiguiente,
⎢ 7⎥
⎪ ⎪
⎢ 1⎥
⎩⎪ ⎣ ⎦ ⎭⎪ P-1AP = Q-1BQ
⇒ QP APQ-1 = QQ-1BQQ-1
-1

Entonces k1 = Dim(V-1(A)) = 1 y como r1 = 3 ≠ k1 = 1 entonces A no es ⇒ (PQ-1)-1A(PQ-1) = B


diagonalizable, es decir, A es una matriz defectuosa. ⇒ ∃ R∈Mnxn(ℜ) (R no singular): R-1AR = B; R = PQ-1
⇒ A es semejante a B
En este caso resulta más fácil hallar k1 con la dimensión de V-1(A) porque ya
se tiene calculado dicho autoespacio. Si no se tuviese calculado este conjunto Hallemos ahora las matrices P y Q para luego hallar la matriz R. Las matrices
resulta más expedito hallar k1 con n – Rango(A – λ1I3), para luego determinar P y Q son aquellas cuyas columnas son los autovectores asociados a los
si A es diagonalizable. autovalores de A y B, respectivamente.

Ejemplo 7.15. Se puede verificar que los autoespacios asociados a los autovalores de A son:

Sean A, B∈M3x3(ℜ) definidas por: ⎧ ⎡1⎤ ⎫ ⎧ ⎡0 ⎤ ⎫


⎪ ⎢ ⎥ ⎪ ⎪ ⎢ ⎥ ⎪
V3 (A) = ⎨X ∈ ℜ3 : X = a ⎢0⎥; a ∈ ℜ* ⎬ ; V5 (A) = ⎨X ∈ ℜ3 : X = b ⎢1⎥; a ∈ ℜ* ⎬
⎡ 3 0 3⎤ ⎡ 3 0 0⎤ ⎪ ⎪ ⎪ ⎪
⎢ ⎥ ⎢ ⎥ ⎢⎣0⎥⎦ ⎢⎣0⎥⎦
A = ⎢0 5 0 ⎥ y B = ⎢ 2 5 0 ⎥ ⎩ ⎭ ⎩ ⎭
⎢⎣0 0 6⎥⎦ ⎢⎣4 1 6⎥⎦ ⎧ ⎡1⎤ ⎫
⎪ ⎢ ⎥ ⎪
V6 (A) = ⎨X ∈ ℜ3 : X = c ⎢0⎥; a ∈ ℜ* ⎬
⎪ ⎪
Determinemos si A y B son semejantes.
⎩ ⎣⎢1⎦⎥ ⎭
Al igual que en el ejemplo 7.12., veamos si alguna de las 5 condiciones
necesarias no se cumple para poder concluir que A y B no son semejantes: Luego,

1. Como A es triangular superior entonces sus autovalores son los ⎡1 0 1⎤


elementos de la diagonal principal, es decir, λ1 = 3, λ2 = 5 y λ3 = 6. ⎢ ⎥
P = ⎢0 1 0 ⎥
Como B es triangular inferior entonces sus autovalores son los ⎢⎣0 0 1⎥⎦
elementos de la diagonal principal, es decir, λ1 = 3, λ2 = 5 y λ3 = 6.
Luego A y B tienen los mismos autovalores y por lo tanto
PA(λ) = PB(λ). Igualmente se puede verificar que los autoespacios asociados a los autovalores
2. Traza(A) = 3 + 5 + 6 = 14 y Traza(B) = 3 + 5 + 6 = 14. Por de B son:
consiguiente, Traza(A) = Traza(B).
3. Det(A) = 3.5.6 = 90 y Det(B) = 3.5.6 = 90. En consecuencia, ⎧ ⎡0 ⎤ ⎫ ⎧ ⎡ 0⎤ ⎫
Det(A) = Det(B). ⎪ ⎢ ⎥ ⎪ ⎪ ⎢ ⎥ ⎪
V3 (B) = ⎨X ∈ ℜ3 : X = a ⎢0⎥; a ∈ ℜ* ⎬ ; V5 (B) = ⎨X ∈ ℜ3 : X = b ⎢ 1⎥; a ∈ ℜ* ⎬
4. Como A y B tienen todos sus autovalores no nulos
⎪ ⎢⎣1⎥⎦ ⎪ ⎪ ⎢⎣ − 1 ⎥⎦ ⎪
Rango(A) = Rango(B) = 3. ⎩ ⎭ ⎩ ⎭

La quinta condición relaciona los autovectores, cuyo cálculo es muy laborioso ⎧ ⎡ 1⎤ ⎫


⎪ ⎢ ⎥ ⎪
pero con verificar que las 4 primeras se cumplen pareciera que la quinta V6 (B) = ⎨X ∈ ℜ3 : X = c ⎢ − 1⎥; a ∈ ℜ* ⎬
también se cumple. No obstante, estas 5 condiciones son necesarias y no ⎪ ⎢⎣ − 1⎥⎦ ⎪
suficientes para decir que A y B son semejantes. ⎩ ⎭

Ahora bien, A y B tienen 3 autovalores distintos. Luego, tienen 3 autovectores Por lo tanto,
L.I. y por el teorema 4.10., ambas son diagonalizables. Por otra parte, A y B

261 262
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡0 0 1⎤ semejante a B. Como alternativa utilizaremos un procedimiento similar al del


⎢ ⎥ ejemplo 7.11., sólo que en este caso no tenemos que hallar una matriz B
Q = ⎢0 1 − 1⎥ semejante a la matriz A porque la tenemos sino que debemos deducir las
⎢⎣1 − 1 − 1⎥⎦ operaciones elementales de filas apropiadas para obtener la matriz P que define
la semejanza entre A y B.
Se puede verificar que:
⎡1 3 2 1 0 0⎤ ⎡2 6 4 2 0 0⎤
⎡2 1 1⎤ [ ] ⎢ ⎥ r1 → 2 r1 ⎢
A I 3 = ⎢0 1 3 0 1 0⎥ ⎯⎯⎯→⎢0 1 3 0 1 0⎥

⎢ ⎥ ⎢0 0 1 0 0 1 ⎥ ⎢0 0 1 0 0 1 ⎥
Q −1 = ⎢1 1 0⎥ ⎣ ⎦ ⎣ ⎦
⎢⎣1 0 0⎥⎦
⎡2 0 − 14 2 − 6 0⎤

En consecuencia:
1 → r1 − 6 r2
⎯r⎯ ⎯⎯→⎢0 1

3 0

[ ]
1 0⎥ = C E
⎢0 0 1 0 0 1⎥⎦

⎡1 0 1⎤ ⎡2 1 1⎤ ⎡3 1 1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Luego,
PQ-1 = ⎢0 1 0⎥ ⎢1 1 0⎥ = ⎢1 1 0⎥ = R
⎢⎣0 0 1⎥⎦ ⎢⎣1 0 0⎥⎦ ⎢⎣1 0 0⎥⎦ EA = C

Se puede verificar que:


Ejemplo 7.16.
⎡1 3 0⎤
Sean A, B∈M3x3(ℜ) definidas por: ⎢ 2 ⎥
E −1 = ⎢ 0 1 0⎥
⎢ 0 0 1⎥
⎡1 3 2⎤ ⎡1 6 −14⎤ ⎣⎢ ⎥⎦
⎢ ⎥ ⎢ ⎥
A = ⎢0 1 3 ⎥ y B = ⎢0 1 3⎥
⎢⎣0 0 1⎥⎦ ⎢⎣0 0 1 ⎥⎦ Por consiguiente,

Determinemos si A y B son semejantes. ⎡2 0 − 14⎤ ⎡ 1 2 3 0⎤ ⎡1 6 − 14⎤


⎢ ⎥⎢ ⎥ ⎢ ⎥
EA = C ⇒ EAE-1 = CE-1 = ⎢0 1 3 ⎥ ⎢ 0 1 0 ⎥ = ⎢0 1 3⎥ =B
Se puede verificar fácilmente que al igual que en el ejemplo anterior se ⎢ ⎥
⎢⎣0 0 1 ⎥⎦ ⎢ 0 0 1⎥ ⎢⎣0 0 1 ⎥⎦
cumplen las 5 condiciones necesarias pero no suficientes para que A y B sean ⎣ ⎦
semejantes. Siguiendo el mismo procedimiento, observamos que A y B tienen
los mismos autovalores (λ1 = 1 con r1 = 3) lo que indica que sólo basta saber Por lo tanto,
si son diagonalizables. Analicemos en este contexto a la matriz A:
EAE-1 = B ⇒ (E-1)-1A(E-1) = B ⇒ P-1AP = B; P = E-1
k1 = 3 – Rango(A – 1.I3) = 3 – Rango(A – I3). Hallemos la matriz escalonada
reducida por filas de A – I3 para determinar su Rango: En consecuencia, A es semejante a B y la matriz que define la semejanza entre
A y B es:
⎡1 3 2⎤ ⎡1 0 0⎤ ⎡0 3 2⎤ ⎡0 1 2 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ r1 → 3 r1 ⎢
1 3⎥
A − I3 = ⎢0 1 3⎥ − ⎢0 1 0⎥ = ⎢0 0 3⎥ ⎯⎯⎯→ ⎢0 0 3 ⎥ ⎡1 3 0⎤
⎢0 0 0 ⎥ ⎢ 2 ⎥
⎢⎣0 0 1 ⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣0 0 0⎥⎦ P = ⎢ 0 1 0⎥
⎣⎢ ⎦⎥ ⎢ 0 0 1⎥
⎡0 1 2 ⎤ ⎣⎢ ⎥⎦
3 ⎥ r1 →r1 − 2 r2 ⎡⎢
0 1 0⎤
⎢ 1
r2 → r2 ⎥
⎯⎯⎯
⎯→ ⎢0 0 1 ⎥ ⎯⎯ ⎯3⎯→⎢0 0 1⎥
3
Teorema 7.12.
⎢0 0 0 ⎥
⎣⎢ ⎥⎦ ⎣⎢0 0 0⎦⎥
Sea V un espacio vectorial finito dimensional sobre K con Dim(V) = n y
B1 = {α1, α2, …, αn} y B2 = {β1, β2, …, βn} bases de V. Sea T: V→V una T.L.
Luego, Rango(A – I3) = 2 y k1 = 3 – Rango(A – I3) = 3 – 2 = 1 ≠ r1 = 3. Por
Entonces se cumple que [T ]B11 y [T ]B22 son semejantes.
B B
consiguiente, A no es diagonalizable, lo cual significa que no se puede utilizar
el procedimiento seguido en el ejemplo anterior para determinar si A es

263 264
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Demostración Ejemplo 7.17.

Por hipótesis: ⎡ x ⎤ ⎡ x − 2 y⎤
Sean T: ℜ2→ℜ2 una T.L. definida por T( ⎢ ⎥ ) = ⎢ ⎥,
⎣ y ⎦ ⎣2x + y⎦
[T(α)]B = [T] [α]B B1
B1 (11)
1 1
⎡ 1⎤ ⎡ 2⎤ ⎡2⎤ ⎡0 ⎤
[T(α)]B = [T]BB [α]B 2
2
2 2
(12) B1 = { α1 = ⎢ ⎥ , α 2 = ⎢ ⎥ } y B2 = { β1 = ⎢ ⎥ , β 2 = ⎢ ⎥ }. Determinemos las

⎣ ⎦1 1
⎣ ⎦ 0
⎣ ⎦ ⎣ 3⎦
matrices [T ]B11 y [T ]B22 así como también la matriz de transición de B1 a B2
B B

Sea [α ]B12 la matriz de transición de B1 a B2. Luego, por el teorema 6.11., se


B

tiene que:
[α]BB1
2
que define la semejanza entre [T ]B11 y [T ]B22 .
B B

[α]B = [α]BB [α ]B 2
(13)
[T ]BB
1
1
:
2 1 1

⎡a ⎤ ⎡ 1⎤ ⎡2⎤ ⎡ c1 ⎤ ⎡2c 2 ⎤ ⎡ c1 + 2c 2 ⎤
Por otra parte, también por el teorema 6.11., se tiene que: ⎢ ⎥ = c1 • α1 + c 2 • α 2 = c1 • ⎢ ⎥ + c 2 ⎢ ⎥ = ⎢ ⎥+⎢ ⎥ = ⎢ ⎥
⎣b⎦ ⎣ − 1⎦ ⎣1 ⎦ ⎣ − c1 ⎦ ⎣ c 2 ⎦ ⎣− c1 + c 2 ⎦
[T(α)]B = [α]BB [T(α)]B 2
2
1 1
(14) ⇒ a = c1 + 2c2 ⇒ c1 = a – 2c2.
⇒ b = –c1 + c2 ⇒ b = –(a – 2c2) + c2 ⇒ b = –a + 2c2 + c2 ⇒ b = –a + 3c2
Sustituyendo (13) y (14) en (12) se obtiene que: ⇒ b + a = 3c2 ⇒ c2 = (a + b)/3
⇒ c1 = a – 2(a + b)/3 ⇒ c1 = (3a – 2a – 2b)/3 ⇒ c1 = (a – 2b)/3
[α]BB [T(α)]B = [T ]B22 [α ]B12 [α ]B1
2 B B
1 1
⎡ ⎡a ⎤ ⎤ ⎡( a − 2 b ) ⎤
⇒ ⎢⎢ ⎥ ⎥ = ⎢ 3⎥
⎢ (a + b ) ⎥
Ahora bien, por el teorema 6.12., la matriz [α ]B12 es no singular. Por lo tanto, ⎣⎢ ⎣b ⎦ ⎦⎥ B1 ⎣⎢
B
3 ⎦⎥

( [α ]B12 )-1 [α ]B12 [T (α)]B1 = ( [α ]B12 )-1 [T ]B22 [α ]B12 [α ]B1


B B B B B
⎡ 1⎤ ⎡1 − 2.(−1) ⎤ ⎡3⎤
T(α1 ) = T( ⎢ ⎥ ) = ⎢ ⎥=⎢ ⎥
⇒ [T (α)]B1 = ( [α ]
B 2 -1
B1 ) [T] [α] [α ]B
B2
B2
B2
B1 (15) ⎣ − 1⎦ ⎣2.1 + (−1)⎦ ⎣1⎦
1
⎡2⎤ ⎡2 − 2.(1)⎤ ⎡0⎤
T (α 2 ) = T ( ⎢ ⎥ ) = ⎢ ⎥=⎢ ⎥
Igualando (11) y (15) se obtiene que: ⎣1 ⎦ ⎣2.2 + (1)⎦ ⎣5⎦
⎡1 ⎤
[T]BB [α]B = ( [α]BB )-1 [T]BB [α]BB [α ]B
1 2 2 2
[T(α1 )]B1 = ⎡⎢(3 − 2.1) / 3⎤⎥ = ⎢ 4 3 ⎥
+ ⎦ ⎢⎣ 3 ⎥⎦
1 1 1 2 1 1
⎣ (3 1) / 3
⇒ [T ]B [α ]B – ( [α ]B )-1 [T ]B [α ]B [α ]B = θnx1
B 1 B B B 2 2 2
1 1 1 2 1 1

⇒ ( [T ]B – ( [α ]B )-1 [T ]B [α ]B ) [α ]B = θnx1 ⎡(0 − 2.5) / 3⎤ ⎡− 10 3 ⎤


[T(α 2 )]B
B B B B
⎥=⎢ ⎥
1 2 2 2
1 1 2 1 1 =⎢
⎣ (0 + 5) / 3 ⎦ ⎢⎣ 5 3 ⎥⎦
1

Como [α]B ≠ θnx1 entonces ( [T ]BB – ( [α]BB )-1 [T]BB [α]BB ) = θnxn. Luego,
1
1
1
2
1
2
2
2
1

Luego,
[T ]BB 1
1
= ( [α ]B12 )-1 [T ]B22 [α ]B12
B B B

⇒ ∃P∈Mnxn(K) (P no singular) (P = [α ]B12 ): P-1 [T ]B22 P = [T ]B11 ⎡1 − 10 ⎤


B B B

[T ]BB
1
=⎢ 3 3⎥
5 ⎥
1
⎢4
⎣ 3 3⎦
En consecuencia, [T ]B11 y [T ]B22 son semejantes.
B B

[T]BB 2
2
:

⎡a ⎤ ⎡2⎤ ⎡0⎤ ⎡2c1 ⎤ ⎡ 0 ⎤ ⎡ 2c1 ⎤


⎢ ⎥ = c1 • β1 + c 2 • β 2 = c1 • ⎢ ⎥ + c 2 ⎢ ⎥ = ⎢ ⎥ + ⎢ ⎥ = ⎢ ⎥
⎣b⎦ ⎣0 ⎦ ⎣3⎦ ⎣ 0 ⎦ ⎣3c 2 ⎦ ⎣3c 2 ⎦

265 266
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⇒ a = 2c1 ⇒ c1 = a/2 Teorema 7.13. (Lema de Issai Schur)


b = 3c2 ⇒ c2 = b/3
Sea A∈Mnxn(K). Entonces se cumple que A es semejante a una matriz
⎡a ⎤ triangular Tλ(A)∈Mnxn(K) que tiene en la diagonal principal los autovalores de
⎡⎡a ⎤ ⎤
⇒ ⎢⎢ ⎥ ⎥ = ⎢ 2⎥ A.
⎣⎢ ⎣b⎦ ⎦⎥ B2 ⎢b ⎥
⎣ 3⎦
Demostración

⎡2⎤ ⎡2 − 2.(0)⎤ ⎡2⎤ Sean λ1, λ2, …, λn los autovalores de A y sea X1 el autovector correspondiente
T (β1 ) = T ( ⎢ ⎥ ) = ⎢ ⎥=⎢ ⎥
⎣0⎦ ⎣2.2 + (0)⎦ ⎣4⎦ al autovalor λ1. Luego, se cumple que AX1 = λ1X1.
⎡0⎤ ⎡0 − 2.(3) ⎤ ⎡−6 ⎤
T (β 2 ) = T( ⎢ ⎥ ) = ⎢ ⎥=⎢ ⎥ Procederemos ahora a construir una matriz P1∈Mnxn(K) no singular tal que:
⎣3⎦ ⎣ 2.0 + (3)⎦ ⎣ 3⎦
⎡(2) / 2⎤ ⎡ 1 ⎤ P1 = [ X1 b 2 L b n ] = [ X1 B1 ]
[T(β1 )]B =⎢ ⎥ = ⎢4 ⎥
⎣ (4) / 3⎦ ⎣⎢ 3 ⎦⎥
2

Donde B1∈Mnx(n-1)(K). Luego,


⎡(−6) / 2⎤ ⎡−3⎤
[T(β2 )]B =⎢ ⎥=⎢ ⎥ P1−1P1 = [ P1−1X1 P1−1B1 ] = In = [e1 e2 … en]
⎣ (3) / 3 ⎦ ⎣ 1⎦
2

⇒ P1−1X1 = e1 (16)
Luego,
Pero,
⎡1 −3⎤
[T]B2
B2 = ⎢4 ⎥
1⎥ AP1 = [ AX1 AB1 ] = [ λ1X1 AB1 ]
⎣⎢ 3 ⎦

La matriz de transición de B1 a B2 se determina de la siguiente forma: Premultiplicando por P1−1 se obtiene que:

⎡ 1⎤ ⎡2⎤ ⎡0⎤ ⎡2c ⎤ ⎡ 0 ⎤ ⎡2c11 ⎤ P1−1AP1 = [ λ1P1−1X1 P1−1AB1 ]


α1 = c11 • β1 + c 21 • β 2 ⇒ ⎢ ⎥ = c11 • ⎢ ⎥ + c 21 • ⎢ ⎥ = ⎢ 11 ⎥ + ⎢ ⎥=⎢ ⎥
⎣ − 1⎦ ⎣0 ⎦ ⎣3⎦ ⎣ 0 ⎦ ⎣3c 21 ⎦ ⎣3c 21 ⎦
En consecuencia, por (16) se tiene que:
1 = 2c11 ⇒ c11 = 1/2
–1 = 3c21 ⇒ c21 = –1/3
P1−1AP1 = [ λ1e1 P1−1AB1 ]
⎡2⎤ ⎡ 2⎤ ⎡0⎤ ⎡2c ⎤ ⎡ 0 ⎤ ⎡2c12 ⎤
α 2 = c12 • β1 + c 22 • β 2 ⇒ ⎢ ⎥ = c12 • ⎢ ⎥ + c 22 • ⎢ ⎥ = ⎢ 12 ⎥ + ⎢ ⎥=⎢ ⎥
1
⎣ ⎦ 0
⎣ ⎦ ⎣3⎦ ⎣ 0 ⎦ ⎣3c 22 ⎦ ⎣3c 22 ⎦ Es decir,
2 = 2c12 ⇒ c12 = 1
1 = 3c22 ⇒ c22 = 1/3 ⎡λ1 C1 ⎤
⎢ ⎥
0
Luego, P1−1AP1 = ⎢ ⎥ ; donde C ∈M
1x(n-1)(K), A1∈M(n-1)x(n-1)(K)
⎢ M A1 ⎥ 1

⎢ ⎥
⎡ 1 1⎤ ⎣⎢ 0 ⎦⎥
[α]BB 2
=⎢ 2 ⎥
1
⎢− 1 1 ⎥
⎣ 3 3⎦
Luego, A es semejante a P1−1AP1 . Por lo tanto, tienen los mismos autovalores y
en consecuencia A1 tiene como autovalores λ2, …, λn, es decir, los restantes
Se puede verificar fácilmente que [T ]B11 y [T ]B22 son semejantes y que la
B B
autovalores de A.
matriz no singular que define la semejanza entre dichas matrices es [α ]B12 , es
B
De forma análoga a la matriz P1 procederemos ahora a construir una matriz
decir, se cumple que: P2∈M(n-1)x(n-1)(K) no singular tal que:

( [α ]B12 )-1 [T ]B22 [α ]B12 = [T ]B11


B B B B
P2 = [ X 2 B2 ]

267 268
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Donde B2∈M(n-1)x(n-2)(K) y X2 es el autovector de A1 asociado al autovalor λ2. n

Análogamente al caso anterior, A1 es semejante a la matriz: 1. Traza (A) = ∑λ i =1


i .

n
⎡λ 2 C 2 ⎤
⎢ ⎥
2. Det (A) = ∏λ i .
0 i =1
P2−1A1P2 = ⎢ ⎥ ; donde C ∈M
1x(n-2)(K), A2∈M(n-2)x(n-2)(K)
⎢ M A2 ⎥ 2

⎢ ⎥ Demostración
⎣⎢ 0 ⎦⎥
Por el teorema 7.13., A es semejante a la matriz Tλ(A). Luego, por el teorema
Sea Q2∈Mnxn(K) una matriz no singular definida por: 7.9., apartados 2 y 3, la definición 1.19., y el teorema 3.1., apartado 19 se tiene
que:
⎡ 1 θ1x ( n −1) ⎤
Q2 = ⎢ ⎥ n
θ
⎣⎢ ( n −1) x1 P2 ⎦⎥ 1. Traza (A) = Traza (Tλ (A)) = ∑λ
i =1
i .

n
Luego,
2. Det (A ) = Det (Tλ (A )) = ∏λ
i =1
i .
⎡ λ1 0 C3 ⎤
⎢ ⎥
Q 2−1 (P1−1AP1 )Q 2 = ⎢ 0 λ 2 ⎥ ; donde C3∈M2x(n-2)(K), A2∈M(n-2)x(n-2)(K) 7.5. AUTOVALORES Y AUTOVECTORES DE MATRICES
⎢θ ( n − 2 ) x 2 A 2 ⎥ SIMÉTRICAS.
⎣ ⎦
Teorema 7.15.
Al repetir este proceso n–1 veces se obtiene una matriz no singular P∈Mnxn(K)
definida por: Sea A∈Mnxn(ℜ). Si A es simétrica entonces todos sus autovalores son números
reales y sus autoespacios correspondientes están definidos por vectores reales.
⎡ 1 θ1x ( n −1) ⎤ ⎡ I 2 θ 2 x ( n − 2) ⎤ ⎡ I n − 2 θ(n −2) x 2 ⎤
P = P1 ⎢ ⎥⎢ ⎥L⎢ ⎥ Demostración
⎣⎢θ ( n −1) x1 P2 ⎦⎥ ⎣⎢θ ( n − 2) x 2 P3 ⎦⎥ ⎣⎢θ 2 x ( n − 2 ) Pn −1 ⎦⎥
Sea λ autovalor de A con autovector asociado X. Luego,
Donde Pn-1∈M2x2(K) es la matriz no singular obtenida en la (n–1)-ésima etapa,
tal que: AX = λX (17)

⎡λ C ⎤ Tomando conjugada a ambos lados de (17) se obtiene que:


Pn−−11A n − 2 Pn −1 = ⎢ n −1 n −1 ⎥ ; donde Cn-1∈M1x1(K)
⎣⎢ 0 λ n ⎦⎥
AX = λX
Esta matriz P construida anteriormente es tal que:
La conjugada del producto de 2 matrices es el producto de las conjugadas de
las matrices. Por lo tanto,
⎡λ1 C12 L C1n ⎤
⎢ ⎥
0 λ 2 L C2n ⎥ AX=λX
P −1AP = ⎢ = Tλ(A)
⎢M M M ⎥
⎢ ⎥
⎣⎢ 0 0 L λ n ⎥⎦ Por otra parte, como A∈Mnxn(ℜ) entonces:

En consecuencia, A es semejante a la matriz triangular Tλ(A) que tiene en la AX = λ X (18)


diagonal principal los autovalores de A.
t
Premultiplicando a ambos lados de (17) por X y a ambos lados de (18) por Xt
Teorema 7.14. se obtiene que:
Sean A∈Mnxn(K) y λ1, λ2, …, λn∈K. Si λ1, λ2, …, λn son los autovalores de A t t t
entonces: X AX = X (λX) = λ X X (19)

269 270
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

X t A X = X t (λ X) = λX t X (20) Restando a ambos lados en las ecuaciones anteriores:

XtAY – XtAY = λXtY – μXtY


Tomando transpuesta a ambos lados de (19) se obtiene que:
⇒ 0 = (λ – μ)XtY
t t
(X AX) t = (λ X X) t ⇒ X t A t X = λX t X Como λ ≠ μ se tiene que XtY = 0, es decir, <X, Y> = 0. Luego, X ⊥ Y.

Como A es simétrica entonces: Teorema 7.17.

Sea A∈Mnxn(K). Si A es simétrica entonces A es diagonalizable.


X t A X = λX t X (21)
Demostración
Igualando (20) y (21) se obtiene que:
Por el teorema 7.13., A es semejante a una matriz triangular Tλ(A) que tiene en
λX t X = λX t X la diagonal principal los autovalores de A, es decir:
⇒ λX t X − λX t X = 0
∃P∈Mnxn(ℜ) (P no singular): P-1AP = Tλ(A)
⇒ (λ − λ ) X t X = 0
De forma análoga a como se construyó esta matriz P no singular se puede
construir una matriz Q ortogonal tal que Q-1AQ = Tλ(A). Como Q es ortogonal
Como X es autovector entonces X≠θnx1 y X ≠ θ nx1 . Por consiguiente,
entonces Q-1 = Qt de manera que QtAQ = Tλ(A). Supongamos que Tλ(A) es una
matriz triangular superior. Denotemos dicha matriz por TSλ(A). Luego,
(λ − λ ) = 0
QtAQ = TSλ(A) (22)
⇒λ=λ
⇒ (QtAQ)t = (TSλ(A))t
⇒ λ ∈ℜ ⇒ QtAtQ = (TSλ(A))t

Ahora bien, A∈Mnxn(ℜ) y λ∈ℜ. Luego, (A–λIn)∈Mnxn(ℜ). Por lo tanto, las Como TSλ(A) es una matriz triangular superior que tiene en la diagonal
soluciones del SEL homogéneo (A–λIn)X = θnx1 serán vectores X∈Mnx1(ℜ). En principal los autovalores de A entonces (TSλ(A))t es una matriz triangular
consecuencia, Vλ(A) está definido por vectores reales. inferior que tiene en la diagonal principal los autovalores de A. Denotemos
dicha matriz por TIλ(A), es decir, TIλ(A) = (TSλ(A))t. Además A es simétrica,
Teorema 7.16. es decir, At = A. Luego,

Sean A∈Mnxn(ℜ), λ, μ∈K y X, Y∈Kn-{θnx1}. Si λ es autovalor de A con QtAQ = TIλ(A) (23)


autovector asociado X, μ es autovalor de A con autovector asociado Y con
λ ≠ μ y A es simétrica entonces X ⊥ Y. Por (22) y (23) se tiene que TSλ(A) = TIλ(A). La única forma de que esto
pueda ocurrir es que TSλ(A) = TIλ(A) = Dλ(A). Por lo tanto,
Demostración
QtAQ = Dλ(A)
Por hipótesis,
Es decir, A es diagonalizable.
⎧AX = λX ⎧⎪Y t AX = Y t (λX) ⎧⎪Y t AX = λY t X ⎧⎪(Y t AX) t = (λY t X) t
⎨ ⇒⎨ t ⇒⎨ t ⇒⎨ Observaciones:
⎩AY = μY ⎪⎩X AY = X (μY) ⎪⎩X AY = μX Y ⎪⎩ X AY = μX Y
t t t t

⎧⎪X t A t Y = λX t Y 1. Como la matriz Q además de ser no singular es ortogonal se dice


⇒⎨ t que toda matriz simétrica es diagonalizable ortogonalmente.
⎪⎩ X AY = μX t Y
Además se cumple que si una matriz A es diagonalizable
ortogonalmente entonces A es simétrica.
Como A es simétrica se tiene que: 2. Toda matriz simétrica por ser diagonalizable tiene n autovectores
L.I.
⎧⎪X t AY = λX t Y
⎨ t
⎪⎩X AY = μX t Y

271 272
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Ejemplo 7.18. ⎧ ⎡ 1⎤ ⎡1⎤ ⎡ − 1⎤⎫


⎪ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎪
Sea A∈M3x3(ℜ) definida por: α = − α =
⎨ 1 ⎢ ⎥ 2 ⎢ ⎥ 3 ⎢ 0⎥ ⎬
1 , 1 , α =
⎪ ⎢⎣ 1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣ 1⎥⎦ ⎪
⎩ ⎭
⎡ 7 1 −1 ⎤
⎢ ⎥ Aplicamos Gram-Schmidt:
A=⎢ 1 7 1⎥
⎢⎣ − 1 1 7 ⎥⎦
⎡ 1⎤
⎢ ⎥
Como A es simétrica entonces es diagonalizable. Encontremos la matriz P que β1 = α1 = ⎢ − 1⎥
diagonaliza a A. Hallemos primero el espectro de A. Se puede verificar que el ⎢⎣ 1⎥⎦
autopolinomio de A es:
⎡1⎤ ⎡ 1⎤ ⎡1⎤ ⎡ 1⎤ ⎡1⎤
< α 2 , β1 > ⎢ ⎥ (1.1 + 1.( −1) + 0.1) ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
PA (λ) = −λ3 + 21λ2 − 144λ + 320 β2 = α2 – β1 = ⎢1⎥ − 2 −1 = 1 − 0 −1 = 1
|| β1 || 2
1 + (−1) + 1 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
2 2
⎢⎣0⎥⎦ ⎢⎣ 1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣ 1⎥⎦ ⎢⎣0⎥⎦
Los autovalores de A son λ1 = 5 con r1 = 1 y λ2 = 8 con r2 = 2, es decir,
< α 3 , β1 > < α3 ,β2 >
E(A) = {5, 8}. Se puede verificar que los autoespacios correspondientes son: β3 = α 3 – β1 – β2 =
|| β1 ||2 || β 2 ||2
⎡ 1⎤ ⎡ −1 ⎤ ⎡ 1⎤ ⎡1 ⎤
⎢ ⎥ ⎢ ⎥ (−1).1 + 0.(−1) + 1.1 ⎢ ⎥ (−1).1 + 0.1 + 1.0 ⎢ ⎥
V5 (A) = {X ∈ ℜ3 : X = a ⎢ − 1⎥; a ∈ ℜ*} ⎢ ⎥0 − − 1 − 1
12 + (−1) 2 + 12 ⎢ ⎥ (1) 2 + (1) 2 + 0 2 ⎢ ⎥
⎣⎢ 1⎦⎥ ⎣⎢ 1⎦⎥ ⎣⎢ 1⎦⎥ ⎣⎢0⎦⎥
⎡1⎤ ⎡ −1 ⎤ ⎡ −1 ⎤ ⎡ 1⎤ ⎡1 ⎤ ⎡ − 1⎤ ⎡ 1 2⎤ ⎡− 1 2 ⎤
⎢ ⎥ ⎢ ⎥
V8 (A) = {X ∈ ℜ3 : X = a ⎢1⎥ + b ⎢ 0⎥; a ∈ ℜ* ó b ∈ ℜ*} ⎢ ⎥ ⎢ ⎥ −1 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
= ⎢ 0⎥ − 0 ⎢ − 1⎥ − 1 = ⎢ 0⎥ + ⎢ 1 ⎥ = ⎢ 1 ⎥
2 ⎢ ⎥ ⎢ 2⎥ ⎢ 2⎥
⎣⎢0⎦⎥ ⎣⎢ 1⎦⎥ ⎢⎣ 1⎥⎦ ⎢⎣ 1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣ 1⎥⎦
⎢⎣ 0 ⎥⎦ ⎢⎣ 1 ⎥⎦

Como A es simétrica es diagonalizable y tiene 3 autovectores L.I. Por


consiguiente, la matriz P que diagonaliza a A es: Luego,

⎡ 1 1 −1 ⎤ β1 = 12 + (−1) 2 + 12 = 3
⎢ ⎥
P = ⎢− 1 1 0⎥
⎢⎣ 1
β2 = (1)2 + (1)2 + 0 2 = 2
0 1⎥⎦
β3 = (− 1 2 ) + (1 2 ) + (1)
2 2 2
= 6
4
= 6
2
Se verifica que P es no singular y cumple que:

Por consiguente,
⎡5 0 0 ⎤
-1 ⎢ ⎥
P AP = Dλ(A) = ⎢0 8 0⎥ ⎡ 3 ⎤
⎢⎣0 0 8⎥⎦
⎡ 1⎤ ⎡ 1⎤ ⎢ 3⎥
1 1 ⎢ ⎥ 3⎢ ⎥ ⎢ 3 ⎥
δ1 =
β1
β1 = ⎢− 1⎥ = 3 ⎢− 1⎥ = ⎢− 3

Ahora bien, si se desea hallar la matriz ortogonal Q que diagonaliza 3⎢ ⎥
⎣ 1⎦ ⎢⎣ 1⎥⎦ ⎢ 3 ⎥
ortogonalmente a A se procede a buscar una base ortonormal con los 3 ⎢ ⎥
⎢⎣ 3 ⎥⎦
autovectores L.I. de A. Dichos vectores seguirán siendo L.I. y autovectores de
A. ⎡ 2 ⎤
⎡1⎤ ⎡1⎤ ⎢ 2 ⎥
Comenzamos con la base de ℜ : 3
1 1 ⎢ ⎥ 2⎢ ⎥ ⎢ 2 ⎥
δ2 = β2 = ⎢1⎥ = 2 ⎢1⎥ = ⎢ 2 ⎥
β2 2⎢ ⎥
⎣0 ⎦ ⎢⎣0⎥⎦ ⎢ 0 ⎥
⎢ ⎥
⎢⎣ ⎥⎦

273 274
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ 6 ⎤ Rango(A) = Rango(Dλ(A))
⎡− 1 ⎤ ⎡− 1 ⎤ ⎡− 1 ⎤ ⎢− 6⎥ Traza(A) = Traza(Dλ(A))
2⎥ 2⎥ 2⎥ ⎢
1 1 ⎢ ⎢
1 ⎥= 2 ⎢

1 ⎥= 6 ⎢ 1 ⎥=⎢ 6 ⎥

δ3 = β3 = ⎢
β3 6 ⎢ 2⎥ 6⎢ 2⎥ 3 ⎢ 2⎥ ⎢ 6⎥ Ahora bien, por el ejemplo 7.8., los valores posibles de los autovalores de una
2 ⎢⎣ 1⎥ ⎢⎣ 1⎥ ⎢⎣ 1⎥ ⎢ 6 ⎥ matriz idempotente son 0 ó 1. En ese caso, Dλ(A) tiene tantas filas no nulas
⎦ ⎦ ⎦ 3 ⎥⎦
⎢⎣ como Traza tiene dicha matriz Dλ(A), es decir, Rango(Dλ(A)) = Traza(Dλ(A)).
Por con siguiente,
En consecuencia, el conjunto {δ1 , δ 2 , δ3 } es una base ortonormal de ℜ3.
Rango(A) = Rango(Dλ(A)) = Traza(Dλ(A)) = Traza(A)
Luego, la matriz Q ortogonal que diagonaliza ortogonalmente a A es: Ejemplo 7.19.

⎡ 3 ⎤ Consideremos la Matriz de Centraje P∈Mnxn(ℜ), es decir,



2 − 6
3 2 6⎥ 1
⎢ ⎥ P = In – (1n )(1n ) t . Veamos que dicha matriz es simétrica e idempotente:
Q = ⎢− 3 2 6 ⎥ n
⎢ 3 2 6⎥
⎢ 3 0 6 ⎥
⎢⎣ 3 3 ⎥⎦ 1 1 1
Pt = (In – (1n )(1n ) t )t = (In)t – ( (1n )(1n ) t )t = In – (1n )(1n ) t = P
n n n
⎡5 0 0 ⎤ 1 1
P2 = PP = (In – (1n )(1n ) t )(In – (1n )(1n ) t )
⎢ ⎥ n n
Se puede verificar fácilmente que QtAQ = Dλ(A) = ⎢0 8 0⎥ .
⎢⎣0 0 8⎥⎦ 1 1 1 1
= In – (1n )(1n ) t – (1n )(1n ) t + ( (1n )(1n ) t )( (1n )(1n ) t )
n n n n
Observaciones:
1 1 1
= In – (1n )(1n ) t – (1n )(1n ) t + 2 (1n )(1n ) t (1n )(1n ) t
1. Es sencillo verificar que los vectores δ1 y δ2, δ3 son autovectores de n n n
A asociados a los autovalores λ1 = 5 y λ2 = 8, respectivamente. 1 1 1
2. En el ejemplo anterior se aplicó el proceso de ortogonalización de = In – (1n )(1n ) t – (1n )(1n ) t + 2 (1n )n(1n ) t
n n n
Gram-Schmidt sobre los autovectores de A. En particular, esto
1 1 n
obedece a que los autovectores asociados al autovalor de = In – (1n )(1n ) t – (1n )(1n ) t + 2 (1n )(1n ) t
multiplicidad 2, es decir, el autovalor λ2 = 8 no son ortogonales. n n n
Puede ocurrir que aunque siendo autovectores asociados a un 1 1 1
= In – (1n )(1n ) t – (1n )(1n ) t + (1n )(1n ) t
mismo autovalor, es decir, autovectores de un mismo autoespacio n n n
sean por casualidad ortogonales. En ese caso, la aplicación de dicho
1
proceso sobre los autovectores de A no es necesaria; sólo haría falta = In – (1n )(1n ) t = P
hacer vectores unitarios a todos los autovectores. Sin embargo, n
utilizar Gram-Schmidt sobre los autovectores de A; sin observar
previamente si los autovectores asociados a un mismo autovalor Como P es idempotente entonces por el ejemplo 7.8., los valores posibles de
son ortogonales o no, es el procedimiento recomendado para hallar sus autovalores son 0 y 1. Como además de idempotente P es simétrica
la matriz Q ortogonal que diagonaliza ortogonalmente a A, claro entonces Rango(P) = Traza(P). Como P es simétrica entonces P es
está siempre que dicha matriz A sea simétrica. diagonalizable. Luego, por el teorema 7.11., las multiplicidades algebraicas de
los autovalores 0 y 1 de P son:
Teorema 7.18.
λ1 = 0 ⇒ r1 = n – Rango(P – 0.In) ⇒ r1 = n – Rango(P)
Sea A∈Mnxn(K). Si A es simétrica e idempotente entonces ⇒ r1 = n – Traza(P)
Rango(A) = Traza(A). 1
⇒ r1 = n – Traza(In – (1n )(1n ) t )
n
Demostración
1
⇒ r1 = n – Traza(In) + Traza( (1n )(1n ) t )
Como A es simétrica entonces por el teorema 7.17., A es diagonalizable. n
Luego, por el teorema 7.9., apartados 2 y 4, se cumple que: 1
⇒ r1 = n – n + Traza( (1n )(1n ) t )
n

275 276
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

1 Teorema 7.20.
⇒ r1 = Traza( (1n ) t (1n ) )
n
Sea A∈Mnxn(ℜ). Si A es simétrica y no singular entonces:
1
⇒ r1 = Traza(n)
n ∃P∈Mnxn(ℜ) (P ortogonal): A-1 = P(Dλ(A))-1Pt
1
⇒ r1 = n Demostración
n
⇒ r1 = 1
Como A es simétrica entonces A es diagonalizable ortogonalmente, es decir:
Luego, para λ2 = 1 ⇒ r2 = n – r1 ⇒ r2 = n – 1. Finalmente, el autopolinomio de
∃P∈Mnxn(ℜ) (P ortogonal): PtAP = Dλ(A)
P es PP (λ ) = λ(λ − 1) n −1 . ⇒ ∃P∈Mnxn(ℜ) (P ortogonal): PPtAPPt = PDλ(A)Pt
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): A = PDλ(A)Pt
Teorema 7.19. (Teorema Espectral)
Como A es no singular entonces:
Sean A∈Mnxn(ℜ), λ1, λ2, …, λn∈ℜ y X1, X2, …, Xn∈ℜn-{θnx1}, tales que λ1,
λ2, …, λn son los n autovalores de A con autovectores ortonormalizados ∃P∈Mnxn(ℜ) (P ortogonal): A-1 = (PDλ(A)Pt)-1
asociados X1, X2, …, Xn, respectivamente. Si A es simétrica entonces: ⇒ ∃P∈Mnxn(ℜ) (P ortogonal): A-1 = (Pt)-1(Dλ(A))-1(P)-1
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): A-1 = P(Dλ(A))-1Pt
n
A= ∑ λ X (X )
i =1
i
i i t
Teorema 7.21.

Sea X∈Mnxp(ℜ) tal que Rango(X) = r. Entonces las matrices XtX y XXt tienen
Demostración
los mismos autovalores no nulos.
Como A es simétrica entonces A es diagonalizable ortogonalmente, es decir:
Demostración
∃P∈Mnxn(ℜ) (P ortogonal): P AP = Dλ(A) t
Las matrices XtX y XXt son matrices simétricas y tales que
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): PPtAPPt = PDλ(A)Pt Rango(XtX) = Rango(XXt) = Rango(X) = r. Por lo tanto, dichas matrices
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): A = PDλ(A)Pt tienen exactamente r autovalores no nulos. Sea λ un autovalor no nulo de XtX
con autovector asociado V. Luego,
Ahora bien, la matriz P se puede expresar particionada por columnas 1xn de la
siguiente forma: XtXV = λV (24)
⇒ X(XtXV) = X(λV)
P = [ X1 X2 L Xn ] ⇒ (XXt)(XV) = λ(XV)

Luego, Sólo basta probar que el vector XV≠θnx1 para probar que λ es también
autovalor de XXt. Utilicemos reducción al absurdo. Supongamos que XV=θnx1.
⎡λ1 0 L 0 ⎤ ⎡ (X1 ) t ⎤ Sustituyendo en (24) se tiene que:
⎢ ⎥ ⎢ 2 t⎥
0 λ2 L 0 ⎥ ⎢( X ) ⎥
A = [ X1 X2 L Xn ] ⎢ Xt(θnx1) = λV
⎢M M M⎥ ⎢ M ⎥
⎢ ⎥ ⎢ n t⎥ ⇒ θpx1 = λV
⎣⎢ 0 0 L λ n⎥
⎦ ⎣⎢(X ) ⎦⎥
Por hipótesis λ ≠ 0. Por lo tanto, V = θpx1, lo cual es una contradicción ya que
⎡ (X1 ) t ⎤
⎢ 2 t⎥ V es autovector de XtX. De esta forma se termina de demostrar que XtX y XXt
(X ) ⎥ tienen los mismos autovalores no nulos.
⇒ A = [ λ 1 X1 λ 2 X 2 L λnXn ] ⎢
⎢ M ⎥
⎢ n t⎥ Teorema 7.22.
⎣⎢(X ) ⎦⎥
⇒ A = λ1X1(X1)t + λ2X2(X2)t + … + λnXn(Xn)t Sean X∈Mnxp(ℜ) tal que Rango(X) = r, V∈Mpxr(ℜ) y U∈Mnxr(ℜ). Si V y U
n son las matrices cuyas columnas son los autovectores ortonormalizados de las
⇒ A= ∑ λ X (X )
i =1
i
i i t

277 278
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

matrices XtX y XXt, respectivamente, asociados con los autovalores comunes λi


no nulos entonces: Ui = XV i ; ∀ i = 1, 2, …, r
λi
λi λi
Vi = X t Ui De forma análoga se demuestra que V i = X t U i ; ∀ i = 1, 2, …, r
λi λi
∀ i = 1, 2, …, r
λi
Ui = XV i Teorema 7.23. (Reconstrucción de Eckart y Young)
λi
Sean X∈Mnxp(ℜ) tal que Rango(X) = r, V∈Mpxr(ℜ) y U∈Mnxr(ℜ). Si V y U
Demostración son las matrices cuyas columnas son los autovectores ortonormalizados de las
matrices XtX y XXt, respectivamente, asociados con los autovalores comunes
En el teorema 7.21., se dedujo que: no nulos entonces:

Si λ es un autovalor no nulo de XtX con autovector asociado V, es decir, r


XtXV = λV entonces (XXt)(XV) = λ(XV). Luego, para un autovalor λi se X= ∑
i =1
λ i U i (V i ) t
cumple que XV i ∈ Vλi (XX t ) (25). Por otra parte si λ es un autovalor no nulo
de XXt con autovector asociado U entonces XXtU = λU. Luego, Demostración
U i ∈ Vλi (XX t ) (26). Por (25) y (26) se tiene que:
Por el teorema 7.22.:

U i = cXV i ; ∀ i = 1, 2, …, r (27)
λi
Ui = XV i ; ∀ i = 1, 2, …, r
Calculando la norma al cuadrado a ambos lados de (27) se obtiene que: λi
λi
( U i ) t U i = (cXV i ) t (cXV i ) ; ∀ i = 1, 2, …, r ⇒ U i ( λ i (V i ) t ) = XV i ( λ i (V i ) t ) ; ∀ i = 1, 2, …, r
λi
⇒ 1 = c(V ) X (cXV ) ; ∀ i = 1, 2, …, r
i t t i

( λi )2
⇒ 1 = c 2 (V i ) t X t XV i ; ∀ i = 1, 2, …, r ⇒ λ i U i (V i ) t = XV i (V i ) t ; ∀ i = 1, 2, …, r
λi

Como XtXVi = λiVi; ∀ i = 1, 2, …, r entonces: λi


⇒ λ i U i (V i ) t = XV i (V i ) t ; ∀ i = 1, 2, …, r
λi
1 = c 2 (V i ) t λ i V i ; ∀ i = 1, 2, …, r ⇒ λ i U i (V i ) t = XV i (V i ) t ; ∀ i = 1, 2, …, r ⇒
⇒ 1 = c λ i (V ) V ; ∀ i = 1, 2, …, r
2 i t i
p p

⇒ 1 = c 2 λ i .1 ; ∀ i = 1, 2, …, r ∑i =1
λ i U i (V i ) t = ∑ XV (V )
i =1
i i t

⇒ 1 = c 2 λ i ; ∀ i = 1, 2, …, r p p

1
⇒ X ∑ V (V ) = ∑i i t
λ i U i (V i ) t
⇒ c2 = ; ∀ i = 1, 2, …, r i =1 i =1
λi
Ahora bien, como V es ortogonal entonces:
1
⇒ c= ; ∀ i = 1, 2, …, r
λi p

1 ∑ V (V ) i i t
= VV t = I p
⇒ c= ; ∀ i = 1, 2, …, r i =1
λi
Además, λr+1 = λr+2 = … = λp = 0. Luego,
λi
⇒ c= ; ∀ i = 1, 2, …, r
λi r r
⇒ XI p = ∑i =1
λ i U i (V i ) t ⇒ X= ∑
i =1
λ i U i (V i ) t
Sustituyendo el valor de c en (27) se obtiene que:

279 280
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

EJERCICIOS PROPUESTOS. 8. Sea A∈Mnxn(ℜ) una matriz involutiva. Demuestre que (I+A)Y e
(I–A)Y son autovectores de A asociados respectivamente a los
1. Determine los autovalores y los correspondientes autoespacios de las autovalores λ1 = 1 y λ2 = –1, siendo Y un vector arbitrario de ℜn.
siguientes matrices:
9. Sea A∈Mmxn(ℜ). Se dice que A es una matriz estocástica, aleatoria o
⎡3 0 0⎤ ⎡3 0 −1⎤ ⎡ 7 1 2⎤ de probabilidad si y sólo si ∀ (i,j)∈JmxJn 0 ≤ Aij ≤ 1 y ∀ i=1, 2, …, m
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ n
A = ⎢0 1 1⎥ B = ⎢0 1 1 ⎥ C = ⎢ −1 7 0⎥
⎢⎣2 0 1⎥⎦ ⎢⎣1 0 1⎥⎦ ⎢⎣ 1 −1 6⎥⎦
se cumple que ∑A
j=1
ij = 1 . Demuestre que si m = n y A es una matriz

estocástica entonces A tiene un autovalor igual a 1. Encuentre el


⎡1 0 1 2⎤ ⎡1 0 0 −1 ⎤ autovector correspondiente.
⎡ 3 2 −2 ⎤ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ 1 5 2 −1⎥ 1 2 2 0⎥
D=⎢ 2 3 2⎥ E=⎢ F=⎢ 10. Sea A∈Mnxn(ℜ). Demuestre que:
⎢1 2 5 −1⎥ ⎢0 0 1 1⎥
⎢⎣ − 2 2 3⎥⎦ ⎢ ⎥ ⎢ ⎥
⎣⎢2 −1 −1 6⎦⎥ ⎣⎢2 0 1 −1 ⎦⎥ 10.1. A es no singular si y sólo si tiene todos sus autovalores no
nulos.
10.2. A es singular si y sólo si tiene por lo menos un autovalor nulo.
2. Determine los valores posibles que pueden tomar los autovalores de
una matriz involutiva.
11. Sea A∈Mnxn(ℜ). Demuestre que si A es no singular entonces los
autovalores de A-1 son los inversos de los autovalores de A y tienen
3. Determine los valores posibles que pueden tomar los autovalores de
asociados los mismos autovectores.
una matriz ortogonal.
12. Sea la matriz A∈Mnxn(ℜ) definida de la siguiente manera:
4. Sean A∈Mnxn(ℜ) una matriz simétrica, λ, μ∈ℜ; con λ ≠ μ autovalores
de A y X, Y, Z∈ℜn. Demuestre que si X e Y son autovectores de A
asociados a λ y Z es un autovector de A asociado a μ entonces: ab
A= (u − v)(u − v) t con a, b, c ∈ ℵ*, u, v ∈ ℜn y u ≠ v.
c2
4.1. (cX + dY) es autovector de A asociado a λ, con c,d ∈ ℜ y no
nulos simultáneamente. Demuestre que si la matriz D∈Mnxn(ℜ) es no singular, entonces el
4.2. (cX + dY) y Z son ortogonales. vector Z = D-1(u-v) es autovector de la matriz D-1A. Determine además
el autovalor de D-1A al cual está asociado Z.
5. Sean A∈M2x2(ℜ) una matriz simétrica, λ, μ∈ℜ; con λ ≠ μ autovalores
de A y X, Y∈ℜ2. Demuestre que si X es autovector de A asociado a λ 13. Sean A∈Mmxn(ℜ), B∈Mnxm(ℜ), tales que rango(A) = m, AB es
e Y es autovector de A asociado a μ con XtX = 1 y YtY = 1 entonces simétrica y ABA=A. Demuestre que si λ es un autovalor de la matriz
la matriz P = [X Y] es ortogonal y además se cumple que: D = cAB entonces λ = c, con c∈ℜ*.

⎡λ 0 ⎤ 14. Sea A∈Mnxn(ℜ). Demuestre que si (∀X∈ℜn)(X≠θ), XtAX>0 entonces


P t AP = ⎢ ⎥ la matriz A tiene todos sus autovalores positivos.
⎣ 0 μ⎦
15. En el conjunto Mnxn(ℜ) se define la relación R por
6. Sean A, B, C∈Mnxn(ℜ) tales que B = CtC y rango(C) = n. Sea además (∀ A, B ∈ Mnxn(ℜ)) A R B si y sólo si A es semejante a B. Demuestre
U∈ℜn autovector de B-1A asociado al autovalor λ. Demuestre que: que R es una relación de equivalencia en Mnxn(ℜ).

6.1. Las matrices B-1A y (Ct)-1AC-1 tienen los mismos autovalores. 16. Sean A, B∈Mnxn(ℜ). Demuestre que si A y B son semejantes
6.2. Los autovectores V de la matriz (Ct)-1AC-1 tienen la forma entonces:
V = CU.
16.1. At y Bt son semejantes.
7. Sean A∈Mnxp(ℜ) y B∈Mpxn(ℜ). Demuestre que: 16.2. Am y Bm son semejantes, con m∈ℵ*.
16.3. Si A y B son no singulares entonces A-1 y B-1 son semejantes.
7.1. AB y BA tienen los mismos autovalores no nulos y además
se cumple que λnPBA(λ) = ±λpPAB(λ).
7.2. Si n = p y B es no singular entonces los autovalores de AB
son los mismos autovalores de BA.

281 282
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

17. Sean A, B, C∈M3x3(ℜ) definidas por: 20. Sea A∈M3x3(ℜ) definida por:

⎡2 0 1⎤ ⎡1 0 −1 ⎤ ⎡1 0 −1 ⎤ ⎡1 0 0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A = ⎢0 6 0 ⎥ B = ⎢0 3 6⎥ C = ⎢0 3 2⎥ A = ⎢a − 2 3⎥
⎢⎣1 3 2⎥⎦ ⎢⎣0 0 3⎥⎦ ⎢⎣0 0 6⎥⎦ ⎢⎣1 − 1 2⎥⎦

Determine si A y B son semejantes y si A y C son semejantes y en 20.1. Determine los autovalores de A.


cada caso de ser afirmativo encuentre la respectiva matriz P que define 20.2. ¿Qué condición debe verificar el valor de a para que la
la semejanza entre esas matrices. matriz A sea diagonalizable?

Para las siguientes T.L. determine las matrices [T ]B11 y [T ]B22 así Determine si cada una de las matrices dadas en el ejercicio 1 son
B B 21.
18.
diagonalizables. En caso afirmativo, encuentre la matriz diagonal y la
como también la matriz de transición de B1 a B2 [α ]
B2
B1 que define la matriz que la diagonaliza.

semejanza entre [T ] y [T ] :
B1 B2
B1 B2 22. Sea A∈M2x2(ℜ) definida por:

⎡ x ⎤ ⎡3x + 4 y ⎤ ⎡a b ⎤
18.1. T: ℜ2→ℜ2 definida por T( ⎢ ⎥ ) = ⎢ ⎥, A=⎢ ⎥
⎣ y⎦ ⎣ x − 5y ⎦ ⎣c d⎦
⎡ 2⎤ ⎡ 3⎤ ⎡1⎤ ⎡0 ⎤
B1 = { α 1 = ⎢ ⎥ , α 2 = ⎢ ⎥ } y B2 = { β1 = ⎢ ⎥ , β 2 = ⎢ ⎥ }. Demuestre que si (a–d)2+4bc > 0 entonces A es diagonalizable.

⎣ ⎦3 ⎣0 ⎦ 1
⎣⎦ ⎣ 2⎦ Determine que ocurre si (a–d)2+4bc < 0 y si (a–d)2+4bc = 0.
⎡x ⎤ ⎡ x + y + z ⎤
⎢ ⎥ ⎢ ⎥ 23. Sea A∈M2x2(ℜ) definida por:
18.2. T: ℜ3→ℜ3 definida por T( ⎢ y ⎥ ) = ⎢ x − 2 y + 3z ⎥ ,
⎢⎣ z ⎥⎦ ⎢⎣ 2 x − y − z ⎥⎦
⎡ b 4a ⎤
A=⎢ ⎥
⎡1⎤ ⎡ 2⎤ ⎡ −1 ⎤ ⎡1⎤ ⎣a b ⎦
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B1 = { α1 = ⎢0⎥ , α 2 = ⎢ − 1⎥ , α 3 = ⎢ 3⎥ } y B2 = { β1 = ⎢0⎥ ,
⎢⎣1⎥⎦ ⎢⎣ 1⎥⎦ ⎢⎣ 0⎥⎦ ⎢⎣0⎥⎦ Demuestre que si la ecuación ax2 + bx + a = 0 tiene raíces imaginarias
entonces A es diagonalizable. Determine que ocurre si dicha ecuación
⎡0 ⎤ ⎡1⎤ tiene raíces reales iguales y si tiene raíces reales distintas.
⎢ ⎥ ⎢ ⎥
β 2 = ⎢1⎥ , β3 = ⎢1⎥ }.
24. Sean X∈Mnxp(ℜ) y A∈Mnxn(ℜ) con rango(X) = p, tales que
⎢⎣1⎥⎦ ⎢⎣0⎥⎦
A = In – X(XtX)-1Xt. Estudie para esta matriz:
18.3. T: P1→P1 definida por T(a + bx ) = (a + b) + (a − b) x ,
24.1. Simetría.
B1 = { α1 = 1 , α 2 = x }, B2 = { β1 = 2 + 3x , β 2 = −4 + 5x }.
24.2. Idempotencia.
24.3. Rango.
19. Sea A∈M3x3(ℜ) definida por: 24.4. Autovalores.
24.5. Traza.
⎡a b b ⎤ 24.6. Autopolinomio.
⎢ ⎥
A = ⎢b a b ⎥
25. Sea A∈Mnxn(ℜ) una matriz simétrica de rango r con autovalores
⎢⎣b b a ⎥⎦ r n n
λ1, λ2, …, λn. Demuestre que ∑ λ = ∑∑ (A )
i =1
2
i
i =1 i =1
ij
2
.
19.1. Demuestre que (a-b) y (a+2b) son autovalores de A.
19.2. Determine el tercer autovalor.
26. Sean A, B ∈Mnxn(ℜ) tales que A y B son simétricas e idempotentes
con AB = θnxn y rango(A) + rango(B) = p, 0 < p < n. Determine la
multiplicidad algebraica de cada uno de los autovalores de la matriz
C = In – (A + B).

283 284
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES

27. Sea A∈Mnxn(ℜ). Demuestre que si A es simétrica e idempotente


entonces Traza(AAt) = n λ , siendo λ la media aritmética de los
autovalores de A.
28. Sea A∈Mnxn(ℜ) una matriz simétrica con autovalores λ1, λ2, …, λn
tales que λi ≠ λj para i ≠ j, i = 1, 2, …, n; j = 1, 2, …, n. Sean
X1, X2, …, Xn∈ℜn los autovectores de A normalizados asociados a los
autovalores λ1, λ2, …, λn, respectivamente. Demuestre que la matriz
B = A – λ1X1(X1)t tiene como autovalores 0, λ2, λ3, …, λn y
autovectores asociados X1, X2, …, Xn, respectivamente.
29. Sea A∈M2x2(ℜ) definida por:

⎡1 a ⎤
A=⎢ ⎥
⎣2 b⎦

⎡−2⎤
29.1. Determine los valores de a y b para que el vector ⎢ ⎥ sea
⎣ 1⎦
autovector de A asociado al autovalor λ = 5.
29.2. Determine el otro autovalor de A.
30. Sea A∈M3x3(ℜ) definida por:

⎡a 1 0 ⎤
⎢ ⎥
A = ⎢1 a 0⎥
⎢⎣0 0 1⎥⎦

Determine los valores de a para los cuales la matriz A tiene


autovalores con multiplicidades algebraicas mayores que 1.
31. Sean X1, X2, X3∈ℜ3 definidos por:

⎡ 1⎤ ⎡1⎤ ⎡ 1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X1 = ⎢− 1⎥ , X 2 = ⎢1⎥ , X 3 = ⎢− 1⎥
⎢⎣ 1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣ 0 ⎥⎦

Si X1, X2, X3 son autovectores de una matriz A∈M3x3(ℜ) asociados


con los autovalores 1, –1 y 0, respectivamente determine la matriz A.
32. Sean X∈ℜ4 y A∈M4x4(ℜ) definida por:

⎡0 0 1 0⎤
⎢ ⎥
0 0 0 − 1⎥
A=⎢
⎢1 0 0 0⎥
⎢ ⎥
⎣⎢0 −1 0 0⎦⎥

Demuestre que (I4 +A)X e (I4 – A)X son autovectores L.I. de A.


33. Sean X∈ℜn–{θnx1} y A∈Mnxn(ℜ) definida por A = XXt. Demuestre
que λ = 0 es autovalor de A con multiplicidad algebraica r = n – 1 y
determine también el único autovalor no nulo de A.

285
CAPÍTULO 8: FORMAS CUADRÁTICAS

⎡1 −2 0⎤
Capítulo 8 ⎢
B = ⎢0
⎢⎣0
2
0
2⎥

1 ⎥⎦
FORMAS CUADRÁTICAS
es una matriz asociada a la forma cuadrática f.

Pero f también puede escribirse de la siguiente forma:


8.1. INTRODUCCIÓN.
f (X1 , X 2 , X 3 ) = X12 + 2X 22 + X 32 − X1X 2 − X 2 X1 + 2X 2 X 3
En este capítulo se presenta un concepto fundamental para la teoría de la
probabilidad, específicamente para el estudio de la distribución normal En ese caso, B11 = 1, B12 = -1, B13 = 0, B21 = -1, B22 = 2, B23 = 2, B31 = 0,
multivariante, como lo es el concepto de Forma Cuadrática. Se exponen sus B32 = 0 y B33 = 1 y la matriz:
principales temas asociados como lo son las Representaciones Normal y
Canónica, la Clasificación y la Derivada de Formas Cuadráticas.
⎡ 1 −1 0⎤
⎢ ⎥
8.2. DEFINICIONES, PROPIEDADES Y EJEMPLOS. B = ⎢−1 2 2⎥
⎢⎣ 0 0 1 ⎥⎦
Definición 8.1.
es también una matriz asociada a la forma cuadrática f.
Sean B∈Mnxn(ℜ) y f: ℜn→ℜ. Se dice que f es una forma cuadrática con matriz
asociada B si y sólo si:
Observación:
f(X) = XtBX
El ejemplo anterior evidenció que una forma cuadrática puede tener más de
una matriz asociada. Para identificar a una forma cuadrática con una única
Observación:
matriz, se obtiene una matriz B asociada a la función y luego se calcula la
siguiente matriz:
Desarrollando se obtiene que:
1
⎡ B11 B12 L B1n ⎤ ⎡ X1 ⎤ A= (B + B t )
⎢ ⎥⎢ ⎥ 2
B B22 L B2 n ⎥ ⎢ X 2 ⎥
f(X) = f(X1, X2, …, Xn) = [X1 X2 L X n ]⎢ 21
⎢ M M M ⎥⎢ M ⎥ La matriz A es simétrica y de hecho es la única matriz simétrica asociada a la
⎢ ⎥⎢ ⎥ forma cuadrática f. Con dicha matriz es que se identifica de forma única una
⎣⎢Bn1 Bn 2 L Bnn ⎦⎥ ⎣⎢X n ⎦⎥
forma cuadrática.
n n
= ∑∑ B X X
i =1 j=1
ij i j
Ejemplo 8.2.

La única matriz simétrica asociada a la forma cuadrática del ejemplo 8.1., es:
Ejemplo 8.1.

Sea f: ℜ3→ℜ definida por: ⎡1 −2 0⎤ ⎡ 1 0 0⎤ ⎡ 1 −1 0⎤


1 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A= ( ⎢0 2 2⎥ + ⎢ − 2 2 0⎥ ) = ⎢ − 1 2 1⎥
2
f (X1 , X 2 , X 3 ) = X12 + 2X 22 + X 32 − 2X1X 2 + 2X 2 X 3 ⎢⎣0 0 1 ⎥⎦ ⎢⎣ 0 2 1⎥⎦ ⎢⎣ 0 1 1⎥⎦

Esta función es una forma cuadrática, ya que su regla de correspondencia es de Definición 8.2.
3 3
la forma ∑∑ B X X
i =1 j=1
ij i j . Luego, B11 = 1, B12 = -2, B13 = 0, B21 = 0, B22 = 2, Sean A, B∈Mnxn(ℜ). Se dice que A es congruente con B si y sólo si:

B23 = 2, B31 = 0, B32 = 0 y B33 = 1 y la matriz: ∃ P∈Mnxn(ℜ) (P no singular): PtAP = B

287
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

Si además A y B son las matrices simétricas asociadas a las formas cuadráticas Apliquemos operaciones elementales de fila sobre A para obtener una matriz
f: ℜn→ℜ y g: ℜn→ℜ, respectivamente, entonces se dice que las formas triangular superior equivalente por filas a A. Dichas operaciones serán
cuadráticas f y g son congruentes. Si además P es ortogonal entonces se dice aplicadas simultáneamente sobre la matriz I3 para obtener a la vez la matriz Pt:
que tanto A y B como f y g son ortogonalmente congruentes.
⎡ 1 −1 0 1 0 0⎤
Observaciones: ⎢ ⎥ 2 → r2 + r1
[A| I3] = ⎢ − 1 2 1 0 1 0⎥ ⎯r⎯ ⎯ ⎯→
Si A es congruente con B entonces: ⎢ 0 1 1 0 0 1⎥⎦

1. t
Rango(B) = Rango(P AP) = Rango(A). ⎡ 1 −1 0 1 0 0⎤ ⎡ 1 −1 0 1 0 0⎤
⎢ ⎥ 3 → r3 − r2 ⎢ ⎥
⎢ 0 1 1 1 1 0⎥ ⎯r⎯ ⎯ ⎯→ ⎢ 0 1 1 1 1 0⎥ = [T | Pt]
2. Como P es no singular entonces P se puede escribir como un ⎢ 0 1
⎣ 1 0 0 1⎥⎦ ⎢ 0 0
⎣ 0 −1 −1 1⎥⎦
producto de matrices elementales, en este caso como P aparece
postmultiplicando a A dichas matrices elementales son obtenidas
con operaciones elementales de columnas, es decir, P = FsFs-1…F1. Por lo tanto,
Luego, Pt = (FsFs-1…F1)t = (F1)t(F2)t…(Fs)t = E1E2…Es. Luego,
⎡ 1 −1 0⎤
E1E2…EsAFsFs-1…F1 = B ⎢ ⎥
T = PtA = ⎢ 0 1 1⎥
3. Las matrices elementales E1, E2, …, Es se pueden elegir de forma ⎢⎣ 0 0 0⎥⎦
tal que E1E2…EsA sea una matriz triangular, digamos triangular
superior. Luego, ⎡ 1 0 0⎤ ⎡1 1 −1⎤
⎢ ⎥ ⎢ ⎥
P = (Pt)t = ( ⎢ 1 1 0⎥ )t = ⎢0 1 − 1⎥
E1E2…EsA = T; siendo Pt = E1E2…Es ⎢⎣ − 1 − 1 1⎥⎦ ⎢⎣0 0 1⎥⎦
Tomando transpuesta a ambos lados se obtiene que:
Luego,
(E1E2…EsA)t = Tt
At(E1E2…Es)t = Tt ⎡ 1 −1 0⎤ ⎡1 1 −1⎤ ⎡1 0 0⎤
AtFsFs-1…F1 = Tt ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
D = PtAP = ⎢ 0 1 1⎥ ⎢0 1 − 1⎥ = ⎢0 1 0⎥
⎢⎣ 0 0 0⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣0 0 0⎥⎦
Si A es simétrica entonces se tiene que:

AFsFs-1…F1 = Tt Por consiguiente, A es congruente con la matriz diagonal D.


⇒ E1E2…EsAFsFs-1…F1 = E1E2…EsTt
Teorema 8.1.
Es decir, A es congruente con la matriz E1E2…EsTt. Pero T es
triangular superior, en consecuencia, Tt es triangular inferior y Sean A∈Mnxn(ℜ). A es simétrica si y sólo si A es ortogonalmente congruente
como E1E2…Es logran una matriz triangular superior entonces la con su matriz de autovalores Dλ(A).
matriz E1E2…EsTt es una matriz diagonal. Por lo tanto, si A es
simétrica entonces A es congruente con una matriz diagonal, no Demostración
necesariamente igual a la matriz de autovalores de A.
CN (⇒): Si A es simétrica entonces A es ortogonalmente congruente con su
Ejemplo 8.3. matriz de autovalores Dλ(A).
Consideremos la forma cuadrática del ejemplo 8.1. La matriz simétrica Si A es simétrica entonces por el teorema 7.17. A es diagonalizable
asociada es: ortogonalmente, es decir:

⎡ 1 −1 0⎤ ∃P∈Mnxn(ℜ) (P ortogonal): PtAP = Dλ(A)


⎢ ⎥
A = ⎢ −1 2 1⎥
Luego, A es congruente con Dλ(A).
⎣⎢ 0 1 1⎦⎥

288 289
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

CS (⇐): Si A es ortogonalmente congruente con su matriz de autovalores n

Dλ(A) entonces A es simétrica. ⇒ nS2 = ∑ (X


i =1
i − X) 2

Si A es ortogonalmente congruente con su matriz de autovalores Dλ(A)


entonces: Veamos que nS2 es una forma cuadrática. Se puede demostrar que:

n n
∃P∈Mnxn(ℜ) (P ortogonal): PtAP = Dλ(A)
∑ (X ∑X
2
i − X) 2 = 2
i − nX
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): PPtAPPt = PDλ(A)Pt i =1 i =1
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): A = PDλ(A)Pt
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): At = (PDλ(A)Pt)t Luego,
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): At = (Pt)t(Dλ(A))tPt
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): At = P(Dλ(A))tPt n n

n n n ∑X ∑X i i

∑X ∑X ∑X
2
2 i =1 i =1
Como Dλ(A) es una matriz diagonal entonces es simétrica, luego: i − nX = 2
i − n XX = 2
i −n
i =1 i =1 i =1 n n
∃P∈Mnxn(ℜ) (P ortogonal): At = PDλ(A)Pt n
1 n n
1 t
t

= X i2 −
i =1 n
∑X ∑X
i =1
i
i =1
i = XtX −
n
X (1n )(1n ) t X
Por lo tanto, A = A , es decir, A es simétrica.
1
= X (I n − (1n )(1n ) t )X
t
Definición 8.3. n

Sea A∈Mnxn(ℜ) una matriz simétrica. Se define como índice de A y se denota


⎡ X1 ⎤
por Indice(A) al número de autovalores positivos de A. ⎢ ⎥
X
= X PX; con X = ⎢ 2 ⎥
t
Ejemplo 8.4. ⎢ M ⎥
⎢ ⎥
Consideremos la forma cuadrática del ejemplo 8.1. La matriz simétrica ⎣⎢X n ⎦⎥
asociada es:
Por lo tanto, nS2 es una forma cuadrática con matriz simétrica asociada la
−1 matriz de centraje. Por el ejemplo 7.19., dicha matriz tiene como autovalores
⎡ 1 0⎤
⎢ ⎥ λ1 = 0 con r1 = 1 y λ2 = 1 con r2 = n – 1. En consecuencia, Indice(P) = n – 1.
A = ⎢ −1 2 1⎥
⎢⎣ 0 1 1⎥⎦ Teorema 8.2.

Hallemos sus autovalores. Se puede demostrar que su autopolinomio es: Sea A∈Mnxn(ℜ) una matriz simétrica. Si Rango(A) = r e Indice(A) = p
entonces A es congruente con la matriz diagonal D´(A) definida por:
PA (λ ) = −λ3 + 4λ2 − 3λ
⎡ Ip θ px ( r − p ) θ px ( n − r ) ⎤
⎢ ⎥
Los autovalores de A son λ1 = 1, λ2 = 3 y λ3 = 0. D′(A) = ⎢θ ( r − p ) xp − I r −p θ( r −p) x ( n −r ) ⎥
⎢θ θ( n −r ) x ( r −p) θ ( n − r ) x ( n − r ) ⎥⎦
⎣ ( n − r ) xp
Por lo tanto, Indice(A) = 2.

Ejemplo 8.5. Demostración

Consideremos la Varianza de un grupo de n datos cuantitativos X1, X2, …, Xn: Como A es simétrica entonces por el teorema 8.1., A es ortogonalmente
congruente con su matriz de autovalores o forma canónica de Jordan de A, es
n decir,

2
∑ (X i − X) 2
∃P∈Mnxn(ℜ) (P ortogonal): PtAP = Dλ(A) (1)
S = i =1
n

290 291
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

Supongamos, sin pérdida de generalidad, que en la matriz Dλ(A) los primeros p ⎧ λi


autovalores son los positivos de A, los siguientes r – p autovalores son los ⎪+λ si i = j; i = 1, 2, ..., p
negativos de A y los últimos n – r autovalores son los nulos de A. ⎪ i
⎪ λ si i = j; i = p + 1, ..., r
=⎨ i
Sea C∈Mnxn(ℜ) la matriz definida por: ⎪ − λi
⎪ 0 si i = j; i = r + 1, ..., n
⎪ 0 si i ≠ j
⎧ 1 ⎩
⎪ si i = j; i = 1, 2, ..., r
λi ⎧ 1 si i = j; i = 1, 2, ..., p
⎪ ⎪
⎪ ⎪− 1 si i = j; i = p + 1, ..., r
Cij = ⎨ c si i = j; i = r + 1, ..., n ; c∈ℜ *
=⎨
⎪ 0 si i ≠ j ⎪ 0 si i = j; i = r + 1, ..., n

⎪ ⎩⎪ 0 si i ≠ j

Es claro que C es una matriz diagonal y no singular. Es decir, CtDλ(A)C = D´(A). Se concluye que A es congruente con la matriz
D´(A).
Premultiplicando y postmultiplicando a ambos lados de (1) por Ct y C,
respectivamente se tiene que: Ejemplo 8.6.

Consideremos la forma cuadrática del ejemplo 8.1. La matriz simétrica


CtPtAPC = CtDλ(A)C
asociada es:
(PC)tA(PC) = CtDλ(A)C

Como P y C son no singulares entonces la matriz Q∈Mnxn(ℜ); Q = PC es ⎡ 1 −1 0⎤


⎢ ⎥
también no singular. Luego, A = ⎢ −1 2 1⎥
⎢⎣ 0 1 1⎥⎦
∃Q∈Mnxn(ℜ) (Q no singular): QtAQ = CtDλ(A)C

Por lo tanto, A es congruente con la matriz CtDλ(A)C, cuyo elemento genérico Sus autovalores son λ1 = 1, λ2 = 3 y λ3 = 0. La matriz Dλ(A) es:
es:
⎡1 0 0⎤
⎢ ⎥
⎧⎛ ⎞
2 D λ ( A ) = ⎢0 3 0 ⎥
⎪⎜ 1 ⎟ ⎢⎣0 0 0⎥⎦
⎪⎜ ⎟ λi si i = j; i = 1, 2, ..., p
⎪⎜⎝ λ i ⎟⎠
⎪ 2 Se puede verificar que los autoespacios asociados a dichos autovalores son:

(C t D λ (A)C)ij = ⎨⎛⎜ 1 ⎞⎟
⎪⎜ ⎟ λi si i = j; i = p + 1, ..., r
⎪⎜⎝ λ i ⎟⎠ ⎧ ⎡ 2 ⎤ ⎫
⎪ 2 ⎪ ⎢ 2⎥ ⎪
si i = j; i = r + 1, ..., n ⎪ ⎪
⎪ c .0 V1 (A) = ⎨X ∈ ℜ3 : X = a ⎢ 0 ⎥; a ∈ ℜ* ⎬
⎪ 0 si i ≠ j ⎪ ⎢ ⎥ ⎪
⎩ ⎢ 2 ⎥
⎪ ⎣ 2⎦ ⎪
⎧ λi ⎩ ⎭
⎪λ si i = j; i = 1, 2, ..., p
⎧ ⎡ 6 ⎤ ⎫
⎪ i ⎪ ⎢− ⎪
⎪λ 6 ⎥
=⎨ i si i = j; i = p + 1, ..., r ⎪ ⎢ ⎥ ⎪
⎪ 6 *⎪
⎪ λi V3 (A) = ⎨X ∈ ℜ : X = b ⎢
3
⎥; b ∈ ℜ ⎬
⎢ 3 ⎥
⎪ 0 si i = j; i = r + 1, ..., n ⎪ ⎪
⎪ ⎪ ⎢ 6 ⎥ ⎪
⎩ 0 si i ≠ j ⎪⎩ ⎢⎣ 6⎥ ⎪⎭

292 293
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

⎧ ⎡ 3 ⎤ ⎫ 8.3. REPRESENTACIONES NORMAL Y CANÓNICA DE UNA


⎪ ⎢− 3 ⎥ ⎪ FORMA CUADRÁTICA.
⎪ ⎢ ⎥ ⎪
⎪ 3 *⎪
V0 (A) = ⎨X ∈ ℜ : X = c ⎢ −
3
⎥; c ∈ ℜ ⎬ Teorema 8.3. (Representación Normal de una Forma Cuadrática)
⎢ 3 ⎥
⎪ ⎪
⎪ ⎢ 3 ⎥ ⎪
3 Sean A∈Mnxn(ℜ) una matriz simétrica de rango r y f: ℜn→ℜ una forma
⎪⎩ ⎣⎢ ⎦⎥ ⎪⎭
cuadrática con matriz simétrica asociada A. Si λi∈ℜ*, ∀ i = 1, 2, …, r, tal que
λi es autovalor no nulo de A entonces existe una forma cuadrática Nf: ℜn→ℜ
La matriz P ortogonal que hace a A ortogonalmente congruente con Dλ(A) es: r
definida por Nf(Y1, Y2, …, Yn) = ∑λ Y i i
2
ortogonalmente congruente con f y
⎡ 2 ⎤ i =1
⎢ 2 − 6 − 3
6 3⎥ tal que f = Nf (la forma cuadrática Nf se dice que es la representación normal
⎢ ⎥ de la forma cuadrática f).
P=⎢ 0 6 − 3 ⎥
⎢ 3 3⎥
⎢ 2 6 3 ⎥ Demostración
⎢⎣ 2 6 3 ⎥⎦
Como A es simétrica, por el teorema 8.1., es ortogonalmente congruente con
Se sabe que Indice(A) = 2 y Rango(A) = 2. Luego, la matriz C es: su matriz de autovalores Dλ(A), es decir:

⎡1 ∃P∈Mnxn(ℜ) (P ortogonal): PtAP = Dλ(A)


0 0⎤
⎢ ⎥
C = ⎢0 1 0⎥ ; c∈ℜ* En consecuencia, la forma cuadrática f es ortogonalmente congruente con la
⎢ 3 ⎥ forma cuadrática Nf cuya matriz simétrica asociada es Dλ(A), es decir,
⎣⎢0 0 c ⎦⎥
Nf(Y) = YtDλ(A)Y. Desarrollando se obtiene que:

La matriz Q es: r
Nf(Y1, Y2, …, Yn) = ∑λ Y i i
2

⎡ 2 ⎤ i =1

⎢ 2 − 6 − 3 ⎥ ⎡1
6 3 0 0⎤
⎢ ⎥ ⎢ ⎥ Por otro lado, si X = PY entonces:
Q= ⎢ 0 6 − 3 ⎥ ⎢0 1 0⎥
⎢ 3 3 ⎥ ⎢ 3 ⎥
⎢ 2 6 3 ⎥ f(X) = XtAX = (PY)tA(PY) = YtPtAPY = YtDλ(A)Y = Nf(Y)
⎣⎢0 0 c ⎦⎥
⎣⎢ 2 6 3 ⎦⎥
Ejemplo 8.7.
⎡ 2 ⎤
⎢ 2 − 2 − 3c
6 3 ⎥ La representación normal de la forma cuadrática f del ejemplo 8.1., es:
⎢ ⎥
= ⎢ 0 2 − 3c ⎥
⎢ 3 3 ⎥
Nf (Y1 , Y2 , Y3 ) = Y12 + 3Y22
⎢ 2 2 3c ⎥
⎣⎢ 2 6 3 ⎦⎥
Teorema 8.4. (Representación Canónica de una Forma Cuadrática)
La matriz D´(A) es:
Sean A∈Mnxn(ℜ) una matriz simétrica y f: ℜn→ℜ una forma cuadrática con
matriz simétrica asociada A. Si Indice(A) = p y Rango(A) = r
⎡1 0 0⎤
⎢ ⎥ entonces existe una forma cuadrática Cf: ℜn→ℜ definida por
D′(A) = ⎢0 1 0⎥ p r
⎢⎣0 0 0⎥⎦ Cf(Y1, Y2, …, Yn) = ∑Y
i =1
i
2
− ∑Y
i = p +1
i
2
congruente con f y tal que f = Cf

(la forma cuadrática Cf se dice que es la representación canónica de la forma


A es congruente con D´(A) y se verifica que QtAQ = D´(A). cuadrática f).

294 295
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

Demostración Luego, A es congruente con D´(B) y en consecuencia la forma cuadrática f es


congruente con la forma cuadrática Cg. Análogamente se demuestra que la
Como A es simétrica, Indice(A) = p y Rango(A) = r por el teorema 8.2., es forma cuadrática g es congruente con la forma cuadrática Cf. Por lo tanto, la
congruente con la matriz D´(A), es decir: representación canónica de f es Cg y la representación canónica de g es Cf. En
consecuencia, Cf = Cg.
∃P∈Mnxn(ℜ) (P no singular): PtAP = D´(A)
CS(⇐): Si f y g tienen la misma representación canónica entonces f es
En consecuencia, la forma cuadrática f es congruente con la forma cuadrática congruente con g.
Cf cuya matriz simétrica asociada es D´(A), es decir, Cf(Y) = YtD´(A)Y.
Desarrollando se obtiene que: Si f y g tienen la misma representación canónica entonces A y B son
congruentes con una común matriz D´, es decir:
p r
Cf(Y1, Y2, …, Yn) = ∑Y
i =1
i
2
− ∑Y
i = p +1
i
2
∃P, Q∈Mnxn(ℜ) (P, Q no singulares): PtAP = D´ y QtBQ = D´
⇒ ∃P, Q∈Mnxn(ℜ) (P, Q no singulares): PtAP = QtBQ
⇒ ∃P, Q∈Mnxn(ℜ) (P, Q no singulares): (Qt)-1PtAPQ-1 = B
Por otro lado, si X = PY entonces: ⇒ ∃P, Q∈Mnxn(ℜ) (P, Q no singulares): (Q-1)tPtAPQ-1 = B
⇒ ∃P, Q∈Mnxn(ℜ) (P, Q no singulares): (PQ-1)tA(PQ-1) = B
f(X) = XtAX = (PY)tA(PY) = YtPtAPY = YtD´(A)Y = Cf(Y)
⇒ ∃R∈Mnxn(ℜ) (R no singular) (R = PQ-1): RtAR = B
Ejemplo 8.8.
Luego, A es congruente con B y por lo tanto f es congruente con g.
La representación canónica de la forma cuadrática f del ejemplo 8.1., es:
8.4. CLASIFICACIÓN DE LAS FORMAS CUADRÁTICAS.

Cf (Y1 , Y2 , Y3 ) = Y12 + Y22 Definición 8.4.

Teorema 8.5. Sean A∈Mnxn(ℜ) una matriz simétrica y f: ℜn→ℜ una forma cuadrática con
matriz simétrica asociada A. Se dice que f es:
Sean A, B∈Mnxn(ℜ) matrices simétricas y f, g: ℜn→ℜ formas cuadráticas con
matrices simétricas asociadas A y B, respectivamente. La forma cuadrática f es 1. Definida Positiva si y sólo si ∀ X∈ℜn (X ≠ θnx1): f(X) > 0.
congruente con g si y sólo si f y g tienen la misma representación canónica. 2. Semidefinida Positiva si y sólo si ∀ X∈ℜn: f(X) ≥ 0 y
∃ X∈ℜn(X ≠ θnx1): f(X) = 0.
Demostración 3. Definida Negativa si y sólo si ∀ X∈ℜn (X ≠ θnx1): f(X) < 0.
4. Semidefinida Negativa si y sólo si ∀ X∈ℜn: f(X) ≤ 0 y
CN(⇒): Si f es congruente con g entonces f y g tienen la misma representación ∃ X∈ℜn(X ≠ θnx1): f(X) = 0.
canónica. 5. Indefinida si y sólo si ∃ X1, X2∈ℜn (X1 ≠ θnx1, X2 ≠ θnx1):
f(X1) > 0 y f(X2) < 0.
Si f es congruente con g entonces A es congruente con B. Luego:
Igualmente se dice que la matriz simétrica A adopta la clasificación de su
∃P∈Mnxn(ℜ) (P no singular): PtAP = B (2) forma cuadrática f.

Como B es simétrica entonces por el teorema 8.2., es congruente con la matriz Ejemplo 8.9.
D´(B), es decir:
Sean f1, f2, f3, f4, f5: ℜ3→ℜ definidas por:
∃Q∈Mnxn(ℜ) (Q no singular): QtBQ = D´(B)
∃Q∈Mnxn(ℜ) (Q no singular): B = (Qt)-1D´(B)Q-1 (3) f1 (X1 , X 2 , X 3 ) = 2X12 + 2X1X 2 + 2X 22 − 2X 2 X 3 + 2X 32 − 2X1X 3
Sustituyendo (3) en (2) se tiene que: f 2 (X1 , X 2 , X 3 ) = X12 + 4X1X 2 + 4X 22 + 3X 32

∃P, Q∈Mnxn(ℜ) (P, Q no singulares): PtAP = (Qt)-1D´(B)Q-1 f 3 (X1 , X 2 , X 3 ) = −2X12 − 2X1X 2 − 2X 22 + 2X 2 X 3 − 2X 32 + 2X1X 3
∃P, Q∈Mnxn(ℜ) (P, Q no singulares): QtPtAPQ = D´(B) f 4 (X1 , X 2 , X 3 ) = −X12 − 4X1X 2 − 4X 22 − 3X 32
∃P, Q∈Mnxn(ℜ) (P, Q no singulares): (PQ)tA(PQ) = D´(B)
∃R∈Mnxn(ℜ) (R no singular) (R = PQ): RtAR = D´(B) f 5 (X1 , X 2 , X 3 ) = X12 + X 22 − X 32

296 297
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

1. f1 es definida positiva ya que: Como ∀ X∈ℜ3: f2(X) ≥ 0 y ∃ X∈ℜ3(X ≠ θ3x1): f2(X) = 0 entonces
∀ X∈ℜ3: –f2(X) ≤ 0 y ∃ X∈ℜ3(X ≠ θ3x1): –f2(X) = 0, es decir,
f1 (X1 , X 2 , X 3 ) = 2X12 + 2X1X 2 + 2X 22 − 2X 2 X 3 + 2X 32 − 2X1X 3 ∀ X∈ℜ3: f4(X) ≤ 0 y ∃ X∈ℜ3(X ≠ θ3x1): f4(X) = 0.
= X12 + X12 + 2X1X 2 + X 22 + X 22 − 2X 2 X 3 + X 32 + X 32 − 2X1X 3 5. f5 es indefinida ya que:
= (X12 + 2X1X 2 + X 22 ) + (X 22 − 2X 2 X 3 + X 32 ) + (X12 − 2X1X 3 + X 32 )
Para X1 = 1, X2 = 1 y X3 = 1, f 5 (X1 , X 2 , X 3 ) = 1 > 0 y para X1 = 0,
= (X1 + X 2 ) 2 + (X 2 − X 3 ) 2 + (X1 − X 3 ) 2
X2 = 0 y X3 = 1, f 5 (X1 , X 2 , X 3 ) = −1 < 0.
A su vez, f1(X1, X2, X3) = 0 si y sólo si X1+X2= X2–X3 = X1–X3 = 0,
es decir, si y sólo si: Así, ∃ X1, X2∈ℜ3 (X1 ≠ θ3x1, X2 ≠ θ3x1): f5(X1) > 0 y f5(X2) < 0.

X1 = –X2, X2 = X3 y X1 = X3 Teorema 8.6.


⇒ X1 = –X3 y X1 = X3
⇒ –X3 = X3 Sean A∈Mnxn(ℜ) una matriz simétrica y f: ℜn→ℜ una forma cuadrática con
⇒ 2X3 = 0 matriz simétrica asociada A. f es:
⇒ X3 = 0
1. Definida Positiva si y sólo si A tiene todos sus autovalores
⇒ X1 = 0
positivos, es decir, Indice(A) = Rango(A) = n.
⇒ X2 = 0
2. Semidefinida Positiva si y sólo si A tiene al menos un autovalor
nulo, al menos un autovalor positivo y ningún autovalor negativo,
Luego, f1(X1, X2, X3) = 0 si y sólo si X1 = X2 = X3 = 0. Por lo tanto,
es decir, Indice(A) = Rango(A) < n.
∀ X∈ℜ3 (X ≠ θ3x1): f1(X) > 0. 3. Definida Negativa si y sólo si A tiene todos sus autovalores
negativos, es decir, Indice (A) = 0 y Rango(A) = n.
2. f2 es semidefinida positiva ya que: 4. Semidefinida Negativa si y sólo si A tiene al menos un autovalor
nulo, al menos un autovalor negativo y ningún autovalor positivo,
f 2 (X1 , X 2 , X 3 ) = X12 + 4X1X 2 + 4X 22 + 3X 32 es decir, Indice(A) = 0 y Rango(A) < n.
5. Indefinida si y sólo si A tiene al menos un autovalor positivo y al
= (X1 + 2X 2 ) 2 + 3X 32 > 0.
menos un autovalor negativo, es decir,
0 < Indice(A) < Rango(A) ≤ n.
A su vez, f3(X1, X2, X3) = 0 si y sólo si X1 + 2X2 = 0 y X3 = 0, es
decir, X1 = –2X2 y X3 = 0. Luego, existen X1 = –2, X2 = 1 y X3 = 0 Demostración
para los cuales f2(X1, X2, X3) = 0. En consecuencia, ∀ X∈ℜ3:
f2(X) ≥ 0 y ∃ X∈ℜ3(X ≠ θ3x1): f2(X) = 0. 1. CN(⇒): Si A es definida positiva entonces A tiene todos sus
autovalores positivos, es decir, Indice(A) = Rango(A) = n.
3. f3 es definida negativa ya que:
Sea λ autovalor de A con autovector asociado X. Luego,
f 3 (X1 , X 2 , X 3 ) = −2X12 − 2X1X 2 − 2X 22 + 2X 2 X 3 − 2X 32 + 2X1X 3
AX = λX
= −(2X12 + 2X1X 2 + 2X 22 − 2X 2 X 3 + 2X 32 − 2X1X 3 ) ⇒ XtAX = Xt(λX)
⇒ XtAX = λXtX
= −f1 (X1 , X 2 , X 3 )
Ahora bien, X es autovector de A, es decir, X ≠ θnx1. Por lo tanto,
n
Como ∀ X∈ℜ3 (X ≠ θ3x1): f1(X) > 0 entonces ∀ X∈ℜ3 (X ≠ θ3x1):
–f1(X) < 0, es decir, ∀ X∈ℜ3 (X ≠ θ3x1): f3(X) < 0.
XtX = ∑X
i =1
2
i > 0.

4. f4 es semidefinida negativa ya que: X t AX


⇒ λ=
XtX
f 4 (X1 , X 2 , X 3 ) = −X12 − 4X1X 2 − 4X 22 − 3X 32
Por hipótesis, A es definida positiva, es decir, ∀ X∈ℜn (X ≠ θnx1):
= −(X12 + 4X1X 2 + 4X 22 + 3X 32 ) f(X) = XtAX > 0. En consecuencia.
= −f 2 (X1 , X 2 , X 3 )
λ>0

298 299
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

Luego, A tiene todos sus autovalores positivos, es decir, Luego, A tiene A tiene al menos un autovalor nulo, al menos un
Indice(A) = Rango(A) = n. autovalor positivo y ningún autovalor negativo, es decir,
Indice(A) = Rango(A) < n.
CS(⇐): Si A tiene todos sus autovalores positivos, es decir,
Indice(A) = Rango(A) = n, entonces A es definida positiva. CS(⇐): Si A tiene al menos un autovalor nulo, al menos un
autovalor positivo y ningún autovalor negativo, es decir,
Consideremos la representación normal de la forma cuadrática f, es Indice(A) = Rango(A) < n, entonces A es semidefinida positiva.
decir,
Consideremos la representación normal de la forma cuadrática f, es
r decir,
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
: siendo r = Rango(A)
r
Nf(Y1, Y2, …, Yn) = ∑λ Y i i
2
; siendo r = Rango(A)
Como A tiene todos sus autovalores positivos, es decir, i =1
Indice(A) = Rango(A) = n, entonces:
Como Indice(A) = Rango(A), es decir, los r primeros autovalores de
n A son positivos entonces Nf(Y1, Y2, …, Yn) ≥ 0, ∀ Y1, Y2, …,
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
>0y Yr∈ℜ, mientras que Nf(Y1, Y2, …, Yn) = 0 si y sólo si Yi = 0,
∀ i = 1, 2, …, r y Yi ≠ 0, para algún i = r+1, r+2, …, n. Por lo tanto,
n
∀ Y∈ℜn: Nf(Y) ≥ 0 y ∃ Y∈ℜn(Y ≠ θnx1): Nf(Y) = 0. Además, por
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
= 0 si y sólo si Y1 =Y2 = … = Yn = 0.
el teorema 8.3., Nf(Y) = f(X) para X = PY, es decir, Y = P-1X.
Luego, ∀ P-1X∈ℜn: f(X) ≥ 0 y ∃ P-1X∈ℜn(P-1X ≠ θnx1): f(X) = 0 y
Por lo tanto, ∀ Y∈ℜn (Y ≠ θnx1): Nf(Y) > 0. Además, por el en virtud de que P es no singular entonces ∀ X∈ℜn: f(X) ≥ 0 y ∃
teorema 8.3., Nf(Y) = f(X) para X = PY, es decir, Y = P-1X. Luego, X∈ℜn(X ≠ θnx1): f(X) = 0, es decir, A es semidefinida positiva.
∀ P-1X ∈ℜn (P-1X ≠ θnx1): f(X) > 0 y en virtud de que P es no
singular entonces ∀ X ∈ℜn (X ≠ θnx1): f(X) > 0, es decir, A es 3. CN(⇒): Si A es definida negativa entonces A tiene todos sus
definida positiva. autovalores negativos, es decir, Indice(A) = 0 y Rango(A) = n.

2. CN(⇒): Si A es semidefinida positiva entonces A tiene al menos Sea λ autovalor de A con autovector asociado X. Luego,
un autovalor nulo, al menos un autovalor positivo y ningún
autovalor negativo, es decir, Indice(A) = Rango(A) < n. AX = λX
⇒ XtAX = Xt(λX)
Sea λ autovalor de A con autovector asociado X. Luego, ⇒ XtAX = λXtX

AX = λX Ahora bien, X es autovector de A, es decir, X ≠ θnx1. Por lo tanto,


⇒ XtAX = Xt(λX) n

⇒ XtAX = λXtX
XtX = ∑X
i =1
2
i > 0.

Ahora bien, X es autovector de A, es decir, X ≠ θnx1. Por lo tanto,


X t AX
n
⇒ λ=
t
XX = ∑
i =1
X i2 > 0. XtX

X t AX Por hipótesis, A es definida negativa, es decir, ∀ X∈ℜn (X ≠ θnx1):


⇒ λ=
XtX f(X) = XtAX < 0. En consecuencia.

Por hipótesis, A es semidefinida positiva, es decir, ∀ X∈ℜn: λ<0


f(X) = XtAX ≥ 0 y ∃ X∈ℜn(X ≠ θnx1): f(X) = XtAX = 0. En
consecuencia. Luego, A tiene todos sus autovalores negativos, es decir,
Indice(A) = 0 y Rango(A) = n.
λ=0óλ>0
CS(⇐): Si A tiene todos sus autovalores negativos, es decir,
Indice(A) = 0 y Rango(A) = n, entonces A es definida negativa.

300 301
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

Consideremos la representación normal de la forma cuadrática f, es Consideremos la representación normal de la forma cuadrática f, es
decir, decir,

r r
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
: siendo r = Rango(A) Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
; siendo r = Rango(A)

Como A tiene todos sus autovalores negativos, es decir, Como Indice(A) = 0 y Rango(A) < n, es decir, los r primeros
Indice(A) = 0 y Rango(A) = n, entonces: autovalores de A son negativos entonces Nf(Y1, Y2, …, Yn) ≤ 0,
∀ Y1, Y2, …, Yr∈ℜ, mientras que Nf(Y1, Y2, …, Yn) = 0 si y sólo si
n
Yi = 0, ∀ i = 1, 2, …, r y Yi ≠ 0, para algún i = r+1, r+2, …, n. Por
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
<0y
lo tanto, ∀ Y∈ℜn: Nf(Y) ≤ 0 y ∃ Y∈ℜn(Y ≠ θnx1): Nf(Y) = 0.
Además, por el teorema 8.3., Nf(Y) = f(X) para X = PY, es decir,
n Y = P-1X. Luego, ∀ P-1X∈ℜn: f(X) ≤ 0 y ∃ P-1X∈ℜn(P-1X ≠ θnx1):
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
= 0 si y sólo si Y1= Y2 = … = Yn = 0. f(X) = 0 y en virtud de que P es no singular entonces ∀ X∈ℜn:
f(X) ≤ 0 y ∃ X∈ℜn(X ≠ θnx1): f(X) = 0, es decir, A es semidefinida
negativa.
Por lo tanto, ∀ Y∈ℜn (Y ≠ θnx1): Nf(Y) < 0. Además, por el
teorema 8.3., Nf(Y) = f(X) para X = PY, es decir, Y = P-1X. Luego,
5. CN(⇒): Si A es indefinida entonces A tiene al menos un autovalor
∀ P-1X ∈ℜn (P-1X ≠ θnx1): f(X) < 0 y en virtud de que P es no
positivo y al menos un autovalor negativo, es decir,
singular entonces ∀ X ∈ℜn (X ≠ θnx1): f(X) < 0, es decir, A es
0 < Indice(A) < Rango(A) ≤ n.
definida negativa.

4. CN(⇒): Si A es semidefinida negativa entonces A tiene al menos Sea λ autovalor de A con autovector asociado X. Luego,
un autovalor nulo, al menos un autovalor negativo y ningún
autovalor positivo, es decir, Indice(A) = 0 y Rango(A) < n. AX = λX
⇒ XtAX = Xt(λX)
Sea λ autovalor de A con autovector asociado X. Luego, ⇒ XtAX = λXtX
AX = λX Ahora bien, X es autovector de A, es decir, X ≠ θnx1. Por lo tanto,
⇒ XtAX = Xt(λX) n
⇒ XtAX = λXtX XtX = ∑X
i =1
2
i > 0.
Ahora bien, X es autovector de A, es decir, X ≠ θnx1. Por lo tanto,
n X t AX
⇒ λ=
t
XX = ∑
i =1
X i2 > 0. XtX
Por hipótesis, A es indefinida, es decir, ∃ X1, X2∈ℜn (X1 ≠ θnx1,
X t AX
⇒ λ= X2 ≠ θnx1): f(X1) = (X1)tAX1 > 0 y f(X2) = (X2)tAX2 < 0. En
XtX consecuencia, existen λ1 y λ2 tales que:
Por hipótesis, A es semidefinida negativa, es decir, ∀ X∈ℜn: λ1 > 0 y λ2 < 0
f(X) = XtAX ≤ 0 y ∃ X∈ℜn(X ≠ θnx1): f(X) = XtAX = 0. En
Luego, A tiene A tiene al menos un autovalor positivo y al menos
consecuencia.
un autovalor negativo, es decir, 0 < Indice(A) < Rango(A) ≤ n.
λ=0óλ<0
CS(⇐): Si A tiene al menos un autovalor positivo y al menos un
Luego, A tiene A tiene al menos un autovalor nulo, al menos un autovalor negativo, es decir, 0 < Indice(A) < Rango(A) ≤ n,
autovalor negativo y ningún autovalor positivo, es decir, entonces A es indefinida.
Indice(A) =0 y Rango(A) < n.
Consideremos la representación normal de la forma cuadrática f, es
CS(⇐): Si A tiene al menos un autovalor nulo, al menos un decir,
autovalor negativo y ningún autovalor positivo, es decir, r
Indice(A) = 0 y Rango(A) < n, entonces A es semidefinida
negativa.
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
; siendo r = Rango(A)

302 303
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

Supongamos que Indice(A) = p. Como 0 <Indice(A)<Rango(A) ≤ n, 2. Si A es definida negativa entonces A tiene todos sus autovalores
es decir, los p primeros autovalores de A son positivos, los r – p negativos. Por otra parte, por el teorema 7.13. (lema de Issai Schur),
subsiguientes son negativos y los n – r restantes son nulos entonces si λ1, λ2, …, λn son los autovalores de A entonces
Nf(Y1, Y2, …, Yn) > 0 si y sólo si Yi = 0, ∀ i = p+1, p+2, …, r y n

Yi ≠ 0, para algún i = 1, 2, …, p, mientras que Nf(Y1, Y2, …, Yn)< 0 Traza(A) = ∑λ


i =1
i . Como λi < 0, ∀ i = 1, 2, …, n entonces
si y sólo si Yi = 0, ∀ i = 1, 2, …, p y Yi ≠ 0, para algún
Traza(A) < 0.
i = p+1, p+2, …, r. Por lo tanto, ∃ Y1, Y2∈ℜn (Y1 ≠ θnx1, Y2 ≠ θnx1):
Nf(Y1) > 0 y Nf(Y2) < 0. Además, por el teorema 8.3., Nf(Y) = f(X) 3. Si A es semidefinida positiva entonces A tiene al menos un
autovalor nulo, al menos un autovalor positivo y ningún autovalor
para X = PY, es decir, Y = P-1X. Luego, ∃ P-1X1, P-1X2∈ℜn
negativo. Por otra parte, por el teorema 7.13. (lema de Issai Schur),
(P-1X1 ≠ θnx1, P-2X2 ≠ θnx1): f(X1) > 0 y f(X2) < 0 y en virtud de que n
P es no singular entonces ∃ X1, X2∈ℜn (X1 ≠ θnx1, X2 ≠ θnx1):
f(X1) > 0 y f(X2) < 0, es decir, A es indefinida.
si λ1, λ2, …, λn son los autovalores de A entonces Det(A) = ∏λ
i =1
i .

Como λi = 0 para algún i = 1, 2, …, n y λi > 0 para el resto de los


Observación: autovalores entonces Det(A) = 0 y Traza(A) > 0.
4. Si A es semidefinida negativa entonces A tiene al menos un
Sean A, B∈Mnxn(ℜ) matrices simétricas y f, g: ℜn→ℜ formas cuadráticas con autovalor nulo, al menos un autovalor negativo y ningún autovalor
matrices simétricas asociadas A y B, respectivamente. La forma cuadrática f es positivo. Por otra parte, por el teorema 7.13. (lema de Issai Schur),
congruente con g si y sólo si f y g tienen la misma clasificación. n
si λ1, λ2, …, λn son los autovalores de A entonces Det(A) = ∏λ
i =1
i .
Ejemplo 8.10.
Como λi = 0 para algún i = 1, 2, …, n y λi < 0 para el resto de los
Los autovalores de la matriz A del ejemplo 8.1., son λ1 = 1, λ2 = 3 y λ3 = 0. autovalores entonces Det(A) = 0 y Traza(A) < 0.
Luego, A es semidefinida positiva.
Teorema 8.8.
Ejemplo 8.11.
Sean A∈Mnxn(ℜ) una matriz simétrica y f: ℜn→ℜ una forma cuadrática con
En relación al ejemplo 8.5., la matriz de centraje P es la matriz simétrica matriz simétrica asociada A. f es:
asociada a la forma cuadrática nS2. Dicha matriz tiene como autovalores λ1 = 0
con r1 = 1 y λ2 = 1 con r2 = n – 1. En consecuencia, P es semidefinida positiva. 1. Definida Positiva si y sólo si A es congruente con In.
2. Definida Negativa si y sólo si A es congruente con –In.
Teorema 8.7.
Demostración
Sean A∈Mnxn(ℜ) una matriz simétrica y f: ℜn→ℜ una forma cuadrática con
matriz simétrica asociada A. Si A es: 1. CN(⇒): Si f es definida positiva entonces A es congruente con In.

1. Definida Positiva entonces Det(A) > 0 y Traza(A) > 0. Si f es definida positiva entonces A tiene todos sus autovalores
2. Definida Negativa entonces Traza(A) < 0. positivos, es decir, Indice(A) = Rango(A) = n. En consecuencia, por
3. Semidefinida Positiva entonces Det(A) = 0 y Traza(A) > 0. el teorema 8.2., A es congruente con In.
4. Semidefinida Negativa entonces Det(A) = 0 y Traza(A) < 0.
CS(⇐): Si A es congruente con In entonces A es definida positiva.
Demostración
Si A es congruente con In entonces por el teorema 8.5., las formas
1. Si A es definida positiva entonces A tiene todos sus autovalores cuadráticas asociadas a A y In, respectivamente tienen la misma
positivos. Por otra parte, por el teorema 7.13. (lema de Issai Schur), representación canónica. Es claro que la representación canónica de
n la forma cuadrática asociada a In, digamos g(Y) = YtY es Cg(Y1,
si λ1, λ2, …, λn son los autovalores de A entonces Det(A) = ∏λ i n

n
i =1 Y2, …, Yn) = ∑Y
i =1
i
2
. Por lo tanto, esta función es también la

y Traza(A) = ∑λ
i =1
i . Como λi > 0, ∀ i = 1, 2, …, n entonces representación canónica de A. En consecuencia, A tiene todos sus
autovalores positivos, es decir, A es definida positiva.
Det(A) > 0 y Traza(A) > 0. 2. CN(⇒): Si f es definida negativa entonces A es congruente con –In.

304 305
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

Si f es definida negativa entonces A tiene todos sus autovalores


negativos, es decir, Indice(A) = 0 y Rango(A) = n. En Demostración
consecuencia, por el teorema 8.2., A es congruente con –In.
CS(⇐): Si A es congruente con –In entonces A es definida negativa. Es claro que Rango(A) ≤ min{m, n}, es decir, n ≤ min{m, n}. Luego, n < m.

Si A es congruente con –In entonces por el teorema 8.5., las formas 1. Sea f: ℜm→ℜ la forma cuadrática cuya matriz simétrica asociada es
cuadráticas asociadas a A y –In, respectivamente tienen la misma AtA. Luego,
representación canónica. Es claro que la representación canónica de
la forma cuadrática asociada a –In, digamos g(Y) = –YtY es n
n f(X) = XtAtAX = (AX)t(AX) = YtY = ∑Y i
2
; con Y = AX
Cg(Y1, Y2, …, Yn) = ∑
i =1
i
2
(−1)Y . Por lo tanto, esta función es i =1

también la representación canónica de A. En consecuencia, A tiene Por lo tanto, f(X) ≥ 0 y es tal que f(X) = 0 si y sólo si Y = θmx1.
todos sus autovalores negativos, es decir, A es definida negativa. Pero, Y = θmx1 implica que AX = θmx1, lo cual es un SEL
homogéneo y por la Eliminación de Gauss-Jordan, como
Teorema 8.9. Rango(A) = n entonces el SEL AX = θmx1 tiene una única solución,
la cual es la solución trivial X = θnx1. Luego, f(X) = θmx1 si y sólo si
Sean A∈Mnxn(ℜ) una matriz simétrica y f: ℜn→ℜ una forma cuadrática con X = θnx1. Por consiguiente, ∀ X∈ℜn (X ≠ θnx1): f(X) > 0, es decir, f
matriz simétrica asociada A. A es definida positiva si y sólo si existe una es definida positiva y en consecuencia AtA es definida positiva.
matriz B∈Mnxn(ℜ) no singular tal que A es una matriz Grammian de la forma
A = BtB. 2. Sea f: ℜn→ℜ la forma cuadrática cuya matriz simétrica asociada es
AAt. Luego,
Demostración
n
CN(⇒): Si A es definida positiva entonces existe una matriz B∈Mnxn(ℜ) no
singular tal que A es una matriz Grammian de la forma A = BtB.
f(X) = XtAAtX = (AtX)t(AtX) = YtY = ∑Y
i =1
i
2
; con Y = AtX

Como A es definida positiva entonces por el teorema 8.8., A es congruente con Por lo tanto, f(X) ≥ 0 y es tal que f(X) = 0 si y sólo si Y = θnx1.
la matriz In, es decir: Pero, Y = θnx1 implica que AtX = θnx1, lo cual es un SEL
homogéneo y por la Eliminación de Gauss-Jordan, como
∃ P∈Mnxn(ℜ) (P no singular): PtAP = In Rango(At) = Rango(A) = n < m entonces el SEL AtX = θnx1 no tiene
⇒ ∃ P∈Mnxn(ℜ) (P no singular): A = (Pt)-1InP-1 una única solución, es decir, existen soluciones distintas de la
⇒ ∃ P∈Mnxn(ℜ) (P no singular): A = (P-1)tP-1 solución trivial X = θmx1. Luego, f(X) ≥ 0 y ∃ X∈ℜn (X ≠ θmx1):
⇒ ∃ P, B∈Mnxn(ℜ) (P, B no singulares) (B = P-1): A = BtB f(X) = 0. Por consiguiente, ∀ X∈ℜn: f(X) ≥ 0 y ∃ X∈ℜn (X ≠ θmx1):
f(X) = 0, es decir, f es semidefinida positiva y en consecuencia AAt
CS(⇐): Si existe una matriz B∈Mnxn(ℜ) no singular tal que A es una matriz es semidefinida positiva.
Grammian de la forma A = BtB entonces A es definida positiva.
8.5. VECTOR DERIVADA O GRADIENTE DE UNA FORMA
Por hipótesis: CUADRÁTICA.

∃ B∈Mnxn(ℜ) (B no singular): A = BtB Definición 8.5.


⇒ ∃ B∈Mnxn(ℜ) (B no singular): (Bt)-1AB-1 = In
⇒ ∃ B∈Mnxn(ℜ) (P no singular): (B-1)tAB-1 = In Sea f: ℜn→ℜ. Se define como vector derivada o vector gradiente de f respecto
⇒ ∃ P, B∈Mnxn(ℜ) (P, B no singulares) (P = B-1): PtAP = In de X y se denota por ∇f (X) al vector ∇f (X ) ∈ ℜ n cuyo elemento genérico es

Luego, A es congruente con In y por el teorema 8.8., A es definida positiva. ∂f


(∇f (X))i = .
∂X i
Teorema 8.10.
Ejemplo 8.12.
Sean A∈Mmxn(ℜ). Si Rango(A) = n entonces:
Sea f: ℜ3→ℜ definida por f(X1, X2, X3) = 2X12 + 3X1X 22 − 5X1X 3 + 3X 22 − 5X 32 .
1. AtA es definida positiva.
2. AAt es semidefinida positiva. Luego,

306 307
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

n n
∂f
⎡4X1 + 3X − 5X 3 ⎤
2
2
(∇f (X1 , X 2 ,..., X n ))i =
∂X i
= 2A ii X i + 2 ∑
j=1 ( i ≠ j)

A ijX j = 2 A ijX j
j=1
⎢ ⎥
∇f (X1 , X 2 , X 3 ) = ⎢ 6X1X 2 + 6X 22 ⎥
⎢ − 5X − 10X ⎥ En consecuencia,
⎣ 1 3 ⎦

⎡ n ⎤
Teorema 8.11. (Gradiente de una Función Lineal)

⎢ 2 A1 jX j ⎥
⎢ j=1 ⎥ ⎡ A11 A12 L A1n ⎤ ⎡ X1 ⎤
Sea f: ℜ →ℜ definida por f (X ) = X Y = Y X ; Y∈ℜ . Entonces se cumple
n t t n ⎢ n ⎥ ⎢ ⎥⎢ ⎥
que:

∇f ( X ) = ⎢ ∑
2 A 2 jX j ⎥ ⎢A 21 A 22 L A 2 n ⎥ ⎢ X 2 ⎥ = 2AX
⎥ = 2⎢ M
j=1 M M ⎥⎢ M ⎥
⎢ M ⎥ ⎢ ⎥⎢ ⎥
∇f ( X ) = Y ⎢ n ⎥ ⎣⎢A n1 A n 2 L A nn ⎦⎥ ⎣⎢X n ⎦⎥

⎢ 2 A njX j ⎥
⎣⎢ j=1 ⎦⎥
Demostración
Ejemplo 8.13.
Por hipótesis, f (X) = X t Y = Y t X , es decir:
La derivada de la forma cuadrática del ejemplo 8.1., es:
n
f(X1, X2, …, Xn) = ∑ Yi Xi ⎡ 2X1 − 2X 2 ⎤ ⎡ X1 − X 2 ⎤ ⎡ 1 −1 0⎤ ⎡ X1 ⎤
i =1 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥
∇f (X1 , X 2 , X 3 ) = ⎢4X 2 − 2X1 + 2X 3 ⎥ = 2⎢− X1 + 2X 2 + X 3 ⎥ = 2 ⎢ − 1 2 1⎥ ⎢X 2 ⎥ = 2AX
⎢⎣ 2X 3 + 2X 2 ⎥⎦ ⎢⎣ X 2 + X3 ⎥
⎦ ⎢⎣ 0 1 1⎥⎦ ⎢⎣ X 3 ⎥⎦
Luego,
Ejemplo 8.14.
∂f
(∇f (X1 , X 2 ,..., X n ))i = = Yi En relación al ejemplo 8.5., el vector gradiente de la forma cuadrática nS2 =
∂X i
f(X) = XtPX es:

Por consiguiente,
∇f (X) = 2PX = 2X̂
∇f ( X ) = Y

Teorema 8.12. (Gradiente de una Forma Cuadrática)

Sean A∈Mnxn(ℜ) una matriz simétrica y f: ℜn→ℜ una forma cuadrática con
matriz simétrica asociada A. Entonces se cumple que:

∇f (X) = 2AX

Demostración

Por hipótesis:

n n
f(X) = XtAX, es decir, f(X1, X2, …, Xn) = ∑∑ A X X
i =1 j=1
ij i j

n n n
Como A es simétrica entonces f(X1, X2, …, Xn) = ∑A X
i =1
ii
2
i +2 ∑ ∑A X X
i =1 j=1 (i < j)
ij i j
.

Luego,

308 309
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

EJERCICIOS PROPUESTOS. 7. La ecuación aY2+bY+a = 0, con a, b ∈ ℜ* puede tener dos raíces


reales iguales, dos raíces reales distintas o dos raíces imaginarias.
1. Sean f1, f2, f3, f4 funciones fi: ℜ3→ℜ; i = 1, 2, 3, 4 y f5, f6 funciones Clasifique en cada caso la forma cuadrática f: ℜ2→ℜ definida por:
fi: ℜ4→ℜ; i = 5, 6 definidas por:
f(X1, X2) = bX12 + 4aX1X2 + bX22
1.1. f1(X1, X2, X3)= X12 + X22 + 4X32 –2X1X2 + 2X1X3 – 2X2X3.
1.2. f2(X1, X2, X3)= X12 + 3X22 + 4X32 + 4X1X3. 8. Sean f: ℜn→ℜ y g: ℜn→ℜ formas cuadráticas con matrices simétricas
1.3. f3(X1, X2, X3)= (X1 + X2)2 + (2X1 – X3)2 – X12 – 2X22 + 6X2X3. asociadas A y B, respectivamente. Determine si las siguientes
1.4. f4(X1, X2, X3)= 2X12 + 9X22 – X32 – 4X1X3. proposiciones son verdaderas o falsas, justificando con una
1.5. f5(X1, X2, X3, X4)= X12+2X22+X32+2X42–2X1X3+2X1X4+ demostración en el caso que las considere verdaderas y con un
4X2X3 –2X2X4. contraejemplo en el caso que las considere falsas:
1.6. f6(X1, X2, X3, X4)= 2X12+2X22+3X32+X42+2X1X2–2X1X3+
2X2X3+2X3X4. 8.1. Si Traza(A) > 0 entonces A es definida positiva.
8.2. Si Traza(A) < 0 entonces A es definida negativa.
Demuestre que cada una de estas funciones son formas cuadráticas y 8.3. Si A es definida negativa entonces Traza(A)Det(A) > 0.
determine en cada caso la respectiva matriz simétrica asociada. 8.4. Si A tiene n autovectores linealmente independientes
entonces A es definida negativa.
2. En el conjunto Mnxn(ℜ) se define la relación R por 8.5. Si A es indefinida y n = 2 entonces A tiene n autovectores
(∀ A, B ∈ Mnxn(ℜ)) A R B si y sólo si A es congruente a B. L.I.
Demuestre que R es una relación de equivalencia en Mnxn(ℜ). 8.6. Si A es definida positiva y B es indefinida entonces
Rango(AB) = Rango(A).
3. Demuestre que la forma cuadrática f1 del ejercicio 1 es congruente con
las formas cuadráticas gi: ℜ3→ℜ; i = 1, 2 definidas por 9. Sea la forma cuadrática f: ℜ2→ℜ definida por:
g1(X1, X2, X3) = X12 + 3X32 y g2(X1, X2, X3) = X12 + X32.
f(X1, X2) = aX12 + 2bX1X2 + cX22; a, b, c∈ℜ
4. Demuestre que la forma cuadrática f4 del ejercicio 1 es
ortogonalmente congruente con la forma cuadrática g1: ℜ3→ℜ y tal que f es definida negativa. Demuestre que:
congruente con la forma cuadrática g2: ℜ3→ℜ definidas por
1 9.1. a < 0.
g1(X1, X2, X3)= –2X12+3X22+9X22 y g2(X1, X2, X3)= X12+9X22 9.2. ac > 0.
2 9.3. a + c < 0.
1 2 9.4. ac – b2 > 0.
– X3 .
3
10. Sea X∈Mnxp(ℜ) una matriz de rango columna completo. Demuestre
5. Clasifique cada una de las formas cuadráticas del ejercicio 1 y que:
determine además representación normal y canónica de cada una de
ellas. 10.1. La matriz XtX es no singular.
10.2. La matriz A = k2(In – X(XtX)-1Xt) es semidefinida positiva,
con k ≠ 0.
6. Sean X1, X2, …, Xn un conjunto de datos cuantitativos con media X y
desviación estándar S. Sean f1, f2, f3 funciones fi: ℜn→ℜ; i = 1, 2, 3
11. Sea la forma cuadrática f: ℜn→ℜ con matriz simétrica asociada A de
definidas por:
rango q, q < n. Demuestre que:

6.1. ()
f1(X1, X2, …, Xn) = X .
2
11.1. Si f es semidefinida positiva entonces existe una matriz

f (X , X , …, X ) = n (X ) .
2 P∈Mqxn(ℜ) de rango q tal que A = PtP.
6.2. 2 1 2 n 11.2. Si f es semidefinida negativa entonces existe una matriz
6.3. f3(X1, X2, …, Xn) = S2. Q∈Mqxn(ℜ) de rango q tal que A = –QtQ.

Demuestre que cada una de estas funciones son formas cuadráticas. 12. Sean A∈Mnxn(ℜ) y B∈Mnxp(ℜ) tales que A es definida positiva y
Clasifíquelas y determine además representación normal y canónica en Rango(B) = p. Demuestre que la forma cuadrática f: ℜp→ℜ con
cada caso. matriz simétrica asociada BtA-1B es definida positiva.

310 311
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS

13. Sea la forma cuadrática f: ℜn→ℜ, tal que f(X) = XtA1X + XtA2X, ⎡S12 S12 L S1n ⎤
donde A2A1 = θnxn para i = 1,2 Ai es idempotente y rango(Ai) = ki. ⎢ 2 ⎥
S S2 L S2 n ⎥
Clasifique la forma cuadrática f si se sabe que: V = ⎢⎢ 12
M M M ⎥
⎢ ⎥
13.1. k1 + k2 < n. ⎢⎣S1n
2
S2 n L Sn ⎥⎦
13.2. k1 + k2 = n.
Es definida positiva.
14. Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ), tales que Rango(A) = n, ABA = A y
BA es simétrica. Demuestre que si P∈Mnxn(ℜ) es no singular entonces 20. Determine el vector gradiente de todas las formas cuadráticas del
la matriz Pt(BA)P es definida positiva. ejercicio 1.
15. Sean A∈Mpxq(ℜ) y B∈Mqxq(ℜ) tales que Rango(A) = q, B es simétrica 21. Sean X∈Mnxp(ℜ) una matriz de rango columna completo, Y∈ℜn y
y B – AtA es definida positiva. Demuestre que la matriz B es definida
h: ℜp→ℜ definida por h(Z) = (Y–XZ)t(Y–XZ). Determine el vector Z
positiva.
tal que ∇h ( Z) = θ px1 .
16. Sea f la forma cuadrática f: ℜn→ℜ con matriz simétrica asociada A.
Demuestre que:

16.1. A es definida positiva si y sólo si los determinantes de todos


sus menores principales son positivos.
16.2. A es definida negativa si y sólo si los determinantes de todos
sus menores principales de orden par son positivos y los
determinantes de todos sus menores principales de orden
impar son negativos.

17. Sea f la forma cuadrática f: ℜ2→ℜ definida por:

1 ⎡ X1 2rX1X 2 X 2 ⎤
2 2
f(X1, X2) = 2 ⎢ 2
− + 2⎥
(1 − r ) ⎣⎢ S1 S1S2 S2 ⎦⎥

con |r| < 1 y S1S2 > 0.

Demuestre que f es definida positiva.

18. Sean X1 y X2 variables aleatorias con varianzas S12 y S22,


respectivamente y S12 la covarianza entre X1 y X2. Demuestre que si ∀
Y1, Y2 ∈ℜ no nulos simultáneamente, VAR(Y1X1 + Y2X2) > 0
entonces la matriz V definida por:

⎡S 2
S12 ⎤
V=⎢ 1 2⎥
⎣⎢S12 S2 ⎦⎥

Es definida positiva.

19. Sean X1, X2, …, Xn variables aleatorias con varianzas S12, S22, …, Sn2,
respectivamente y Sij la covarianza entre Xi y Xj,i = 1, 2, .., n;
j = 1, 2, …, n. Demuestre que si ∀ Y1, Y2, …, Yn∈ℜ no nulos
simultáneamente, VAR(Y1X1 + Y2X2 + … + YnXn) > 0 entonces la
matriz V definida por:

312 313
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Capítulo 9
INTERPRETACIONES
GEOMÉTRICAS

9.1. INTRODUCCIÓN.

En este capítulo se presenta el tema del Álgebra Lineal que mayor contribución
tiene en el Análisis de Datos Multivariante como lo son las Interpretaciones
Figura 9.1.
Geométricas. Se exponen sus principales tópicos asociados como lo son la
Representación Gráfica de los Vectores Filas y Columnas de una Matriz de
El gráfico obtenido es un gráfico de dispersión. A primera vista se observan 3
Datos, Ángulo entre 2 vectores y Rectas y Planos en ℜn, y los Subespacios de grupos de elementos: {C, B}, {A, F, G} y {E, D}. Sin embargo, no se dispone
Mejor Ajuste Mínimo Cuadrático, herramienta que justamente es la que de mayor información para caracterizar esos grupos. Para ello, consideremos la
permite la reducción de datos. matriz de datos centrada:
9.2. REPRESENTACIÓN GRÁFICA DE LOS VECTORES FILAS Y
VECTORES COLUMNAS DE UNA MATRIZ DE DATOS. ⎡ −0,43 −1,57 ⎤
⎢ ⎥
⎢ − 2,43 − 0,57 ⎥
Sea X∈Mnxp(ℜ) una matriz de datos. Dicha matriz tiene n vectores filas que ⎢ − 4,43 1,43 ⎥
puede representarse gráficamente como puntos en ℜp; estos puntos representan ⎢ ⎥
X̂ = ⎢ 4,57 6,43⎥
a los elementos. Igualmente tiene p vectores columnas que pueden ⎢ 2,57
representarse gráficamente como puntos en ℜn; estos puntos representan a las 0,43⎥
⎢ ⎥
variables. Si p = 1, 2, 3 es posible representar gráficamente a los elementos ⎢ − 0,43 − 2,57⎥
pero si p ≥ 4 esto resulta imposible. De la misma forma, si n = 1, 2, 3 es ⎢ ⎥
⎣ 0,57 − 3,57 ⎦
posible representar gráficamente a las variables pero si n ≥ 4 esto resulta
imposible. De allí que es más factible representar gráficamente a los elementos
La representación gráfica de los 7 vectores filas (elementos) sobre ℜ2 se puede
de una matriz de datos que a las variables siempre y cuando se midan a lo
apreciar en la figura 9.2.:
sumo 3 variables.

Ejemplo Aplicado 9.1.

Consideremos la matriz de datos cuyas columnas son las 2 primeras columnas


de la matriz de datos del ejemplo aplicado 1.3.:

⎡12 11⎤
⎢ ⎥
⎢10 12 ⎥
⎢08 14 ⎥
⎢ ⎥
X = ⎢17 19 ⎥
⎢15 13 ⎥
⎢ ⎥
⎢12 10 ⎥
⎢ ⎥
⎣13 09⎦ Figura 9.2.

En este caso se pueden representar gráficamente los 7 vectores filas En este caso el punto (0,0) representa el punto de medias de las 2 columnas de
(elementos) sobre ℜ2 (Figura 9.1.). X̂ , de manera que los 4 cuadrantes del gráfico anterior tienen características
particulares:

315
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Primer Cuadrante: cercanos a D son E y A (aunque lejos), los más cercanos a E son A y F, los
más cercanos a F son A y B y los más cercanos a G son F y A. Esto también
Son los alumnos cuyas notas en el 1er y 2do parcial están por encima de la permite construir grupos internamente homogéneos y externamente
media. En este caso, están los alumnos E y D. heterogéneos.

Segundo Cuadrante: Sin embargo, en la práctica no es común encontrar matrices de datos con sólo
2 columnas. Si tuviesen 3 columnas aún es posible representar gráficamente
Son los alumnos cuya nota en el primer parcial está por debajo de la media los elementos pero todavía se torna complicado analizar los grupos de
pero cuya nota en el segundo parcial está por encima de la media. En este caso, elementos que se originan. Si tuviesen 4 o más columnas entonces es
está solamente el alumno C. imposible representar gráficamente los elementos. El objetivo fundamental de
este capítulo es justamente resolver este problema a través del Álgebra Lineal.
Tercer Cuadrante:
9.3. ÁNGULO ENTRE 2 VECTORES, RECTAS Y PLANOS EN ℜn.
Son los alumnos cuyas notas en el 1er y 2do parcial están por debajo de la
media. En este caso, están los alumnos B, A y F. Teorema 9.1.

Cuarto Cuadrante: Sean X, Y∈ℜn. Entonces el ángulo φ entre los vectores X e Y es tal que:

Son los alumnos cuya nota en el primer parcial está por encima de la media XtY
pero cuya nota en el segundo parcial está por debajo de la media. En este caso, Cos(φ) =
está solamente el alumno G. X Y

De esta manera se aprecian 4 grupos de elementos plenamente caracterizados. Demostración

Otra forma de hacer este análisis es considerando la distancia euclídea entre 2 2


Por el teorema 5.2., d 2 (X, Y) = X + Y − 2 < X, Y > . Si X, Y∈ℜn
elementos, digamos los elementos i-ésimo y s-ésimo:
entonces:
d((Xi)t, (Xs)t) = ||(Xi)t – (Xs)t||
2 2
d 2 ( X , Y ) = X + Y − 2X t Y (1)
De hecho, es la forma más útil cuando se trata de matrices con 3 o más
columnas. Por ejemplo, la distancia entre los elementos B y D es:
Gráficamente se puede apreciar en la figura 9.3.:

d ((X 2 ) , (X 4 ) ) = (10 − 17) + (12 − 19) = 9,90


t t 2 2

Se puede determinar la matriz simétrica de distancias entre elementos cuyo


elemento genérico es:
d(X, Y)
Dij = d((Xi)t, (Xj)t) ||X||

En este caso:
φ
||Y||
⎡0,00 2,24 5,00 9,43 3,61 1,00 2,24 ⎤
⎢ ⎥
⎢2,24 0,00 2,83 9,90 5,10 2,83 4,24 ⎥
⎢5,00 2,83 0,00 10,30 7,07 5,66 7,07 ⎥
⎢ ⎥
D = ⎢9,43 9,90 10,30 0,00 6,32 10,30 10,77 ⎥
⎢ 3,61 5,10 7,07 6,32 0,00 4,24 4,47 ⎥ Figura 9.3.
⎢ ⎥
⎢1,00 2,83 5,66 10,30 4,24 0,00 1,41 ⎥
⎢ ⎥ Por la ley del coseno se tiene que:
⎣2,24 4,24 7,07 10,77 4,47 1,41 0,00 ⎦
2 2
d 2 (X, Y) = X + Y − 2 X Y Cos(φ) (2)
Se puede observar claramente que los elementos más cercanos a A son F y B,
los más cercanos a B son A y F, los más cercanos a C son B y A, los más

316 317
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Igualando (1) y (2) se tiene que: El vector (X – Y) se dice que es el vector director de la recta LYX. Si Y = θnx1
entonces la recta LθX es una recta en ℜn que pasa por el origen θnx1. La figura
2 2
X + Y − 2X t Y = X + Y − 2 X Y Cos(φ)
2 2
9.4., muestra una recta LθX en ℜ3.

⇒ 2 X Y Cos(φ) = 2X t Y
⇒ X Y Cos(φ) = X t Y
XtY
⇒ Cos(φ) =
X Y
LθX
Teorema 9.2.

Sea X∈Mnxp(ℜ) una matriz de datos. Entonces el coseno del ángulo φ entre los
vectores X̂ h y X̂ j es:

Cos(φ) = rhj
Figura 9.4.
Siendo rhj el coeficiente de correlación lineal de Pearson entre las variables
h-ésima y j-ésima. Ejemplo 9.1.

Demostración Sean X, Y∈ℜ3 los vectores:


n n
1. (X̂ h ) t X̂ j = ∑ X̂
i =1
ih X̂ ij = ∑ (X
i =1
ih − X h )(X ij − X j ) = nShj ⎡ −1 ⎤
⎢ ⎥
⎡1⎤
⎢ ⎥
X = ⎢ 2⎥ , Y = ⎢0 ⎥
n n ⎢⎣− 2⎥⎦ ⎢⎣3⎥⎦
2. X̂ h = (X̂ h ) t X̂ h = ∑ (X̂
i =1
ih )2 = ∑ (Xi =1
ih − X h ) 2 = nS2h = n Sh
En este caso,
n n
3. X̂ j = (X̂ j ) t X̂ j = ∑ (X̂ )
i =1
ij
2
= ∑ (X
i =1
ij − X j ) 2 = nS2j = n S j ⎡ −2 ⎤
⎢ ⎥
X – Y = ⎢ 2⎥
⎢⎣ − 5⎥⎦
Luego,

nShj Shj Luego,


Cos(φ) = = = rhj
n Sh n S j Sh S j
⎡1⎤ ⎡ −2 ⎤
⎢ ⎥ ⎢ ⎥
LYX = {Z∈ℜ3: Z = ⎢0⎥ + c ⎢ 2⎥ ; c∈ℜ}
Es decir, el coseno del ángulo φ entre los vectores X̂ h y X̂ j coincide con el ⎢⎣3⎥⎦ ⎢⎣ − 5⎥⎦
coeficiente de correlación lineal de Pearson entre las variables h-ésima y
j-ésima.
Ejemplo 9.2.
Definición 9.1.
Sea X∈ℜ3 el vector:
Sean X, Y∈ℜ tales que X ≠ Y. Se define como recta que pasa por X e Y, y se
n

denota por LYX al conjunto: ⎡ 1⎤


⎢ ⎥
X = ⎢ − 2⎥
LYX = {Z∈ℜn: Z = Y + c(X – Y); c∈ℜ} ⎢⎣ 3⎥⎦

318 319
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

La recta que pasa por el origen θ3x1 y el vector X es: En este caso, W = LθX. Es claro que una base de LθX esta formada por un solo
vector y es {X}. Por lo tanto, una base ortonormal de LθX es {V}, siendo
⎡ 1⎤ X X
⎢ ⎥ V= = . Luego,
LθX = {Z∈ℜ3: Z = c ⎢− 2⎥ ; c∈ℜ} X XtX
⎢⎣ 3⎥⎦
Pr oy LYθX = < Y, V > V
Teorema 9.3.
⇒ Pr oy LYθX = (Y t V)V
Sea X∈ℜ . Entonces la Recta LθX es un subespacio de ℜ .
n n
X X
⇒ Pr oy LYθX = (Y t ( ))
Demostración XtX XtX
YtX
Por definición: ⇒ Pr oy LYθX = 2
X
⎛ XtX ⎞
⎜ ⎟
LθX = {Z∈ℜn: Z = cX; c∈ℜ} ⎝ ⎠
YtX
Veamos que LθX es un subespacio de ℜn. ⇒ Pr oy LYθX = X
XtX
1. Es claro que si c = 0 entonces Z = 0X = θnx1. Luego, θnx1∈LθX. (
⇒ Pr oy YLθX = ψ YLθX X )
2. Sean Z1, Z2∈LθX. Luego, existen c1, c2∈ℜ tales que Z1 = c1X y
Z2 = c2X. Luego, dZ1 + Z2 = d(c1X) + c2X, es decir, En la figura 9.5., se puede apreciar gráficamente la proyección ortogonal de un
dZ1 + Z2 = (dc1 + c2)X; d∈ℜ. Por lo tanto, (dZ1 + Z2)∈LθX. vector Y sobre una recta LθX en ℜ3.

Por consiguiente, LθX es un subespacio de ℜn.

Teorema 9.4.

Sean X, Y∈ℜn. Entonces la Proyección Ortogonal de Y sobre la Recta LθX es:

( )
Pr oy YLθX = ψ YLθX X Y Y − Pr oy LYθX LθX

Pr oy LYθX

Siendo ψ ( Y
L θX ) YtX
= t la componente de proyección.
XX

Demostración

Por el teorema 9.3., LθX es un subespacio de ℜn. Es claro que V = ℜn es un Figura 9.5.
espacio euclídeo con el producto interno usual < X, Y > = X t Y , ∀ X, Y∈ℜn.
Se aprecia claramente que (Y − Pr oy YLθX ) ⊥ Pr oy YLθX .
Por definición de proyección ortogonal (definición 5.6.):
Observaciones:
p
Pr oy YW = ∑ < Y, V
j=1
j
> Vj
1. Por el teorema 5.11., d2(Y, LθX) = d2(Y, Pr oy LYθX ), es decir:
YtX
Siendo {V1, V2, …, Vp} una base ortonormal de W. d2(Y, LθX) = d2(Y, X)
XtX
YtX YtX
= (Y – t
X )t(Y – t X )
XX XX

320 321
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

YtX YtX ⎡ 1⎤
= (Yt – ( X )t)(Y – t X ) ⎢ ⎥
t
XX XX 2 1]⎢− 2⎥ [3
YtX t YtX YtX ⎢⎣ 3⎥⎦ 2
= (Yt – ( )X )(Y – t X ) (ψ LYθX ) = t = =
⎡ 1⎤ 14
t
XX XX XX

= YtY – Yt (
YtX YtX YtX YtX
)X – ( t )X t Y + ( t )X t t X
[1 − 2 3]⎢⎢− 2⎥⎥
t
XX XX XX XX ⎢⎣ 3⎥⎦
YtX t YtX YtX YtX
= YtY – ( t
)Y X – ( t ) Y t X + ( t ) t ) X t X
XX XX XX XX Luego,
YtX YtX
= YtY – 2 ( t )Y t X + ( t )Y t X
XX XX ⎡ 1⎤ ⎡ 1 7 ⎤
2 ⎢ ⎥ ⎢ 2 ⎥
YX t t Pr oy Y
L θX = (ψ Y
L θX )X = ⎢− 2⎥ = ⎢ − ⎥
= YtY – ( )Y X 14 ⎢ 7⎥
XtX ⎣⎢ 3⎦⎥ ⎢⎣ 3 7 ⎥⎦
YtX t XtX
= YtY – ( )Y X( t )
XtX XX Además,
YtX
= YtY – ( t ) 2 X t X
XX d2(Y, LθX) = YtY – (ψ LYθX ) 2 X t X
= Y Y – (ψ
t Y 2
L θX ) XX t
⎡3⎤ 2 ⎡ 1⎤
⎢ ⎥ ⎛ 2⎞ ⎢ ⎥
2. 2
d ( Pr oy Y
, θnx1) = || Pr oy Y 2
|| = ( Pr oy Y t
) Pr oy Y = [3 2 1]⎢2⎥ − ⎜ ⎟ [1 − 2 3]⎢− 2⎥
L θX L θX L θX L θX
⎢⎣1 ⎥⎦ ⎝ 14 ⎠
⎢⎣ 3⎥⎦
(( ) ) ( )
= ψ YLθX X ψ YLθX X
t

⎛ 4 ⎞
= (ψ ) X X
Y 2 t = 14 − ⎜ ⎟14
L θX ⎝ 196 ⎠
2
Ejemplo 9.3. = 14 −
7
96
Consideremos la recta LθX del ejemplo 9.2.: =
7
⎡ 1⎤
⎢ ⎥ Finalmente,
LθX = {Z∈ℜ3: Z = c ⎢ − 2⎥ ; c∈ℜ}
⎣⎢ 3⎦⎥
2
⎛ 2 ⎞ 2
d 2 (Pr oy LYθX , θ3 x1 ) = (ψ LYθX ) 2 X t X = ⎜ ⎟ .14 =
⎡ 3⎤ ⎝ 14 ⎠ 7
⎢ ⎥
Calculemos la proyección ortogonal del vector Y = ⎢ 2⎥ sobre la recta LθX:
Definición 9.2.
⎣⎢1 ⎦⎥
Sean X0, X1, X2, …, Xp∈ℜn vectores L.I. Se define como plano de dimensión
Pr oy LYθX = (ψ LYθX )X p+1 en ℜn generado por los vectores X0, X1, X2, …, Xp y se denota por Ppn+1 al
conjunto:
La componente de proyección es:
p
Ppn+1 = {Z ∈ ℜ n : Z = X 0 + ∑ B X ; B ∈ ℜ, ∀j = 1, 2, ..., p}
j=1
j
j
j

322 323
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Si X0 = θnx1 entonces se dice que el plano pasa por el origen, es generado por
los vectores L.I. X1, X2, …, Xp y se denota por Ppn . Es claro que si Z∈ Ppn+1
entonces Z es combinación lineal de los vectores X0, X1, X2, …, Xp.

Por otro lado,


Pp3
p
X2
Si Z∈ P n
p +1 entonces Z = X + 0
∑B X j
j
, es decir:


j=1 X1
p
X
⎡1⎤
⎢ ⎥
⎢ B1 ⎥
[
Z = X0 X1 X2
⎢ ⎥
]
L X B2 ⎥ = XB
p ⎢

⎢ M ⎥
⎢B ⎥ Figura 9.6.
⎣ p⎦
Ejemplo 9.4.
⎡1⎤
⎢ ⎥ Sean X1, X2∈ℜ3 los vectores:
⎢ B1 ⎥
Siendo X∈Mnx(p+1)(ℜ) = [X0 X X …. X ] y B∈ℜ = ⎢B 2 ⎥
1 2 p p+1
⎢ ⎥ ⎡ −1 ⎤ ⎡1⎤
⎢ M ⎥ ⎢ ⎥ ⎢ ⎥
⎢B ⎥ X1 = ⎢ 2⎥ , X2 = ⎢0 ⎥
⎣ p⎦ ⎢⎣− 2⎥⎦ ⎢⎣3⎥⎦

De modo que:
El plano de dimensión 2 en ℜ3 que pasa por el origen y es generado por los
vectores X1 y X2 es:
Ppn+1 = {Z ∈ ℜ n : Z = XB; X ∈ M nx(p +1) (ℜ), B ∈ ℜ p +1}
⎡ −1 ⎤ ⎡1⎤
En particular, si p = 1 entonces: ⎢ ⎥ ⎢ ⎥
P23 = {Z ∈ ℜ3 : Z = B1 ⎢ 2⎥ + B2 ⎢0⎥; B1 , B2 ∈ ℜ} = {Z ∈ ℜ3 : Z = XB; B ∈ ℜ 2 }
⎢⎣ − 2 ⎥⎦ ⎢⎣3⎥⎦
P1n+1 = {Z ∈ ℜ n : Z = X 0 + B1X1 ; B1 ∈ ℜ} = L X 0X1

Siendo:
Si además X0 = θnx1 entonces:

⎡ −1 1⎤
Ppn = {Z ∈ ℜ n : Z = XB; X ∈ M nxp (ℜ), B ∈ ℜ p } ⎢ ⎥ ⎡B ⎤
X = ⎢ 2 0⎥ y B = ⎢ 1 ⎥
⎢⎣ − 2 3⎥⎦ ⎣B 2 ⎦
Para p = 1 entonces:

P1n = {Z ∈ ℜ n : Z = B1X1 ; B1 ∈ ℜ} = L θX1 Teorema 9.5.

Sean X1, X2, …, Xp∈ℜn tales que los vectores X1, X2, …, Xp son L.I. Entonces
En la figura 9.6., se puede apreciar un plano Pp3 . el plano Ppn que pasa por el origen y es generado por los vectores
X1, X2, …, Xp es un subespacio de ℜn.

Demostración

Por definición:

324 325
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

p
En este caso, W = Ppn . Es claro que como {X1, X2, …, Xp} es L.I., entonces es
Ppn = {Z ∈ ℜ n : Z = ∑ B X ; B ∈ ℜ, ∀j = 1, 2, ..., p}
j=1
j
j
j
una base de Ppn . Por consiguiente, para determinar una base ortonormal
aplicamos el proceso de ortonormalización de Gram-Schmidt sobre
Veamos que Ppn es un subespacio de ℜn. {X1, X2, …, Xp}. Así se obtienen los vectores V1, V2, …, Vp de modo que
existen escalares Cji; i = 1, 2, …, p; j = 1, 2, …, p tales que:
1. Es claro que si B1 = B2 = … = Bp = 0 entonces Z = θnx1. Luego,
p
θnx1∈ Ppn . Vj = ∑Ci =1
ji X
i

2. Sean Z , Z ∈
1 2
Ppn . Luego, existen Bij∈ℜ; i = 1, 2; j = 1, 2, …, p tales
p p Por lo tanto,
que Z1 = ∑B
j=1
1 jX
j
y Z2 = ∑B j=1
2 jX
j
. Luego,
p p p
p p Pr oy YPn = ∑ (< Y, ∑ C ji X
i
>( ∑C ji X
i
))
dZ 1
+ 2
Z = d ∑
j=1
B1 jX + j
∑j=1
B2 jX ,j
es decir, p
j=1 i =1 i =1

p
Ahora bien,
dZ1 + Z2 = ∑ (dB
j=1
1j + B 2 j )X j ; d∈ℜ. Por lo tanto, (dZ1 + Z2)∈ Ppn .
p p p p
< Y, ∑C
i =1
ji X
i
>= ∑C
i =1
ji < Y, X i > = ∑Ci =1
ji ( Y
t
Xi ) = ∑C
i =1
ji ( X ) Y = Dj
i t

Por consiguiente, Ppn es un subespacio de ℜ . n

Luego,
Teorema 9.6.
p p
Sean Y, X1, X2, …, Xp∈ℜn tales que los vectores X1, X2, …, Xp son L.I. Pr oy YPn =
p
∑ ( D (∑ C
j=1
j
i =1
ji X
i
))
Entonces la Proyección Ortogonal de Y sobre el plano Ppn generado por los
p p
vectores X1, X2, …, Xp es: ⇒ Pr oy YPn =
p
∑∑ D C
j=1 i =1
j ji X
i

Pr oy YPn = HY p p
p
⇒ Pr oy YPn =
p
∑∑ D C
i =1 j=1
j ji X
i

Siendo:
⎡ p ⎤
1. X = [ X1 X2 L Xp ] ⎢ D jC j1 ⎥
⎢ j=1 ⎥

2. H = X (X t X) −1 X t . Esta matriz se denomina Matriz de Proyección. ⎢ p ⎥
⇒ Pr oy YPn = [ X1 X2
⎢ D jC j2 ⎥
L Xp ] ⎢
j=1 ⎥

Demostración p
⎢ M ⎥
⎢ p ⎥
Por el teorema 9.5., Ppn es un subespacio de ℜn. Es claro que V = ℜn es un ⎢ D jC jp ⎥
⎢⎣ j=1 ⎥⎦

espacio euclídeo con el producto interno usual < X, Y > = X Y , ∀ X, Y∈ℜ . t n
⎡ C11 C 21 L C p1 ⎤ ⎡ D1 ⎤
Por definición de proyección ortogonal (definición 5.6.): ⎢ ⎥⎢ ⎥
C12 C 22 L C p 2 ⎥ ⎢D 2 ⎥
⇒ Pr oy YPn = [ X1 X2 L Xp ] ⎢
p ⎢ M M M ⎥⎢ M ⎥
∑ < Y, V
p

Pr oy YW = j
>V j
⎢ ⎥⎢ ⎥
j=1 ⎣⎢C1p C 2 p L C pp ⎦⎥ ⎣⎢D p ⎦⎥

Siendo {V1, V2, …, Vp} una base ortonormal de W.

326 327
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ p ⎤
⎡ C11 C 21

⎢ C1i (X ) Y ⎥
L C p1 ⎤ ⎢ i =1
i t


⎢ ⎥ p
L C p 2 ⎥ ⎢ C (X i ) t Y ⎥
⇒ Pr oy YPn = [ X1 X2 L X ]
C
p ⎢ 12
⎢ M
C 22
⎢ ∑ 2i ⎥ Pp3
p M M ⎥ ⎢ i =1 ⎥
⎢ ⎥⎢ M ⎥
⎣⎢C1p C2p L C pp ⎦⎥ ⎢ p ⎥
∑ i t
⎢ C pi (X ) Y ⎥ X2
Y (Y − Pr oy YP3 )
p

⎣⎢ i =1 ⎦⎥


Y
Pr oy
⎡ p ⎤ Pp3

⎡ C11 C 21

L C p1 ⎤ ⎢ i =1
i t
⎢ C1i (X ) ⎥

Xp X1
⎢ ⎥ p
L C p 2 ⎥ ⎢ C (X i ) t ⎥
⇒ Pr oy YPn =[X1
X 2
L X ]⎢
C12
⎢ M
p
C 22
⎢ ∑ 2i ⎥Y
p M M ⎥ ⎢ i =1 ⎥
⎢ ⎥⎢ M ⎥
⎣⎢C1p C2p L C pp ⎦⎥ ⎢ p ⎥
∑ i t
⎢ C pi (X ) ⎥
⎣⎢ i =1 ⎦⎥ Figura 9.7.

⇒ Pr oy YPn = Luego,
p

⎡ C11 C 21 L C p1 ⎤ ⎡ C11 C12 L C1p ⎤ ⎡ (X ) ⎤ 1 t

⎢ ⎥⎢ ⎥⎢ ⎥ (Y – Pr oy YPn )tXj = 0
C12 C 22 L C p 2 ⎥ ⎢C 21 C 22 L C 2 p ⎥ ⎢(X 2 ) t ⎥ p

[X 1
X 2
L X ]⎢
p
Y
⎢ M M M ⎥⎢ M M M ⎥⎢ M ⎥ ⇒ (Y – Pr oy YPn )tXj = 0
⎢ ⎥⎢ ⎥⎢ p t ⎥ p

⎣⎢C1p C 2 p L C pp ⎦⎥ ⎣⎢C p1 C p 2 L C pp ⎦⎥ ⎣⎢(X ) ⎦⎥


⇒ Y X – ( Pr oy YPn )tXj = 0
t j
p
⎡ p 2 p p


⎢ r =1
C r1 ∑ ∑C
r =1
r1C r 2 L ∑
r =1
C r1C rp ⎥
⎥ ⎡ ( X1 ) t ⎤
⇒ YtXj = ( Pr oy YPn )tXj
p
p ⎢ p p p
⎥⎢ 2 t ⎥
⇒ Pr oy YPn = [ X1 X 2
p
L X ] ⎢ C r 2 C r1
⎢ r =1
∑ ∑r =1
C 2r 2 L ∑
r =1
C r 2 C rp ⎥ ⎢(X ) ⎥
⎥⎢ M ⎥
Y
Por lo tanto,
⎢ M M M ⎥⎢ p t ⎥
⎢ p p p ⎥ ⎢⎣(X ) ⎥⎦
⎢ C rp C r1
⎢⎣ r =1
∑ ∑C
r =1
rp C r 2 L ∑ r =1
C 2rp ⎥
⎥⎦
[ Y t X1 Y t X 2 L Y t X p ] = [ (Pr oy PYn ) t X1 (Pr oy PYn ) t X 2 L (Pr oy PYn ) t X p ]
p p p

⇒ Yt[ X1 X 2 L X p ] = (Pr oy PYn ) t [ X1 X2 L Xp ]


⇒ Pr oy YPn = XCXtY; siendo:
p

⇒ Y X = (Pr oy ) X
p t Y t
Ppn

⎡ p p p
⎤ ⇒ (YtX)t = ( (Pr oy PYn ) t X)t

⎢ r =1

C 2r1 ∑C
r =1
r1 Cr2 L ∑C
r =1
r1 C rp ⎥

p

⇒ X Y = X Pr oy YPn
t t
⎢ p p p

∑ ∑ ∑
p

C=⎢
C r 2 C r1 C 2r 2 L C r 2 C rp ⎥
⎢ r =1 r =1 r =1 ⎥
una matriz de orden pxp ⇒ XtY = XtXCXtY
⎢ M M M ⎥
⎢ p p p ⎥ Como X tiene sus p columnas L.I. entonces Rango(X) = p. En consecuencia,

⎢ C rp C r1 ∑C rp Cr2 L ∑ C 2rp ⎥ por el teorema 8.10., la matriz XtX es definida positiva y por lo tanto no
⎣⎢ r =1 r =1 r =1 ⎦⎥ singular. Luego,

Por otra parte, (XtX)-1XtY = CXtY


⇒ ((XtX)-1 – C)XtY = θpx1
Pr oy YPn ∈ Ppn ⇒ (Y – Pr oy YPn ) ⊥ Ppn
p p
Como XtY ≠ θpx1 entonces (XtX)-1 – C = θpxp. Por consiguiente, C = (XtX)-1. De
⇒ (Y – Pr oy YPn ) ⊥ Xj; ∀ j = 1, 2, …, p (Ver figura 9.7. en ℜ3) esta forma:
p

328 329
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

n
Pr oy YPn = XCXtY = X(XtX)-1XtY = HY
p = YtY − ∑ (Y X )
j=1
t j 2

Observaciones: n 2
= YtY − ∑ ⎛⎜⎝ ψ
j=1
Y
L j
θX
⎞⎟

1. Por el teorema 5.11., d2(Y, Ppn ) = d2(Y, Pr oy YPn ), es decir:
p

2. d2( Pr oy YPn , θnx1) = ( Pr oy YPn )t Pr oy YPn = (HY)t(HY) = YtHtHY =


p p p
d2(Y, Ppn ) = d2(Y, HY)
YtHY. Es decir, el cuadrado de la longitud de la proyección
= (Y – HY)t(Y – HY)
ortogonal de Y sobre el plano Ppn es una forma cuadrática con
= ((In – H)Y)t(In – H)Y
= Yt(In – H)t(In – H)Y matriz simétrica asociada H, la cual por ser simétrica e idempotente
= YtQtQY de orden nxn y de rango p es semidefinida positiva.

Siendo Q = In – H. Las matrices Q y H son simétricas e 3. Si los vectores X1, X2, …, Xp forman una base ortonormal de ℜn
idempotentes (ver Ejercicio 23, Capítulo 1). entonces XtX = Ip. Luego, H = XXt y Q = Ip – XXt. En
consecuencia:
Por lo tanto:
3.1. Pr oy YPn = HY = XXtY.
p
d2(Y, Ppn ) = YtQY
3.2. d (Y, Ppn ) = Yt(Ip – XXt)Y.
2

Es decir, el cuadrado de la distancia de un vector Y al plano Ppn es 3.3. d2( Pr oy YPn , θnx1) = YtXXtY.
p

una forma cuadrática con matriz simétrica asociada Q, la cual por


ser simétrica e idempotente de orden nxn y de rango n – p es Ejemplo 9.5.
semidefinida positiva.
Consideremos el plano P23 del ejemplo 9.3.:
En particular, si los p vectores columnas que generan el plano Ppn

forman una base ortonormal de ℜn entonces X j X j = 1 , ( )


t
⎡ −1 ⎤
⎢ ⎥
⎡1⎤
⎢ ⎥
∀ j = 1, 2, …, p y XtX = Ip. Luego, Q = In – H = In – XXt y P23 = {Z ∈ ℜ3 : Z = B1 ⎢ 2⎥ + B2 ⎢0⎥; B1 , B2 ∈ ℜ}
YtX j ⎢⎣ − 2 ⎥⎦ ⎢⎣3⎥⎦
ψ LY j = = Y t X j . En consecuencia:
θX
( ) t
Xj Xj ⎡ 3⎤
⎢ ⎥
Calculemos la proyección ortogonal del vector Y = ⎢2⎥ sobre el plano P23 :
d2(Y, Ppn ) = YtQY = Yt(In – XXt)Y ⎢⎣1 ⎥⎦
= YtY – YtXXtY
n En este caso,
= YtY − Yt ∑ X (X ) Y
i =1
i i
t

n ⎡ −1 1⎤
⎢ ⎥
= YtY − Yt ∑ X (X ) Y
j=1
j j t
X = ⎢ 2 0⎥
⎢⎣ − 2 3⎥⎦
n
= Y Y−
t
∑ Y X (X ) Y
j=1
t j j t

Luego,
n
= YtY − ∑ (Y X )((X ) Y)
t j j t
⎡ −1 1⎤
j=1 ⎡ − 1 2 − 2⎤ ⎢ ⎥ ⎡ 9 − 7⎤
XtX = ⎢ ⎥ ⎢ 2 0⎥ = ⎢ ⎥
⎣ ⎦ ⎢ − 2 3⎥ ⎣− 7 10 ⎦
n 1 0 3
= YtY − ∑ (Y X )(Y X )
j=1
t j t j
⎣ ⎦

330 331
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Se puede determinar que: 9.4. SUBESPACIOS DE MEJOR AJUSTE MÍNIMO CUADRÁTICO.

⎡10 7 ⎤ Definición 9.3.


(X t X) −1 = ⎢ 41 41⎥
⎢7 9 ⎥ Sea X∈Mnxp(ℜ) tal que Rango(X) = p. Se define como subespacio de mejor
⎣ 41 41⎦
ajuste mínimo cuadrático de dimensión q (q < p) al conjunto de vectores filas
La matriz de proyección es: de X y se denota por SMA(X) q al plano generado por vectores ortonormales
n

−1
V1, V2, …, Vq que verifica que ∑d 2
(X i , SMA(X) q ) es mínima.
H = X (X X) X
t t i =1

⎡ − 1 1⎤ ⎡10 ⎡ 5 −6 12 ⎤ Observaciones:
7 ⎤ ⎡ − 1 2 − 2⎤ ⎢ 41 41 41⎥
⎢ ⎥ ⎢ 41 41⎥
⇒ H = ⎢ 2 0⎥ ⎥ = ⎢ − 41 2 ⎥
6 40

⎢ 7 9 ⎥ 1 0 3⎦ ⎢ 41 41 ⎥ d 2 (X i , SMA (X) q ) = d 2 (X i , Pr oySMAX(iX )q )
⎢⎣− 2 3⎥⎦ ⎣ 41 41⎦ ⎣ ⎢⎣ 12 41 2 37 ⎥ 1. Como entonces el
41 41⎦
subespacio de mejor ajuste mínimo cuadrático SMA(X) q es aquel
Por lo tanto, n
que verifica que ∑d
i =1
2
(X i , Pr oy SMAX( Xi ) q ) es mínima.
⎡ 5 −6 12 ⎤ ⎡3⎤ ⎡15 ⎤
⎢ 41 41 41⎥ ⎢ 41⎥
Pr ow Y
= HY = ⎢ − 6 40 2 ⎥ ⎢2⎥ = ⎢64 ⎥ 2. Si X es una matriz de datos entonces independientemente del valor
P23
⎢ 41 41 41 ⎥ ⎢ ⎥ ⎢ 41⎥
⎢⎣ 12 41 2 37 ⎥ ⎢⎣1 ⎥⎦ ⎢77 ⎥ de p es posible representar los vectores filas (elementos) de X sobre
41 41⎦ ⎣ 41⎦ un plano de dimensión q (q = 1, 2, 3).

Por otra parte, Teorema 9.7.

Sea X∈Mnxp(ℜ) tal que Rango(X) = p. Entonces se cumple que:


⎡1 0 0⎤ ⎡⎢ −6 12 ⎤ ⎡ 36 − 12 ⎤
5 6
41 41 41⎥ ⎢ 41 41 41⎥
⎢ ⎥ ⎢ 6 2 ⎥=⎢
Q = I 3 − H = ⎢0 1 0 ⎥ − − 40 6 1 −2 ⎥ SMA (X)1 = L θV1
41 41 41 ⎥ ⎢ 41 41 41 ⎥
⎢⎣0 0 1⎥⎦ ⎢⎢ 12 2 37 ⎥ ⎢ − 12 −2 4 ⎥
⎣ 41 41 41⎦ ⎣ 41 41 41 ⎦
Siendo V1 el autovector normalizado de la matriz XtX asociado con su mayor
autovalor.
En consecuencia,
Demostración
⎡ 36 6 − 12 ⎤ ⎡3⎤
⎢ 41 41 41⎥
⎢ ⎥
d2(Y, P23 ) = [3 2 1] ⎢ 6
324
1 − 2 ⎥ ⎢ 2⎥ = Por definición, el subespacio de mejor ajuste mínimo cuadrático SMA(X)1 es
⎢ 41 41 41 ⎥ ⎢ ⎥ 41 el plano de dimensión 1 generado por un vector normalizado V1 con la
⎢⎣ − 12 41 − 2 41 4 ⎥ ⎣1 ⎦
41 ⎦ n
condición (V1)tV1 = 1 que verifica que ∑d
i =1
2
(X i , SMA(X)1 ) es mínima. Es
Finalmente,
claro que SMA(X)1 es la recta L θV1 (ver figura 9.8., en ℜ3).
⎡15 ⎤
⎢ 41⎥ 250
d ( Pr oy , θ3x1) = Y HY = [3 2 1]⎢64 ⎥ =
2 Y
P23
t

⎢ 41⎥ 41
⎢⎣77 41⎥⎦

332 333
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

∑ ((V ) X )((X ) V )
n
1 t t 1
= i i
i =1

⎛ n ⎞

= (V1 ) t ⎜⎜ X i (X i ) t ⎟⎟V1
⎝ i =1 ⎠
… d(X1 , L θV1 ) L θV1 ⎛ ⎡ (X1 )t ⎤ ⎞
X1 ⎜ ⎢ ⎥⎟
Xn ⎜ (X )t ⎟
= (V1 ) t ⎜ [X1 X 2 L X n ]⎢⎢ 2 ⎥⎥ ⎟V1
Pr oy LX 21 Pr oy LX11
Pr oy LX n1
θV
d(X 2 , L θV1 )
θV
⎜ ⎢
M ⎟

⎜ t ⎟
⎣ n ) ⎥⎦ ⎠
⎢ (
θV

X2 ⎝ X
d (X n , L θV1 )
= (V1 ) t X t XV1

Figura 9.8. n 2
Es decir, ∑ ⎛⎜⎝ ψ
i =1
Xi
L
θV1
⎞⎟ es una forma cuadrática con matriz simétrica asociada

Ahora bien,
XtX. Por lo tanto, el subespacio de mejor ajuste mínimo cuadrático de
d 2 (X i , SMA(X)1 ) = d 2 (X i , LθV1 ) = d 2 (X i , Pr oy LXi 1 ) dimensión 1 es la recta L θV1 que maximiza la forma cuadrática (V1)tXtXV1
θV
con la restricción (V1)tV1 = 1. Para hallar el vector V1 utilizaremos el método
de los multiplicadores de Lagrange:
Por la observación 1 del teorema 9.4.:
Definimos las funciones:
( )
2
d 2 (X i , Pr oy L Xi1 ) = (X i ) t X i − ⎛⎜ ψ L Xi1 ⎞⎟ V1 V1
t

θV ⎝ θV ⎠ f(V1) = (V1)tXtXV1 y g(V1) = (V1)tV1 – 1

( ) t
Pero V1 V1 = 1 . Luego,
La expresión (V1)tV1 es una forma cuadrática con matriz simétrica asociada Ip.

Luego,
2
d 2 (X i , Pr oy L Xi1 ) = (X i ) t X i − ⎛⎜ ψ L Xi1 ⎞⎟
θV ⎝ θV ⎠ ∇ f ( V1 ) = λ ∇ g ( V1 )
n n n 2
⇒ 2X t XV1 = λ(2I p V1 )
⇒ ∑d 2
(X i , Pr oy LXi 1 ) =
θV
∑ (X ) X i
t
i – ∑ ⎛⎜⎝ ψ Xi
L
θV1
⎞⎟

i =1 i =1 i =1
⇒ 2X t XV1 = 2λV1
n ⇒ X t XV1 = λV1
El término ∑i =1
(X i ) t X i es constante. Por lo tanto, minimizar ⇒ X t XV1 = λV1
n n
Por lo tanto, el multiplicador de Lagrange λ es autovalor de la matriz XtX con
2

∑ d (X , Pr oy
i =1
2
i
Xi
L
θV1
) equivale a maximizar ∑ ⎛⎜⎝ ψ
i =1
Xi
L
θV1
⎞⎟ , expresión que puede
⎠ autovector asociado V1. Además, si premultiplicamos a ambos lados de la
escribirse de la siguiente manera: igualdad anterior por (V1)t se obtiene que:

(V1 ) t X t XV1 = (V1 ) t (λV1 ) = λ (V1 ) t V1 = λ


⎛ (X i )t V1 ⎞
2
n 2 n

∑i =1
⎛⎜ ψ X i ⎞⎟
⎝ L θV1 ⎠
= ∑⎜
⎜ 1 t ⎟
i =1 ⎝ ( V ) V ⎠
⎟ ⇒ f(V1) = λ

Es decir, maximizar f(V1) sujeto a (V1)tV1 = 1 equivale a maximizar λ, siendo


∑ ((X ) V )
n
t 1 2
= i éste último autovalor de XtX con autovector asociado V1. En consecuencia, el
i =1 vector V1 es el autovector normalizado asociado al mayor autovalor de la

∑ ((X ) V )((X ) V )
n
t 1 t 1
matriz XtX.
= i i
i =1

334 335
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Observación: Algebra Matemática Introducción a Teoría de la


Alumno
Lineal II IV la Economía Probabilidad II
Las filas de X en lugar de representarse en ℜ se pueden representar en el
p
A 1 -1 -1 1
subespacio de ajuste mínimo cuadrático P1p (X ) = L θV1 a través de su B 1 0 -1 0
C 1 0 -1 1
proyección ortogonal sobre dicha recta, específicamente a través de su
D 1 -1 -1 1
componente de proyección, la cual toma la siguiente forma:
E 0 0 -1 1
F 1 0 0 0
ψ LXi 1 =
(Xi )t V1 = (Xi )t V1 = (X )t V1 G 1 0 -1 1
i
θV (V1 ) t V1 1 H 1 0 -1 1
( )
⎡ V1 1 ⎤ I 1 1 -1 1

] )
(
⎢ 1 ⎥ J 1 -1 0 0
[ ∑ X (V )
p
L X ip ⎢⎢
V 2⎥ 1 K 1 0 0 1
= X i1 X i 2 =
M ⎥
ij j
⎢ 1 ⎥ j=1
( )
⎢⎣ V p ⎥⎦ Determinemos SMA (X)1 .

Es decir, la componente de proyección de la i-ésima fila de X sobre la recta de En este caso, la matriz de datos es:
mejor ajuste mínimo cuadrático es una combinación lineal de las mediciones
de las p variables sobre el i-ésimo elemento. De tal forma que el coeficiente ⎡1 −1 −1 1⎤
( )
V1 j mide la contribución de la j-ésima variable en la componente. Esto

⎢1 0 −1 0⎥

⎢1 0 −1 1⎥
permite caracterizar intervalos de la recta de mejor ajuste mínimo cuadrático ⎢ ⎥
para así caracterizar los grupos de elementos de X cuyas componentes de ⎢1 −1 −1 1⎥
proyección se encuentran en dichos intervalos. ⎢0 0 −1 1⎥
⎢ ⎥
Para obtener el vector de componentes de proyección se hace lo siguiente: X = ⎢1 0 0 0⎥
⎢ ⎥
⎢1 0 −1 1⎥
⎡ψ LX1 ⎤ ⎡ ⎢1 0 −1 1⎥
t 1
⎤ ⎡ t
⎤ ⎢ ⎥
⎢ XθV1 ⎥ ⎢ (X1 ) V ⎥ ⎢ (X1 ) ⎥
⎢ψ L 1 ⎥ ⎢ ( X 2 ) V ⎥ ⎢ ( X 2 ) t ⎥ 1
2 t 1 ⎢1 1 −1 1⎥
ψ LX1 = ⎢ θV ⎥ = = V = XV1 ⎢1 −1 0⎥
M ⎢ M ⎥ ⎢ M ⎥ ⎢
0

θV
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ψ X n ⎥ ⎢(X ) t V1 ⎥ ⎢(X ) t ⎥ ⎣⎢1 0 0 1⎦⎥
⎣⎢ LθV1 ⎦⎥ ⎣ n ⎦ ⎣ n ⎦
Se puede verificar que:
Ejemplo Aplicado 9.2.
⎡ 10 −2 −7
7⎤
En el período II-2004 se le consultó a un grupo de once (11) alumnos del curso ⎢ ⎥
−2 41 − 1⎥
de Algebra Lineal II su apreciación acerca del nivel de dificultad de las cuatro XtX = ⎢
(4) materias del 4º semestre de la EECA, es decir, Algebra Lineal II, ⎢− 7 18 − 7⎥
⎢ ⎥
Matemática IV, Introducción a la Economía y Teoría de la Probabilidad II.
⎣⎢ 7 −1 − 7 8 ⎦⎥
Para cada respuesta se adoptó la siguiente escala:

1: Nivel de dificultad alto. Igualmente se puede constatar que los autovalores y autovectores
0: Nivel de dificultad medio. ortonormalizados de la matriz XtX son:
-1: Nivel de dificultad bajo.
λ1 = 23 , λ 2 = 4 , λ 3 = 2 y λ 4 = 1
Los resultados de la consulta se muestran a continuación:
⎡ 0,6131⎤ ⎡ −0,2294 ⎤ ⎡ 0,7559⎤ ⎡ 0 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
− 0,1226 0,9177 0,3780 ⎥ y V =⎢ 0 ⎥
V =⎢
1 ⎥, V =⎢
2 ⎥, V =⎢
3 4
⎢ − 0,5518⎥ ⎢ − 0,2294⎥ ⎢ 0,3780⎥ ⎢0,7071⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣⎢ 0,5518⎦⎥ ⎢⎣ 0,2294⎦⎥ ⎣⎢ − 0,3780 ⎦⎥ ⎣⎢0,7071⎦⎥

336 337
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Luego, ⎡1 −1 −1 1⎤ ⎡ 1,8393 ⎤
⎢ ⎥ ⎢ ⎥
⎢1 0 −1 0⎥ ⎢ 1,1649 ⎥
⎡ 0,6131⎤
⎢ ⎥ ⎢1 0 −1 1⎥ ⎢1,7167 ⎥
− 0,1226 ⎥ ⎢ ⎥ ⎢ ⎥
SMA(X)1 = L θV1 = {Z∈ℜ : Z = c ⎢
4
; c∈ℜ} ⎢1 −1 −1 1⎥ ⎢ 1,8393 ⎥
⎢− 0,5518⎥ ⎡ 0,6131⎤
⎢ ⎥ ⎢0 −1 1⎥ ⎢ 1,1036 ⎥

0
⎥ ⎢ ⎥ ⎢ ⎥
⎣⎢ 0,5518⎦⎥ ψ LX 1 = XV = ⎢1
1
0 0 0⎥ ⎢ − 0,1226 ⎥ = ⎢ 0,6131⎥
Por lo tanto, θV
⎢ ⎥ ⎢− 0,5518⎥ ⎢ ⎥
⎢1 0 −1 1⎥ ⎢ ⎥ ⎢1,7167 ⎥
⎢1 ⎢⎣ 0,5518⎦⎥
ψ LX i 1 = 0,6131Xi1 – 0,1226Xi2 – 0,5518Xi3 + 0,5518Xi4 0 −1 1⎥ ⎢1,7167 ⎥
⎢ ⎥ ⎢ ⎥
θV
⎢1 1 −1 1⎥ ⎢ 1,5941 ⎥
⎢1 −1 0 0⎥ ⎢0,7357 ⎥
Analicemos la estructura de esta componente: ⎢ ⎥ ⎢ ⎥
⎢⎣1 0 0 1⎥⎦ ⎢⎣ 1,1649 ⎥⎦
1. Las mayores contribuciones a ψ LXi 1 son 0,6131 y 0,5518, las
θV
El gráfico de dichas componentes sobre la recta de mejor ajuste mínimo
cuales se corresponden con las materias Álgebra Lineal II y Teoría cuadrático se puede apreciar en la figura 9.9.
de la Probabilidad II.
2. Se puede apreciar que ψ LXi 1 es máxima cuando Xi1 = 1, Xi2 = –1,
θV

Xi3 = –1 y Xi4 = 1, mientras que es mínima cuando Xi1 = –1,


Xi2 = 1, Xi3 = 1 y Xi4 = –1. Los valores máximo y mínimo son
1,8893 y –1,8893, respectivamente.
3. El valor intermedio es 0, el cual se obtiene cuando Xij = 0, Figura 9.9.
∀ j = 1, 2, 3, 4.
Se puede apreciar que todas las componentes son positivas. El mínimo valor
4. Componentes de proyección tendientes a 1,8893 indicarán que son
encontrado es de 0,6131. Esto indica que prácticamente todos los alumnos
alumnos que perciben que Álgebra Lineal II y Teoría de la
consideran que la materia Álgebra Lineal II tiene un nivel de dificultad alto.
Probabilidad II tienen un alto nivel de dificultad (principalmente
Asimismo se aprecia que 2 alumnos (A y D) tienen los valores máximos de las
Álgebra Lineal II) y Matemática IV e Introducción a la Economía
componentes; esto es porque consideran que Álgebra Lineal II y Teoría de la
tienen un nivel de dificultad bajo (principalmente Introducción a la
Probabilidad II tienen un alto nivel de dificultad y Matemática IV e
Economía).
Introducción a la Economía tienen un nivel de dificultad bajo. Pero también se
5. Componentes de proyección tendientes a –1,8893 indicarán que son
observan a los alumnos E, B y K los cuales se encuentran hacia el centro de las
alumnos que perciben que Álgebra Lineal II y Teoría de la
componentes de todos los alumnos. Estos 3 alumnos tienden a considerar a
Probabilidad II tienen un bajo nivel de dificultad (principalmente
Álgebra Lineal II como de alto nivel de dificultad y combinaciones de los 3
Álgebra Lineal II) y Matemática IV e Introducción a la Economía
niveles con respecto a las otras 3 materias. Finalmente, en la figura 9.10., se
tienen un nivel de dificultad alto (principalmente Introducción a la
pueden distinguir 3 grupos de alumnos internamente homogéneos y
Economía).
externamente heterogéneos.
6. Componentes de proyección tendientes a 0 indicarán que son
alumnos que perciben que todas las materias tienen un nivel de
dificultad medio.
7. Si un alumno percibe a las 4 materias con alto nivel de dificultad, es
decir, Xij = 1, ∀ j = 1, 2, 3, 4 entonces su componente de
proyección es de 0,4905,
8. Si un alumno percibe a las 4 materias con bajo nivel de dificultad,
es decir, Xij = –1, ∀ j = 1, 2, 3, 4 entonces su componente de Figura 9.10.
proyección es de –0,4905.
Teorema 9.8.
Calculemos las componentes para cada uno de los alumnos:
Sea X∈Mnxp(ℜ) tal que Rango(X) = p. Entonces se cumple que:

SMA(X) 2 = P2p

338 339
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Siendo P2p el plano de dimensión 2 en ℜp generado por los vectores V1 y V2,


( ) ( )
n n

∑d ∑ (X ) X
t t
2
(X i , Pr oy LXi 1 ) = i
t
i – V1 X t XV1 – V 2 X t XV 2
autovectores ortonormalizados de la matriz XtX asociados con sus 2 mayores i =1
θV
i =1
autovalores.
( )
n n

∑ d (X , Pr oy ∑ (X ) X
t
2
i
Xi
L ) = i
t
i – λ1 – V 2 X t XV 2
θV1
Demostración i =1 i =1

Por definición el subespacio de mejor ajuste mínimo cuadrático SMA (X) 2 es n

el plano de dimensión 2 generado por 2 vectores ortonormalizados V1 y V2


Donde λ1 es el mayor autovalor de XtX y el término ∑ (X ) X
i =1
i
t
i es constante.
((V1)tV1 = 1, (V2)tV2 = 1 y (V1)tV2 = 0) que verifica que n


n
d 2 (X i , Pr oy SMAX(iX ) 2 ) es mínima, es decir, es el plano P2p generado por los
Por lo tanto, minimizar ∑d
i =1
2
(X i , Pr oy LXi 1 ) equivale a maximizar la forma
θV
i =1
2 t t 2
n cuadrática (V ) X XV con las restricciones (V2)tV2 = 1 y (V2)tV1 = 0. Para
1 2
vectores V y V que verifica que ∑d
i =1
2 Xi
(X i , Pr oy P p ) es mínima (ver figura
2
hallar el vector V2 utilizaremos el método de los multiplicadores de Lagrange:
Definimos las funciones:
9.11., en ℜ3).
f(V2) = (V2)tXtXV2, g(V2) = (V2)tV2 – 1 y h(V2) = (V2)tV1

La expresión (V2)tV2 es una forma cuadrática con matriz simétrica asociada Ip


y (V2)tV1 es una función lineal en V2.

P23 Luego,

… X1 d(X1 , P23 ) ∇f (V 2 ) = λ 2∇g (V 2 ) + μ1∇h (V 2 )


Xn ⇒ 2X t XV 2 = λ 2 (2I p V 2 ) + μ1V1
Pr oy XP32 Pr oy XP31
2
2
Pr oy XP3n
2
d (X 2 , P23 )
⇒ 2X t XV 2 = 2λ 2 V 2 + μ1V1
X2
d (X n , P23 ) (V ) 2X XV = (V ) 2λ V + (V ) μ V

1 t t 2 1 t 2 1 t 1

(V ) 2X XV = (V ) 2λ V + (V ) μ V
2 1
2 t t 2 2 t 2 2 t 1
2 1

Figura 9.11. 2(V ) X XV = 2λ (V ) V + μ (V ) V


1 t t 2 1 t 2 1 t 1

2(V ) X XV = 2λ (V ) V + μ (V ) V
2 1
2 t t 2 2 t 2 2 t 1
2 1
El vector V1 necesariamente debe ser el vector director de la recta de mejor
ajuste mínimo cuadrático SMA(X)1, ya que de lo contrario existiría otro plano 2(V ) X XV = 2λ .0 + μ .1
1 t t 2

2(V ) X XV = 2λ .1 + μ .0
2 1
de dimensión 2 mejor. El objetivo es determinar el vector V2. 2 t t 2
2 1

Ahora bien, 2(V ) X XV = μ 1 t t 2



(V ) X XV = λ
1
2 t t 2
2
d (X i , SMA(X) 2 ) = d
2 2
(X i , P2p ) = d (X i , Pr oyP p )
2 Xi
2
Ahora bien, V1 es autovector de XtX con autovalor asociado λ1, es decir,
Como V1 y V2 forman una base ortonormal de ℜp entonces por la observación XtXV1 = λ1V1. Por lo tanto:
1 del teorema 9.6., se tiene que:
(XtXV1)t = (λ1V1)t
2 2 ⇒ (V1)tXtX = λ1(V1)t
d 2 (X i , Pr oyXPpi ) = (X i ) t X i − ⎛⎜ ψ L Xi1 ⎞⎟ − ⎛⎜ ψ L Xi2 ⎞⎟
2 ⎝ θV ⎠ ⎝ θV ⎠
En consecuencia,
n n n 2 n 2
⎛⎜ ψ X i ⎞⎟
⇒ ∑
i =1
d 2 (X i , Pr oy LXi 1 ) =
θV
∑i =1
(X i ) t X i – ∑
i =1
⎛⎜ ψ X i ⎟⎞ –
⎝ L θV1 ⎠ ∑ i =1
⎝ L θV 2 ⎠ 2λ1 (V1 ) t V 2 = μ1 2λ1.0 = μ1 μ1 = 0
⇒ ⇒
(V ) X XV
2 t t 2
= λ2 (V ) X XV2 t t 2
= λ2 (V ) X XV
2 t t 2
= λ2
De forma análoga al teorema anterior se deduce que:

340 341
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Por consiguiente, 1. La mayor contribución a ψ LX i 2 es 0,9177, la cual corresponde con


θV

2X XV = 2λ 2 V + μ1V ⇒ 2X XV = 2λ 2 V + 0.V
t 2 2 1 t 2 2 1 la materia Matemática IV.
2. Se puede apreciar que ψ LX i 2 es máxima cuando Xi1 = –1, Xi2 = 1,
⇒ 2X t XV 2 = 2λ 2 V 2 + θ px1 θV

Xi3 = –1 y Xi4 = 1, mientras que es mínima cuando Xi1 = 1, Xi2 = –1,


⇒ 2X XV = 2λ 2 V
t 2 2
Xi3 = 1 y Xi4 = –1. Los valores máximo y mínimo son 1,6059 y
⇒ X t XV 2 = λ 2 V 2 –1,6059, respectivamente.
3. El valor intermedio es 0, el cual se obtiene cuando Xij = 0, ∀ j = 1,
Es decir, maximizar f(V2) = (V2)tXtXV2 sujeto a (V2)tV2 = 1 y (V2)tV1 = 0 2, 3, 4.
equivale a maximizar λ2 que a su vez es autovalor de XtX con autovector 4. Componentes de proyección tendientes a 1,6059 indicarán que son
asociado V2. En consecuencia, el vector V2 es el autovector normalizado alumnos que perciben que Álgebra Lineal II e Introducción a la
asociado al segundo mayor autovalor de la matriz XtX. Economía tienen un bajo nivel de dificultad y Matemática IV y
Teoría de la Probabilidad II tienen un nivel de dificultad alto
Teorema 9.9. (principalmente Matemática IV).
5. Componentes de proyección tendientes a –1,6059 indicarán que son
alumnos que perciben que Álgebra Lineal II e Introducción a la
Sea X∈Mnxp(ℜ) tal que Rango(X) = p. Entonces se cumple que:
Economía tienen un alto nivel de dificultad y Matemática IV y
Teoría de la Probabilidad II tienen un nivel de dificultad bajo
SMA(X) q = Pqp (principalmente Matemática IV).
6. Componentes de proyección tendientes a 0 indicarán que son
alumnos que perciben que todas las materias tienen un nivel de
Siendo Pqp el plano de dimensión q en ℜ generado por los vectores
p
dificultad medio.
V1, V2, …, Vq autovectores ortonormalizados de la matriz XtX asociados con 7. Si un alumno percibe a las 4 materias con alto nivel de dificultad, es
sus q mayores autovalores. decir, Xij = 1, ∀ j = 1, 2, 3, 4 entonces su componente de
proyección es de 0,6883,
Demostración 8. Si un alumno percibe a las 4 materias con bajo nivel de dificultad,
es decir, Xij = –1, ∀ j = 1, 2, 3, 4 entonces su componente de
Este teorema es una extensión de los teoremas 9.7., y 9.8., de forma tal que su proyección es de –0,6883.
demostración es análoga a las demostraciones de estos teoremas.
Calculemos las componentes para cada uno de los alumnos:
Ejemplo Aplicado 9.3.
⎡1 −1 −1 1⎤ ⎡ −1,6883 ⎤
En relación al ejemplo aplicado 9.2., determinemos SMA(X) 2 . ⎢ ⎥ ⎢ ⎥
⎢1 0 −1 0⎥ ⎢ 0,0000⎥
⎢1 0 −1 1⎥ ⎢ 0,2294⎥
Como λ1 = 23 y λ 2 = 4 entonces: ⎢ ⎥ ⎢ ⎥
⎢1 −1 −1 1⎥ ⎢ − 0,6883⎥
⎢0 ⎡ −0,2294 ⎤
⎡ 0,6131⎤ ⎡ −0,2294 ⎤ 0 −1 1⎥ ⎢ ⎥
⎢ 0,4588⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ψ LX 2 = XV = ⎢1
2
0 0 0⎥ ⎢ 0,9177 ⎥ = ⎢− 0,2294⎥
− 0,1226 ⎥ +B ⎢ 0,9177 ⎥ ; B1, B2∈ℜ} ⎢− 0,2294⎥
= {Z∈ℜ : Z = B1 ⎢ ⎢ ⎥ ⎢ ⎥
θV
SMA(X) 2 = P24 4
−1 ⎢ ⎥
⎢− 0,5518⎥ 2 ⎢− 0,2294⎥ ⎢1 0 1⎥ ⎢ 0,2294⎥
⎢ ⎥ ⎢ ⎥ ⎢1 ⎢⎣ 0,2294⎦⎥
0 −1 1⎥ ⎢ 0,2294⎥
⎣⎢ 0,5518⎦⎥ ⎣⎢ 0,2294⎦⎥ ⎢ ⎥ ⎢ ⎥
⎢1 1 −1 1⎥ ⎢ 1,1471 ⎥
⎢1 −1 0 0⎥ ⎢ − 1,1471 ⎥
Anteriormente observamos la forma de ψ LX i 1 . Veamos ahora la forma de ⎢ ⎥ ⎢ ⎥
⎣⎢1 1⎦⎥ ⎣⎢ 0,0000⎦⎥
θV
0 0
ψ LXi 2 :
θV
El gráfico de las componentes sobre el subespacio de mejor ajuste mínimo
cuadrático de dimensión 2 se puede apreciar en la figura 9.12.
ψ Xi
L = –0,2294Xi1 + 0,9177Xi2 – 0,2294Xi3 + 0,2294Xi4
θV 2

Analicemos la estructura de esta componente:

342 343
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Siendo D λ
(A) ∈Mrxr(ℜ) la matriz diagonal definida por:

(D λ
)
ij
⎧⎪ λ si i = j
(A) = ⎨ i
⎪⎩0 si i ≠ j

Donde λ1, λ2, …, λr son los autovalores comunes no nulos de XtX y XXt.

Demostración

Por el teorema 7.23., se sabe que:


Figura 9.12.
r

Se puede observar que el gráfico se divide en 2 cuadrantes; el I y el IV. En el I


X= ∑
i =1
λ i U i (V i ) t
cuadrante se encuentran los alumnos cuyas componentes son positivas con
respecto a V1 y V2, es decir, los alumnos que en general opinan que Álgebra ( ) ⎤⎥
⎡ V1
⎢ 2
t

[λU ] )⎥
( t
Lineal II, Matemática IV y Teoría de la Probabilidad II son materias con alto ⎢V
nivel de dificultad. En el IV cuadrante se encuentran los alumnos cuyas ⇒ X= 1
1
λ2 U2 L λr Ur ⎢ ⎥
componentes son positivas con respecto a V1 y negativas con respecto a V2, es ⎢ M ⎥
decir, los alumnos que en general opinan que Álgebra Lineal II y Teoría de la ( )
⎢⎣ V r
t
⎥⎦
Probabilidad II son materias con alto nivel de dificultad pero Matemática IV
tiene bajo nivel de dificultad. De esta forma se pueden obtener con mayor ⎡

λ1 0 L 0 ⎤ ⎡ V1
⎥⎢
( ) ⎤⎥
t

precisión grupos de alumnos internamente homogéneos y externamente


⇒ X = U1 [ U2

L Ur ⎢ ] 0 λ2 L 0 ⎥⎢ V2

( )⎥ t

M ⎥ ⎢⎢ M ⎥
heterogéneos (figura 9.13.).
⎢ M M ⎥

⎣ 0 0 L ( )
λ r ⎥⎦ ⎢⎣ V r
t
⎥⎦

⇒ X = UD λ
(A)V t

Definición 9.4.

Sea X∈Mnxp(ℜ) tal que Rango(X) = p. Se define como matriz aproximada de


X por el subespacio de mejor ajuste mínimo cuadrático de dimensión q
~ ~
SMA(X) q y se denota por X q a la matriz X q ∈ M nxp (ℜ) definida por:

~
X q = UD λ
(A )V t

Siendo V∈Mpxq(ℜ) y U∈Mnxq(ℜ) las matrices cuyas columnas son los


Figura 9.13. autovectores ortonormalizados de las matrices XtX y XXt, respectivamente,
asociados con los q mayores autovalores comunes de ambas matrices.
Teorema 9.10.
Definición 9.5.
Sean X∈Mnxp(ℜ) tal que Rango(X) = r, V∈Mpxr(ℜ) y U∈Mnxr(ℜ). Si V y U
son las matrices cuyas columnas son los autovectores ortonormalizados de las Sea X∈Mnxp(ℜ). Se define como Norma de Frobenius de X y se denota por
matrices XtX y XXt, respectivamente, asociados con los autovalores comunes X F al escalar siguiente:
no nulos entonces:

X = Traza (X t X)
X = UD λ
(A)V t F

344 345
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Observación: q

∑λ i
Por el teorema 7.13. (lema de Schur), si λ1, λ2, …, λp son los autovalores BSMA(X) q = i =1
p
.100%

p
λi
comunes no nulos de XtX entonces Traza(XtX) = ∑λ
i =1
i . Luego,
i =1

Ejemplo Aplicado 9.4.


p
X F
= ∑λ i =1
i En relación a los ejemplos aplicados 9.2., y 9.3., se tiene que:

23
Definición 9.6. BSMA (X )1 = .100% = 76,67%
23 + 4 + 2 + 1
Sea X∈Mnxp(ℜ). Se define como Medida de la Bondad del Ajuste del
Subespacio de Mejor Ajuste Mínimo Cuadrático de dimensión q a las filas de y
X y se denota por BSMA(X)q a:
23 + 4
BSMA(X) 2 = .100% = 90,00%
⎛⎜ X
~ ⎞⎟
2 23 + 4 + 2 + 1
BSMA(X) q = ⎝ q
F⎠

( )
2
.100% Se aprecia que el subespacio de mejor ajuste mínimo cuadrático de dimensión
XF
1 tiene una bondad de la aproximación del 76,67%, medida que es
relativamente alta y bastante buena para ser 1 dimensión. Sin embargo, el
Teorema 9.11. subespacio de mejor ajuste mínimo cuadrático de dimensión 2 tiene una
bondad de la aproximación del 90%, medida que es excelente por lo cual
Sean X∈Mnxp(ℜ) y λ1, λ2, …, λp∈ℜ. Si λ1, λ2, …, λp son los autovalores de la resulta el subespacio de mejor ajuste mínimo cuadrático idóneo para analizar el
matriz XtX tales que λ1 ≥ λ2 ≥ … ≥ λp entonces: comportamiento de los vectores filas de X (elementos).

∑λ i =1
i
BSMA(X) q = p
.100%
∑λ i =1
i

Demostración

Por definición:

2
⎛⎜ X
~ ⎞⎟
BSMA(X) q = ⎝
F⎠
q

( )
2
.100%
XF

También por definición:

2 q
⎞⎟ = ⎛ Traza ((X
~ t~ ⎞
2
⎛⎜ X
∑λ
~ ~ t~
1. ⎜ q ) X q ) ⎟ = Traza (( X q ) X q ) = .
⎝ q F⎠ ⎝ ⎠ i =1
i

(X )
2 p
= ⎛⎜ Traza (X t X) ⎞⎟ = Traza (X t X) = ∑λ
2
2. .
⎝ ⎠
F i
i =1

En consecuencia,

346 347
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

EJERCICIOS PROPUESTOS. 3. Para la matriz X del ejercicio 1, halle la correspondiente matriz R e


interprete sus componentes.
1. A continuación se muestra una matriz de datos X∈M10x3(ℜ) que
contiene información de las notas definitivas obtenidas por diez (10) 4. Sea X∈Mnxp(ℜ) una matriz de datos. Consideremos 2 puntos filas de
alumnos de primer semestre de la escuela en Matemática I, Estadística dicha matriz, digamos el i-ésimo y el h-ésimo, es decir:
I y Computación I en un determinado semestre: (Xi)t = [ Xi1 Xi2 … Xip] y (Xh)t = [Xh1 Xh2 … Xhp]. Justifique la
distancia euclídea para dar una medida del parecido entre estos 2
puntos. Luego seleccione aleatoriamente 3 pares distintos de puntos
Alumno Matemática I Estadística I Computación I filas; manteniendo siempre 1 punto fila común en cada par, de la
matriz de datos del ejercicio 1 y analice el parecido entre los puntos de
A 10 12 14
cada par y compare los análisis realizados con los 3 pares de puntos.
B 12 14 15
C 6 10 12 5. Sean X, Y∈ℜn tales que (1n)tX = (1n)tY = 0 y además X = Y = 1 .
Demuestre que:
D 6 8 10
E 8 10 12 5.1. Si φ1 es el ángulo entre X e Y entonces Cos(φ1) = rXY.
5.2. Si se define el vector Z = X – Cos(φ1)Y y φ2 es el ángulo entre
F 7 5 10 Z e Y entonces Cos(φ2) = 0.
G 12 10 12 5.3. A partir de lo obtenido en el apartado anterior, ¿podría
asegurarse que las variables Z e Y están incorrelacionadas?
H 11 14 16
6. Sean Y∈ℜn, X∈Mnxp(ℜ) una matriz de rango columna completo cuyas
I 13 18 19
columnas generan el plano Ppn . La proyección ortogonal de Y sobre
J 5 9 10
Ppn induce la siguiente partición del vector Y: Y = Pr oy YPn + E,
p
1.1. Represente gráficamente los puntos fila de la matriz de datos 2 2
anterior sobre ℜ3. Ubique también el punto fila de las medias siendo E = Y – Pr oy Y
Ppn
. Demuestre que Y = E + Y Pr oy YPn .
t
p
aritméticas de las 3 materias.
1.2. Construya la matriz de datos centrada asociada a la matriz de
datos. Represente gráficamente sobre ℜ3 los nuevos puntos 7. Sean Y∈ℜn y L θ1n la recta en ℜn definida por:
obtenidos.
1.3. Compare las representaciones gráficas de los 2 apartados L θ1n = {Z∈ℜn: Z = c 1n , c∈ℜ}
anteriores.

2. Sean X∈Mnxp(ℜ) una matriz de datos. Demuestre que: Demuestre que:

2.1. La matriz V = X̂ t X̂ tiene la siguiente forma: 7.1. Pr oy YLθ1 = Y1n .


n

⎧ j 2 Si φ es el ángulo entre Y e Pr oy YLθ1 entonces:


⎪ X̂ si i = j 7.2.
Vij = ⎨
n

⎪ X̂ i
X̂ j
Cos (β ) si i ≠ j 2
⎩ ij
Cos(φ) =
nY
.
t n

∑Y
2.2. La matriz R = D VD es la matriz de correlaciones asociada a 2
i
la matriz de datos X, siendo la matriz D∈Mpxp la matriz i =1
diagonal definida por:
7.3. d2(Y, L θ1n ) = nS 2Y .
⎡ 1 ⎤
⎢ 0 L 0 ⎥
⎢ X̂ 1 ⎥
D= ⎢ 1 ⎥ 8. En relación al ejercicio 1 tome las notas de 3 alumnos en las materias
⎢ 0 L 0 ⎥
⎢ X̂ 2 ⎥ Matemática I y Estadística I. Llame a estos 2 vectores columnas X e
⎢ ⎥ Y.
⎢ M M M ⎥
⎢ 1 ⎥
⎢ 0 0 L ⎥
⎢ X̂ p ⎥
⎣ ⎦

348 349
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

8.1. Determine la mejor representación en el sentido de mínima ⎡1 ⎤


distancia del vector X sobre la recta L θ13 en ℜ3. ⎢ ⎥
11.2. Determine la Proyección Ortogonal del vector Y = ⎢2⎥ sobre
8.2. Determine el coseno del ángulo entre los vectores X̂ y Ŷ . ⎢⎣3⎥⎦
el plano anterior.
9. Sean X, Y∈ℜn y P2n el plano de dimensión 2 en ℜn que contiene al 11.3. Determine la distancia del vector Y al plano anterior.
origen definido por:
12. Sean Y∈ℜn y X∈Mnx2(ℜ) tal que X1 y X2 son ortogonales.
P = {Z∈ℜ : Z = B1 1n + B2X, B1, B2 ∈ℜ}
n
2
n

12.1. Describa el plano P2n que contiene el origen y está generado


Demuestre que: por X1 y X2.
12.2. Demuestre que:
Pr oy YPn = a 1n +bX (X1 ) t Y (X 2 ) t Y
Pr oy YPn = 1 t 1 X1 + 2 t 2 X 2
2
2 (X ) X (X ) X
Siendo: 12.3. Demuestre que:

n n n n n n n
((X1 ) t Y) 2 ((X 2 ) t Y) 2
∑ Yi ∑ X i 2 − ∑ Xi ∑ X i Yi n ∑ X i Yi − ∑ X i ∑ Yi d(Y, P2n ) = YtY −
(X1 ) t X1

(X 2 ) t X 2
i =1 i =1 i =1 i =1 i =1 i =1 i =1
a= 2
y b= 2
n
⎛ n ⎞ n
⎛ n ⎞
n ∑ X i − ⎜⎜ ∑ X i ⎟⎟ n ∑ X i − ⎜⎜ ∑ X i ⎟⎟
2 2
13. Se le consultó a un grupo de once (11) personas su apreciación acerca
i =1 ⎝ i =1 ⎠ i =1 ⎝ i =1 ⎠
de tres (3) programas de televisión del canal Venevisión: “Cásate y
Verás”, “Que Locura” y “Sábado Sensacional”. Para cada respuesta se
Observación:
adoptó la siguiente escala:

Note que Pr oy YPn define la ecuación de regresión lineal estimada por 1: “Le gusta el programa y lo ve con regularidad”.
2

el método de los mínimos cuadrados de Y en función de X. 0: “Es indiferente al programa y lo ve casualmente”.


-1: “No le gusta el programa y nunca lo ve”.
10. En relación al ejercicio 1 tome las notas de los alumnos en las
materias Matemática I y Estadística I. Llame a estos 2 vectores Los resultados de la consulta se muestran a continuación:
columnas X e Y.
Individuo Cásate y Verás Que Locura Sábado Sensacional
10 I1 1 0 0
10.1. Describa el plano P 2 que contiene el origen y está generado
I2 0 1 0
por 110 y X. I3 1 0 -1
10.2. Determine la Proyección Ortogonal del vector Y sobre el I4 0 1 0
plano anterior. ¿Qué representa este vector? I5 1 0 0
10.3. Determine la distancia del vector Y al plano dado. I6 0 1 1
I7 0 1 0
11. Sean X∈M3x2(ℜ), Y∈ℜ3 y P23 el plano de dimensión 2 en ℜ3 que I8 0 0 0
contiene al origen definido por las columnas de X, siendo X: I9 0 0 1
I10 1 0 1
⎡1 0⎤ I11 0 1 1
⎢ ⎥
X = ⎢0 2 ⎥
13.1. Si se desea tener una medida de la bondad de la
⎢⎣0 1 ⎥⎦ aproximación de por lo menos 60%, determine el sub-
espacio de mejor ajuste a las filas de la matriz
de datos anterior.
11.1. Describa la ecuación del plano P23 . 13.2. Interprete la estructura general de la(s) componente(s) de
proyección.

350 351
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS

13.3. Calcule y grafique las componentes de proyección


ortogonal de las filas de la matriz de datos sobre el sub-
espacio de ℜ3 generado en el apartado 13.1. Realice e
interprete el gráfico.

14. Se le consultó a un grupo de diez (10) personas si les gusta o no hacer


las siguientes actividades: “Ir al Cine”, “Ir a la Playa”, “Pasear en
Centros Comerciales.” y “Rumbear”. Para ello se utilizó la siguiente
escala: 1: Si les gusta y 0: No les gusta. A continuación se muestran
los resultados:

Persona Ir al Cine Ir a la Playa Pasear en C.C. Rumbear


A 1 1 0 0
B 0 0 1 1
C 1 1 0 1
D 1 1 0 0
E 0 1 0 0
F 0 0 0 1
G 0 1 0 0
H 1 1 1 1
I 0 1 0 0
J 1 0 1 0

14.1. Determine el sub-espacio de ajuste mínimo cuadrático a las


filas de la matriz de datos anterior que Ud. mejor considere
para este caso. Justifique su respuesta.
14.2. Interprete la estructura general de la(s) componente(s) de
proyección.
14.3. Calcule y grafique las componentes de proyección de las
filas de la matriz de datos sobre el sub-espacio de ℜ4
generado en el apartado 16.1. Interprete el gráfico.

352
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ Ir θrx ( n −r ) ⎤ −1
Capítulo 10 A = P −1 ⎢
⎣⎢θ( m−r ) xr
⎥Q
θ( m−r ) x ( n −r ) ⎦⎥

PSEUDOS INVERSAS ⇒ ∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares):

⎡ Ir ⎤
A = P −1 ⎢ [
⎥ Ir ]
θ rx ( n − r ) Q −1
⎣⎢θ ( m − r ) xr ⎦⎥
10.1. INTRODUCCIÓN.
⇒ ∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares): A = BC, siendo:
En este capítulo se presenta el concepto de las Pseudos Inversas, el cual
permite disponer de una matriz que tiene propiedades muy similares a la de la
B∈Mmxr(ℜ) y Q∈Mrxn(ℜ) definidas por:
matriz inversa pero en el caso de una matriz cuadrada que no es invertible o de
una matriz rectangular. Se exponen las 3 pseudos inversas; Inversa
⎡ Ir ⎤
Generalizada, Inversa Condicional y Inversa Mínimo Cuadrática, así como
B = P −1 ⎢ ⎥ y C = Ir [ ]
θ rx ( n −r ) Q −1
también sus aplicaciones para la resolución de Sistemas de Ecuaciones ⎢⎣θ( m−r ) xr ⎥⎦
Lineales Consistentes.

10.2. INVERSA GENERALIZADA. DEFINICIÓN, PROPIEDADES Y ⎡ Ir ⎤ ⎡ Ir ⎤


Por el teorema 1.28., Rango(B)= Rango( P −1 ⎢ ⎥ )= Rango( ⎢ ⎥ )= r
EJEMPLOS. θ
⎣⎢ ( m− r ) xr ⎦⎥ ⎣⎢θ( m − r ) xr ⎦⎥
Definición 10.1. y Rango( I r[ ]
θ rx ( n − r ) Q −1 ) = Rango( I r [ ]
θ rx ( n − r ) ) = r. Por lo tanto, por el
Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ). Se dice que B es inversa generalizada de A teorema 8.10., las matrices BtB y CCt son definidas positivas y no singulares.
si:
Sea Ag definida de la siguiente manera:
1. AB es simétrica.
2. BA es simétrica. Ag = Ct(CCt)-1(BtB)-1Bt
3. ABA = A.
4. BAB = B. Veamos que Ag es inversa generalizada de A:

Es claro que si m = n y A es no singular entonces A-1 es inversa generalizada 1. AAg = BCCt(CCt)-1(BtB)-1Bt = B(BtB)-1Bt. Luego, AAg es una
de A. matriz de proyección, la cual es simétrica.
2. AgA = Ct(CCt)-1(BtB)-1BtBC = Ct(CCt)-1C = D(DtD)-1Dt, con D = Ct.
Teorema 10.1. Luego, AgA es una matriz de proyección, la cual es simétrica.
3. AAgA = B(BtB)-1BtBC = BC = A.
Sean A∈Mmxn(ℜ). Siempre existe una inversa generalizada de A y además es 4. AgAAg = Ct(CCt)-1CCt(CCt)-1(BtB)-1Bt = Ct(CCt)-1(BtB)-1Bt = Ag.
única. Se denota por Ag.
En consecuencia, Ag es inversa generalizada de A. Veamos ahora que es única.
Demostración
Supongamos que B∈Mnxm(ℜ) es también inversa generalizada de A. Luego,
Supongamos que Rango(A) = r. Por el teorema 1.30.: AB y BA son simétricas, ABA = A y BAB = B. Por lo tanto,

∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares): 1. AAg = ABAAg = (AB)t(AAg)t = (AAgAB)t = (AB)t = AB.
2. AgA = AgABA = (AgA)t(BA)t = (BAAgA)t = (BA)t = BA.
⎡ Ir θ rx ( n − r ) ⎤ 3. Ag = AgAAg = BAAg = BAB = B.
PAQ = R(A) = ⎢ ⎥
⎢⎣θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎥⎦
Por consiguiente, la inversa generalizada Ag de A es única.

⇒ ∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares): Ejemplo 10.1.

Para la matriz A del ejemplo 1.37., se obtuvo que:

354
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡1 0 2 3⎤ ⎡1 0 0 0⎤ ⎡ 1 0 0 ⎤ ⎡573 ⎤ ⎡ 5
⎢ ⎥
304 224 − 21 −5 ⎤ ⎡1 3 5 ⎤
⎢ ⎥ ⎢ ⎥ 0⎥ ⎢ 829 829 829⎥ ⎢ 4 2⎥
⎢ ⎥
A = ⎢3 2 1 1⎥ , R (A) = ⎢0 1 0 0⎥ ; = ⎢ 0 1
⎢ 304 468 − 266 ⎥ ⎢− 21 45 5 ⎥
⎢ 0 0 1⎥ ⎢ 829 829 829⎥ 4 8 2⎥ ⎢0 2 4 ⎥
⎢⎣5 4 2 6⎥⎦ ⎢⎣0 0 1 0⎥⎦ ⎢ ⎢⎣2 1 2⎥⎦
⎢ ⎥ ⎢224 − 266 633 ⎥⎦ ⎢⎣ − 5 2 5 3 ⎥
− 19 7
⎢⎣ 2 ⎦⎥ ⎣ 2⎦
4 829 829 829 2
4
⎡ 0 ⎡1 0 0 4 ⎤
2 −1 ⎤ ⎢ ⎥ ⎡ 36 314 − 81 ⎤
⎢ ⎥ 0 1 0 − 19 ⎥ ⎢ 829 829 829 ⎥
P = ⎢− 1 −2 5 ⎥ , Q=⎢ 4
⎢0 ⎢− 250 − 62 148 ⎥
⎢ 4 4⎥ 0 1 −7 ⎥ = ⎢ 829 829 829 ⎥
⎢⎣ 1 2 − 1 1 ⎥ ⎢ 2⎥
⎢ 383 347 − 240
2⎦ ⎢⎣0 0 0 1 ⎥⎦
⎢ 9 829 829 829⎥⎥
⎢⎣ − 336 187
829 829 829 ⎦⎥
Se puede verificar que:
Teorema 10.2.
⎡1 0 0 −4 ⎤
⎡1 0 2⎤ ⎢ 19 ⎥
⎢ ⎥ 0 1 0 Sea A∈Mmxn(ℜ).
P −1 = ⎢3 2 1 ⎥ , Q −1 = ⎢ 4⎥
⎢0 0 1 7 ⎥
⎢⎣5 4 2⎥⎦ ⎢ 2⎥ 1. (At)g = (Ag)t.
⎢⎣0 0 0 1 ⎥⎦ 2. (Ag)g = A.
3. Rango(A) = Rango(Ag) = Rango(AAg) = Rango(AgA).
Asimismo, 4. (AtA)g = Ag(At)g.
5. Si m = n y A es simétrica entonces Ag es simétrica.
⎡1 0 0 − 4 ⎤ 6. Si m = n y A es simétrica entonces AAg = AgA.
⎡1 0 0⎤ ⎡1 0 2⎤ ⎡1 0 0 0 ⎤ Si m = n y A es simétrica e idempotente entonces Ag = A.
⎥ −1 ⎢⎢ ⎥ 7.
−1 ⎢ ⎥ ⎢ ⎥ ⎢
B = P ⎢0 1 0⎥ = ⎢3 2 1 ⎥ , C = ⎢0 1 0 0⎥ Q = 0 1 0 19 ⎥ 8. AAg, AgA, Im – AAg y In – AgA son simétricas e idempotentes.
⎢ 4⎥
⎢⎣0 0 1⎥⎦ ⎢⎣5 4 2⎥⎦ ⎢⎣0 0 1 0⎥⎦ 9. Si Rango(A) = r entonces Rango(Im – AAg) = m – r y
⎢⎣0 0 1 7 2 ⎥⎦
Rango(In – AgA) = n – r.
10. (AAg)g = AAg.
Luego, 11. (AgA)g = AgA.
12. Si P∈Mmxm(ℜ) y Q∈Mnxn(ℜ) son ortogonales entonces
⎡ 17 (PAQ)g = QtAgPt.
⎡35 26 15⎤ ⎢ − 19 − 14 ⎤⎥ 13. Si Rango(A) = n entonces Ag = (AtA)-1At.
⎢ ⎥
B B = ⎢26 20 10⎥ , CC = ⎢ − 19
t t 377 133 ⎥ 14. Si Rango(A) = m entonces Ag = At(AAt)-1.
⎢ 16 8⎥
⎢⎣15 10 9 ⎥⎦ ⎢ − 14 133 53 ⎥ 15. Si B∈Mmxr(ℜ) y C∈Mrxn(ℜ), con Rango(B) = Rango(C) = r
⎣ 8 4⎦ entonces (BC)g = CgBg.

Se puede verificar que: Demostración

⎡ 5 − 21 −5 ⎤ 1. Sean B = At y Bg = (Ag)t. Verifiquemos que Bg cumple las 4


⎢ 4 2⎥
( ) −1 propiedades:
B t B = ⎢− 21 45 5 ⎥,
⎢ 4 8 2⎥
⎢⎣ − 5 2 5 3 ⎥ 1.1. BBg = At(Ag)t = (AgA)t = AgA. Como AgA es simétrica
2 2⎦ entonces BBg es simétrica.
⎡573 304 224 ⎤ 1.2. BgB = (Ag)tAt = (AAg)t = AAg. Como AAg es simétrica
⎢ 829 829 829⎥ entonces BgB es simétrica.
( )
CC t −1
=⎢

304
829
468
829
− 266
829⎥
⎥ 1.3. BBgB = AgAAt = (AgA)tAt = (AAgA)t = At = B.
⎢⎣ 224 − 266 633 1.4. BgBBg = AAg(Ag)t = (AAg)t(Ag)t = (AgAAg)t = (Ag)t =
829 829 829 ⎥⎦ Bg.

Por lo tanto, Por lo tanto, (Ag)t es la inversa generalizada de At.

Ag = Ct(CCt)-1(BtB)-1Bt 2. Sean B = Ag y Bg = A. Verifiquemos que Bg cumple las 4


propiedades:

355 356
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

2.1. BBg = AgA. Como AgA es simétrica entonces BBg es AAg = A y AgAAg = AgA
simétrica. ⇒ AAg = A y Ag = AgA
2.2. BgB = AAg. Como AAg es simétrica entonces BgB es
simétrica. Como AAg = AgA entonces Ag = A.
2.3. BBgB = AgAAg = Ag = B.
2.4. BgBBg = AAgA = A = Bg. 8. Es evidente que AAg, AgA, Im – AAg y In – AgA son simétricas.
Veamos ahora que son idempotentes.
Por consiguiente, A es la inversa generalizada de Ag.
8.1. (AAg)2 = AAgAAg = (AAgA)Ag = AAg.
3. AAgA = A y AgAAg = Ag. Luego: 8.2. (AgA)2 = AgAAgA = (AgAAg)A = AgA.
8.3. (Im – AAg)2 = (Im – AAg)(Im – AAg) = Im – AAg – AAg +
3.1. Rango(A) = Rango(AAgA) ≤ Rango(AAg) ≤ Rango(A). (AAg)2. Como AAg es idempotente entonces (Im – AAg)2
Luego, Rango(AAg) = Rango(A). = Im – 2AAg + (AAg) = Im – AAg.
3.2. Rango(A) = Rango(AAgA) ≤ Rango(AgA) ≤ Rango(A). 8.4. (In – AgA)2 = (In – AgA)(In – AgA) = In – AgA – AgA +
Luego, Rango(AgA) = Rango(A). (AgA)2. Como AgA es idempotente entonces (In – AgA)2
3.3. Rango(Ag)=Rango(AgAAg) ≤ Rango(AAg) ≤ Rango(Ag). = In – 2AgA + (AgA) = In – AgA.
Luego, Rango(AAg) = Rango(Ag).
3.4. Rango(Ag)=Rango(AgAAg) ≤ Rango(AgA) ≤ Rango(Ag). En consecuencia, AAg, AgA, Im – AAg y In – AgA son
Luego, Rango(AgA) = Rango(Ag). idempotentes.

Por lo tanto, Rango(A) = Rango(Ag) = Rango(AAg) = 9. Por la propiedad 8, AAg, AgA, Im – AAg y In – AgA son
Rango(AgA). simétricas e idempotentes. Luego, por el teorema 7.18.,
Rango(Im – AAg) = Traza(Im – AAg), Rango(In – AgA)
4. Sean B = AtA y Bg = Ag(At)g. Verifiquemos que Bg cumple las 4 = Traza(In – AgA), Rango(AgA) = Traza(AgA) y
propiedades: Rango(AAg) = Traza(AAg). En consecuencia:

4.1. BBg = (AtA)(Ag(At)g) = At(AAg)(At)g = At(AAg)t(At)g. 1. Rango(Im – AAg) = Traza(Im – AAg)


Por la propiedad 1, (At)g = (Ag)t. Luego, ⇒ Rango(Im – AAg) = Traza(Im) – Traza(AAg)
BBg = At(AAg)t(Ag)t = (AAgA)t(Ag)t = At(Ag)t = (AgA)t = ⇒ Rango(Im – AAg) = m – Rango(AAg)
AgA. Como AgA es simétrica entonces BBg es simétrica. ⇒ Rango(Im – AAg) = m – Rango(A)
4.2. BgB = (Ag(At)g)(AtA). Por la propiedad 1, (At)g = (Ag)t. ⇒ Rango(Im – AAg) = m – r
Luego, BgB = (Ag(Ag)t)(AtA) = Ag(Ag)tAtA = Ag(AAg)tA
= AgAAgA = AgA. Como AgA es simétrica entonces BgB 2. Rango(In – AgA) = Traza(In – AgA)
es simétrica. ⇒ Rango(In – AgA) = Traza(In) – Traza(AgA)
4.3. BBgB = AgA(AtA) = (AgA)tAtA = (AAgA)tA = AtA = B. ⇒ Rango(In – AgA) = n – Rango(AgA)
4.4. BgBBg = (AgA)(Ag(At)g) = AgAAg(At)g = Ag(At)g = Bg. ⇒ Rango(In – AgA) = n – Rango(A)
⇒ Rango(In – AgA) = n – r
Por consiguiente, Ag(At)g es la inversa generalizada de AtA.
10. Es claro que (AAg)∈Mmxm(ℜ). Por la propiedad 8, se tiene que
5. Por la propiedad 1, se tiene que (Ag)t = (At)g. Como A es AAg es simétrica e idempotente. Luego, por la propiedad 7,
simétrica entonces (Ag)t = Ag, es decir, Ag es simétrica. (AAg)g = AAg.
6. AAg = (AAg)t = (Ag)tAt. Por la propiedad 1, se tiene que
11. Es claro que (AgA)∈Mnxn(ℜ). Por la propiedad 8, se tiene que
AAg = (At)gAt y como A es simétrica entonces AAg = AgA.
AgA es simétrica e idempotente. Luego, por la propiedad 7,
(AgA)g = AgA.
7. Como A es simétrica, entonces por la propiedad 6 se tiene que
AAg = AgA. Luego,
12. Sean B = PAQ y Bg = QtAgPt. Verifiquemos que Bg cumple las 4
propiedades:
(A)(AAg) = (A)(AgA) y (AgA)(AAg) = (AgA)(AgA)
⇒ AAAg = AAgA y AgAAAg = AgAAgA 12.1. BBg = (PAQ)(QtAgPt) = PAQQtAgPt = PAAgPt. Luego,
⇒ A2Ag = A y AgA2Ag = AgA (BBg)t = (PAAgPt)t = (Pt)t(AAg)tPt = PAAgPt = BBg. Por
lo tanto, BBg es simétrica.
Como A es idempotente, entonces:

357 358
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

12.2. BgB = (QtAgPt)(PAQ) = QtAgPtPAQ = QtAgAQ. Luego, Es decir, A = BC, siendo B = Im y C = A. En consecuencia,
(BgB)t = (QtAgAQ)t = Qt(AgA)t(Qt)t = QtAgAQ = BgB.
Por lo tanto, BgB es simétrica. Ag = Ct(CCt)-1(BtB)-1Bt = At(AAt)-1((Im)tIm)-1(Im)t = At(AAt)-1
12.3. BBgB = (PAAgPt)(PAQ) = PAAgPtPAQ = PAAgAQ =
PAQ = B. 15. Se sabe que la matriz A se puede expresar de la forma A = BC,
12.4. BgBBg = (QtAgAQ)(QtAgPt) = QtAgAQQtAgPt = con B∈Mmxr(ℜ), C∈Mrxn(ℜ) y Rango(B) = Rango(C) = r. Por lo
QtAgAAgPt = QtAgPt = Bg. tanto,

Por consiguiente, QtAgPt es la inversa generalizada de PAQ. Ag = (BC)g = Ct(CCt)-1(BtB)-1Bt

13. Por el teorema 1.30.: Como B∈Mmxr(ℜ) y Rango(B) = r entonces por la propiedad 13
se tiene que Bg = (BtB)-1Bt. Asimismo, como C∈Mrxn(ℜ) y
∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares): Rango(C) = r entonces por la propiedad 14 se tiene que
Cg = Ct(CCt)-1. En consecuencia,
⎡ Ir θ rx ( n − r ) ⎤
PAQ = ⎢ ⎥ (BC)g = CgBg
⎣⎢θ ( m − r ) xr θ( m − r ) x ( n − r ) ⎦⎥
Observaciones:
Como Rango(A) = r = n entonces no es necesario aplicar
operaciones elementales de columnas sobre A para obtener su 1. Toda matriz de proyección H = X(XtX)-1Xt puede ser escrita de la
matriz normal R(A), es decir, Q = In. Además, forma H = XXg, ya que X es de rango columna completo.
2. Pr oy YPn = HY = XXgY.
⎡ In ⎤ p

R(A) = ⎢ ⎥
⎢⎣θ ( m − n ) xn ⎥⎦ 10.3. INVERSA CONDICIONAL. DEFINICIÓN, PROPIEDADES Y
EJEMPLOS.
Por consiguiente,
Definición 10.2.
⎡ In ⎤
A = P-1 ⎢ ⎥ Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ). Se dice que B es inversa condicional de A si
⎢⎣θ ( m − n ) xn ⎥⎦ ABA = A.

Es decir, A = BC, siendo B = A y C = In. En consecuencia, Es claro que Ag es también inversa condicional de A. Esto garantiza que
siempre existe al menos una inversa condicional de A.
Ag = Ct(CCt)-1(BtB)-1Bt = (In)t(In(In)t)-1(AtA)-1At = (AtA)-1At
Teorema 10.3.
14. Por el teorema 1.30.:
Sea A∈Mmxn(ℜ). No siempre existe una única inversa condicional de A.
∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares):
Demostración
⎡ Ir θ rx ( n − r ) ⎤
PAQ = ⎢ ⎥ Supongamos que Rango(A) = r. Por el teorema 1.31.:
⎢⎣θ ( m − r ) xr θ( m − r ) x ( n − r ) ⎥⎦
∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares):
Como Rango(A) = r = m entonces no es necesario aplicar
operaciones elementales de filas sobre A para obtener su matriz ⎡ Dr θ rx ( n − r ) ⎤
normal R(A), es decir, P = Im. Además, PAQ = Δ(A) = ⎢ ⎥
⎣⎢θ ( m − r ) xr θ( m − r ) x ( n − r ) ⎦⎥
R(A) = [ I m θ mx ( n − m ) ]
Siendo Dr∈Mrxr(ℜ) una matriz diagonal y no singular.
Por consiguiente,
⇒ ∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares): A = P-1Δ(A)Q-1
A = [ Im θ mx ( n − m ) ]Q-1

359 360
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Es claro que Rango(Δ(A)) = r. Además: Δ(A)(Δ(A))gΔ(A) = Δ(A)

⎡ Dr θrx ( n −r ) ⎤ ⎡ I r ⎤ ⎡ Ir ⎤ Sea B = Q(Δ(A))gP


Δ(A) = ⎢ ⎥=⎢ ⎥D [ ]
θrx ( n −r ) = ⎢ ⎥Dr Ir [ θrx ( n −r ) ]
⎣⎢θ( m−r ) xr θ( m−r ) x ( n −r ) ⎦⎥ ⎣⎢θ( m−r ) xr ⎦⎥ r ⎣⎢θ( m−r ) xr ⎦⎥ Es claro que A = P-1Δ(A)Q-1. En consecuencia,

Luego, ABA = (P-1Δ(A)Q-1)(Q(Δ(A))gP)(P-1Δ(A)Q-1)


⇒ ABA = P-1Δ(A)Q-1Q(Δ(A))gPP-1Δ(A)Q-1
⎡ Ir ⎤ ⇒ ABA = P-1Δ(A)(Δ(A))gΔ(A)Q-1
Δ(A) = BC, siendo B∈Mmxr(ℜ), C∈Mrxn(ℜ) definidas por B = ⎢ ⎥ y ⇒ ABA = P-1Δ(A)Q-1
⎣⎢θ( m − r ) xr ⎦⎥
⇒ ABA = A
C = Dr[ I r θ rx ( n − r ) ] con Rango(B) = Rango(C) = r. En consecuencia,
Por lo tanto, B = Q(Δ(A))gP es inversa condicional de A. Como las matrices P
(Δ(A))g = Ct(CCt)-1(BtB)-1Bt y Q no son únicas para generar a Δ(A) entonces la inversa condicional no es
única.
Ahora bien,
Observación:
CCt = Dr[ I r θ rx ( n − r ) ](Dr[ I r θ rx ( n − r ) ])t
El cálculo de una inversa condicional de A depende de la matriz Δ(A) que se
⎡ Ir ⎤ elija. Sin embargo, un algoritmo sencillo para el cálculo de una inversa
= Dr[ I r θ rx ( n − r ) ] ⎢ t
⎥ (Dr) = DrIrDr = (Dr)
2

⎢⎣θ( n −r ) xr ⎥⎦
condicional de A es el siguiente:

1. Calcular Rango(A) = r.
⎡ Ir ⎤
t
B B = Ir[ θ ( m − r ) xr ]
⎢ ⎥ = Ir.
2. Elegir una submatriz M de A de orden rxr.
Hallar (M-1)t.
⎢⎣θ rx ( m − r ) ⎥⎦
3.
4. Reemplazar en A la submatriz M por (M-1)t y los restantes
elementos por ceros. Denotar esta matriz por N.
Por consiguiente, 5. Nt es una inversa condicional de A.

⎡ Ir ⎤ Ejemplo 10.2.
(Δ(A))g = ⎢ t 2 -1 -1
⎥ (Dr) ((Dr) ) (Ir) [ I r θ( m − r ) xr ]
⎢⎣θ( n − r ) xr ⎥⎦
En relación a la matriz A del ejemplo 10.1.:
⎡ Ir ⎤
= ⎢ -1
⎥ Dr(DrDr) [ I r θ( m − r ) xr ]
⎢⎣θ( n − r ) xr ⎥⎦ ⎡1 0 2 3⎤
⎢ ⎥
A = ⎢3 2 1 1⎥
⎡ Ir ⎤
= ⎢ -1 -1
⎥ Dr(Dr) (Dr) [ I r θ( m − r ) xr ] ⎢⎣5 4 2 6⎥⎦
⎢⎣θ( n − r ) xr ⎥⎦
⎡ Ir ⎤ 1. Rango(A) = 3
= ⎢ -1
⎥ (Dr) [ I r θ( m − r ) xr ]
⎢⎣θ( n − r ) r ⎥⎦ ⎡1 0 2⎤
⎢ ⎥
⎡ (D )−1 ⎤ 2. Sea M = ⎢3 2 1 ⎥ .
= ⎢ r ⎥ [ Ir θ( m − r ) xr ] ⎢⎣5 4 2⎥⎦
⎣⎢θ( n − r ) xr ⎦⎥
⎡ 0 −1 ⎤
⎡ (D )−1 ⎤ ⎢
2

= ⎢ r ⎥ [ Ir θ( m − r ) xr ] 3. −1
Se puede verificar que M = ⎢− 1 −2 5 ⎥ . Por lo tanto,
⎢⎣θ( n − r ) xr ⎥⎦ ⎢ 4 4⎥
⎢⎣ 1 2 − 1 1 ⎥
⎡ (D )−1 θ rx ( m − r ) ⎤ 2⎦
= ⎢ r ⎥
⎡ 0 1 ⎤
⎣⎢θ( n − r ) xr θ( n − r ) x ( m − r ) ⎦⎥ −1
(M ) = ⎢⎢
4 2⎥
−1 t
2 −2 −1 ⎥ .
Ahora bien, ⎢ −1 5 1 ⎥
⎣⎢ 4 2 ⎦⎥

361 362
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡ 0 Demostración
−1 1 0⎤
⎢ 4 2 ⎥
4. N=⎢ 2 −2 −1 0⎥ . Sea (AtA)c una inversa condicional de AtA. Por lo tanto:
⎢ −1 5 1 0⎥⎥
⎢⎣ 4 2 ⎦ (AtA)(AtA)c(AtA) = AtA
⎡ 0 2 −1 ⎤
⎢ 5 ⎥ Premultiplicando a ambos lados de la igualdad anterior por (Ag)t se tiene que:
− 1 −2
5. Una inversa condicional de A es B = Nt = ⎢ 4 4⎥ .
⎢ 1 −1 1 ⎥
⎢ 2 2⎥ (Ag)t(AtA)(AtA)c(AtA) = (Ag)tAtA
⎢⎣ 0 0 0 ⎥⎦ ⇒ (Ag)tAtA(AtA)cAtA = (Ag)tAtA
⇒ (AAg)tA(AtA)cAtA = (AAg)tA
Teorema 10.4. ⇒ AAgA(AtA)cAtA = AAgA
⇒ A(AtA)cAtA = A (ABA = A)
Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ). Si B es inversa condicional de A entonces:
Postmultiplicando a ambos lados de la igualdad anterior por Ag se tiene que:
Rango(A) = Rango(AB) = Rango(BA) ≤ Rango(B).
A(AtA)cAtAAg = AAg
Demostración ⇒ A(AtA)cAt(AAg)t = AAg
⇒ A(AtA)c(AAgA)t = AAg
Por hipótesis, ABA = A. Luego: ⇒ A(AtA)cAt = AAg (AB = AAg)

1. Rango(A) = Rango(ABA) ≤ Rango(AB) ≤ Rango(A). Luego, Como AAg es simétrica entonces AB es simétrica. Luego, como ABA = A y
Rango(AB) = Rango(A). AB es simétrica entonces B es inversa mínimo cuadrática de A.
2. Rango(A) = Rango(ABA) ≤ Rango(BA) ≤ Rango(A). Luego,
Rango(BA) = Rango(A). Observación:
3. Rango(A) = Rango(ABA) ≤ Rango(BA) ≤ Rango(B). Luego,
Rango(BA) ≤ Rango(B). Por el teorema anterior, como toda inversa mínimo cuadrática depende de una
inversa condicional de AtA entonces la inversa mínimo cuadrática no siempre
es única.
Por lo tanto, Rango(A) = Rango(AB) = Rango(BA) ≤ Rango(B).
Ejemplo 10.3.
10.4. INVERSA MÍNIMO CUADRÁTICA. DEFINICIÓN,
PROPIEDADES Y EJEMPLOS.
En relación a la matriz A del ejemplo 10.1.:
Definición 10.3.
⎡1 0 2 3⎤
⎢ ⎥
Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ). Se dice que B es inversa mínimo cuadrática A = ⎢3 2 1 1⎥
de A si: ⎢⎣5 4 2 6⎥⎦
1. ABA = A.
2. AB es simétrica. Se puede verificar que:

Es claro que Ag es también inversa mínimo cuadrática de A y que toda inversa ⎡35 26 15 36⎤
mínimo cuadrática es también inversa condicional. Esto garantiza que siempre ⎢ ⎥
26 20 10 26⎥
existe al menos una inversa mínimo cuadrática de A. AtA = ⎢
⎢15 10 9 19 ⎥
⎢ ⎥
Teorema 10.5. ⎢⎣36 26 19 46⎥⎦

Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ). Si (AtA)c es una inversa condicional de AtA Seguimos los pasos para hallar una inversa condicional de AtA:
entonces la matriz B definida por:
1. Rango(A) = 3 ⇒ Rango(AtA) = 3.
B = (AtA)cAt

Es inversa mínimo cuadrática de A.

363 364
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡20 10 26⎤ Amc = (AtA)cAt


⎢ ⎥
2. Sea M = ⎢10 9 19 ⎥ . Es inversa mínimo cuadrática de A.
⎢⎣26 19 46⎥⎦
Es claro que (AtA)∈Mnxn(ℜ). Como Rango(A) = n entonces Rango(AtA) = n.
⎡ 53 34 − 44 ⎤
⎢ 256 256 256 ⎥ Por consiguiente, AtA es invertible y en consecuencia Amc = (AtA)-1At. Como
3. Se puede verificar que M = ⎢ −1 34 244 − 120 ⎥ y (AtA)-1 es única entonces Amc es única.
⎢ 256 256 256⎥
⎢ − 44 − 120 80
⎣ 256 256 256 ⎥⎦ Teorema 10.7.
⎡ 53 34 − 44 ⎤
⎢ 256 256 256 ⎥ Sean A∈Mmxn(ℜ) y Ac, Amc∈Mnxm(ℜ) tales que Ac y Amc son una inversa
( ) t
M −1 = ⎢ 34
⎢ 256
244
256
− 120
256⎥
⎥. condicional y una inversa mínimo cuadrática de A, respectivamente.
⎢⎣− 256 −
44 120
256
80
256 ⎥⎦ 1. AcA = In si y sólo si AgA = In.
2. AmcA = In si y sólo si AgA = In.
⎡0 0 0 0 ⎤
⎢ ⎥ 3. AcA = In si y sólo si AmcA = In.
⎢ 0 53 34 − 44
256 256 256 ⎥
4. N=⎢ ⎥.
0 34 244 − 120 Demostración
⎢ 256 256 256⎥
⎢0 − 44 − 120 80 ⎥
⎣ 256 256 256 ⎦ 1. CN (⇒): Si AcA = In entonces AgA = In.
5. Una inversa condicional de AtA es Por definición de inversa generalizada:
⎡0 0 0 0 ⎤
⎢ ⎥ AAgA = A
53 34 − 44
( ) c
AtA = ⎢
⎢0
0 34
256
244
256
− 120
256 ⎥
⎥.
⇒ Ac(AAgA) = Ac(A)
⇒ (AcA)(AgA) = AcA
⎢ 256 256 256⎥
⎢0 − 44 ⎥ ⇒ (In)(AgA) = In
− 120 80
⎣ 256 256 256 ⎦ ⇒ AgA = In

Luego, una inversa mínimo cuadrática de A es la siguiente matriz B: CS (⇒): Si AgA = In entonces AcA = In.

⎡0 0 0 0 ⎤ ⎡1 3 5⎤
Por definición de inversa condicional:
⎢ ⎥ ⎢ ⎥
⎢ 0 53 34 − 44
256 256 256 ⎥ ⎢0 2 4⎥ AAcA = A
B = (AtA)cAt = ⎢ ⎥
0 34 244 − 120 ⎢2 1 2⎥ ⇒ A (AAcA) = Ag(A)
g
⎢ 256 256 256⎥ ⎢ ⎥
⎢0 − 44 − 120 ⎥ ⇒ (AgA)(AcA) = AgA

80
256 ⎦ ⎣⎢3 1 6⎦⎥
256 256 ⇒ (In)(AcA) = In
⎡ 0 0 0 ⎤ ⇒ AcA = In
⎢ 1 ⎥
⎢−
1 3
4 8 16⎥ 2. La demostración es análoga a la demostración del apartado 1.
= ⎢ 1 3 −3 ⎥
⎢ 2 4 8⎥
⎢ 0 −1 1 ⎥ 3. La demostración es análoga a la demostración del apartado 1.
⎣ 2 4⎦
Teorema 10.8.
Teorema 10.6.
Sean A∈Mmxn(ℜ), B, C, D∈Mnxm(ℜ) e Y∈ℜm. La expresión:
Sea A∈Mmxn(ℜ). Si Rango(A) = n entonces existe una única inversa mínimo
cuadrática de A. ABY = Y

Demostración Es invariante para cualquier inversa condicional B de A.


t c t
Por el teorema 10.5., si (A A) es una inversa condicional de A A entonces la
siguiente matriz:

365 366
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Demostración 1. El SEL AX = Y es consistente si y sólo si existe una inversa mínimo


cuadrática Amc de A tal que AAmcY = Y.
Sean C, D∈Mnxm(ℜ) inversas condicionales de A tales que ACY = Y. Luego, 2. El SEL AX = Y es consistente si y sólo si AAgY = Y.
ACA = A y ADA = A. Por lo tanto,
Teorema 10.10.
ACY = Y ⇒ AD(ACY) = (AD)Y
⇒ (ADA)CY = ADY Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm. Si Rango(A) = m entonces el SEL AX = Y
⇒ ACY = ADY es consistente.
⇒ ADY = ACY
⇒ ADY = Y Demostración

Es decir, la expresión ABY = Y es invariante para cualquier inversa Como Rango(A) = m entonces por el teorema 10.2., apartado 12 se tiene que
condicional B de A. Ag = At(AAt)-1. Luego, AAgY = A(At(AAt)-1)Y = AAt(AAt)-1Y = ImY = Y. Por
el teorema anterior, el SEL AX = Y es consistente.
Observación:
Teorema 10.11. (Solución General de un SEL)
Como la inversa generalizada de A (Ag) y cualquier inversa mínimo cuadrática
de A, digamos Amc son inversas condicionales de A entonces la expresión Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm. Si el SEL AX = Y es consistente entonces
ABY = Y es invariante para cualquier pseudo inversa B (generalizada, su solución general denotada por Xsg es:
condicional o mínimo cuadrática) de A.
Xsg = AcY + (In – AcA)Z
10.5. APLICACIONES SOBRE SISTEMAS DE ECUACIONES
LINEALES. Siendo Ac una inversa condicional de A y Z∈ℜn.

Teorema 10.9. Demostración

Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm. El SEL AX = Y es consistente si y sólo si Para demostrar que el vector Xsg es la solución general del SEL AX = Y
existe una inversa condicional Ac de A tal que AAcY = Y. debemos probar que es solución del SEL AX = Y y que toda solución de dicho
sistema tiene la forma de Xsg.
Demostración
1. AXsg = A(AcY + (In – AcA)Z) = AAcY + AZ – AAcAZ = Y + AZ – AZ =
CN(⇒): Si el SEL AX = Y es consistente entonces existe una inversa Y. Por lo tanto, Xsg es solución del SEL AX = Y
condicional Ac de A tal que AAcY = Y. 2. Si X0 es solución del SEL AX = Y entonces:

Por hipótesis, el SEL AX = Y es consistente, es decir: AX0 = Y


⇒ AcAX0 = AcY
∃ X0∈ℜ: AX0 = Y ⇒ θnx1 = AcY – AcAX0
⇒ X0 + θnx1 = AcY – AcAX0 + X0
Sea Ac∈Mnxm(ℜ) tal que Ac es una inversa condicional de A. Luego, ⇒ X0 = AcY + (In – AcA)X0
⇒ X0 = AcY + (In – AcA)Z; Z = X0
AAcY = AAcAX0 = AX0 = Y ⇒ X0 = Xsg
Por consiguiente, X0 es de la misma forma que Xsg.
CS(⇐): Si existe una inversa condicional Ac de A tal que AAcY = Y entonces
el SEL AX = Y es consistente. Observación:

Si existe una inversa condicional Ac de A tal que AAcY = Y entonces existe Como cualquier inversa mínimo cuadrática y la inversa generalizada de A son
X0∈ℜn con X0 = AcY tal que AX0 = Y. Luego, el SEL AX = Y es consistente. también inversas condicionales de A entonces la solución general también se
puede escribir de la forma Xsg = AmcY + (In – AmcA)Z o de la forma
Observación: Xsg = AgY + (In – AgA)Z, siendo Amc una inversa mínimo cuadrática de A.
Además, si Z = θnx1 entonces AgY es solución del SEL AX = Y y existen una
Por el teorema 10.8., como la expresión ABY = Y es invariante para cualquier inversa condicional Ac y una inversa mínimo cuadrática Amc de A tales que
inversa condicional B de A entonces: AcY y AmcY son soluciones del SEL AX = Y.

367 368
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Teorema 10.12. Xsg = AgY + (In – AgA)Z; Z∈ℜn.

Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es consistente. El Sea B∈Mnxn(ℜ) la matriz definida por B = In – AgA.
vector X0 = AgY es la única solución del SEL AX = Y si y sólo si AgA = In.
La matriz B se puede expresar particionada por columnas 1xn de la siguiente
Demostración forma:

CN(⇒): Si el vector X0 = AgY es la única solución del SEL AX = Y entonces B = [B1 B2 … Bn]
AgA = In.
Luego, para Z0 = θnx1, Z1 = e1, Z2 = e2, …, Zn = en se obtienen n + 1 soluciones
Por el teorema 10.11., la solución general del SEL AX = Y es: del SEL AX = Y:

Xsg = AgY + (In – AgA)Z; Z∈ℜn. X0 = AgY + [B1 B2 … Bn]θnx1 = AgY


⎡1 ⎤
Si X0 = AgY es la única solución del SEL AX = Y entonces X0 = Xsg. Luego, ⎢ ⎥
0
X1 = AgY + [B1 B2 … Bn] ⎢ ⎥ = AgY + B1.
AgY = AgY + (In – AgA)Z; Z∈ℜn. ⎢M ⎥
⎢ ⎥
⇒ AgY – AgY = (In – AgA)Z; Z∈ℜn. ⎣⎢0⎦⎥
⇒ (In – AgA)Z = θnx1; Z∈ℜn.
⎡0 ⎤
⇒ In – AgA = θnx1 ⎢ ⎥
⇒ AgA = In 1
X2 = AgY + [B1 B2 … Bn] ⎢ ⎥ = AgY + B2.
⎢M ⎥
CS(⇒): Si AgA = In entonces el vector X0 = AgY es la única solución del SEL ⎢ ⎥
⎣⎢0⎦⎥
AX = Y
⎡0 ⎤
Por el teorema 10.11., la solución general del SEL AX = Y es: ⎢ ⎥
0
Xn = AgY + [B1 B2 … Bn] ⎢ ⎥ = AgY + Bn.
⎢M ⎥
Xsg = AgY + (In – AgA)Z; Z∈ℜn. ⎢ ⎥
⎣⎢1⎦⎥
Si AgA = In entonces Xsg = AgY + (In – In)Z = AgY. Luego, el vector X0 = AgY
es la única solución del SEL AX = Y. Sea X∈Mnx(n+1)(ℜ) la matriz definida por X = [X0 X1 X2 … Xn]. Luego,
X = [AgY AgY + B1 AgY + B2 … AgY + Bn]
Observaciones: ⎡1 1 1 L 1⎤
⎢ ⎥
1. Por el teorema 10.2., apartado 3, Rango(A) = Rango(AgA). Si AgA = In ⎢0 1 0 L 0 ⎥
entonces Rango(A) = Rango(In) = n. Luego, por el teorema anterior el
g
= [A Y B 1
B … B ] 0 0 1 L 0⎥
2 n ⎢
⎢ ⎥
vector X0 = AgY es la única solución del SEL AX = Y si y sólo si ⎢M M M M⎥
Rango(A) = n. ⎢0 0 0 L 1 ⎥
2. Si Rango(A) = n entonces el SEL AX = Y tiene una única solución ⎣ ⎦
X0 = AgY = (AtA)-1AtY. Si además m = n entonces la única solución es ⎡ 1
= [AgY B] ⎢
(1n )t ⎤
X0 = (AtA)-1AtY = (A)-1(At)-1AtY = A-1InY = A-1Y. ⎥
⎢⎣θ nxn I n ⎥⎦
Teorema 10.13. ⎡ 1
In – AgA] ⎢
(1n )t ⎤
= [AgY ⎥
⎢⎣θ nxn I n ⎥⎦
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm–{θmx1} y tales que el SEL AX = Y es
consistente. Si Rango(A) = r entonces el SEL AX = Y tiene exactamente
n – r + 1 soluciones L.I. ⎡ 1
Es claro que ⎢
(1n )t ⎤ es no singular. Luego, por el teorema 1.28.,

⎢⎣θ nxn I n ⎥⎦
Demostración
Rango(X) = Rango([A Y In – AgA]).
g

Por hipótesis, el SEL AX = Y es consistente. Luego, por el teorema 10.11., la


solución general de dicho SEL es: Ahora bien, por el teorema 10.2., apartado 14, Rango(B) = Rango(In – AgA)
= n – r.

369 370
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Demostremos que Rango(X) = n – r + 1. Utilicemos reducción al absurdo, es Luego,


decir, supongamos que Rango(X) ≠ n – r + 1. Específicamente, supongamos
que Rango(X) = n – r. Como Rango(B) = n – r entonces los vectores AgY, B1, t≤n–r+1
B2, …, Bn son L.D., luego por el teorema 4.9., AgY∈[B1, B2, …, Bn]. Por lo
tanto, existen escalares c1, c2, …, cn tales que: En consecuencia, el SEL AX = Y tiene exactamente n – r + 1 soluciones L.I.

n Observaciones:
AgY = ∑c B j
j

i =1 1. El vector X = θnx1 no es solución del SEL AX = Y, ya que Y ≠ θmx1. En


consecuencia, el conjunto de soluciones del SEL AX = Y no es un
Luego, subespacio de ℜn.

⎡ c1 ⎤ ⎡ c1 ⎤ 2. Si Y = θmx1 entonces el SEL AX = θmx1 tiene exactamente n – r


n ⎢ ⎥ ⎢ ⎥ soluciones distintas de la trivial y además dicho conjunto de soluciones
c ⎢c 2 ⎥
A Y=
g
∑c B
i =1
j
j
= [B 1
B … B ] ⎢ 2 ⎥ = (In – AgA)C; C =
2
⎢M⎥
n
⎢M⎥ que coincide con el espacio nulo de A NA, forma un subespacio de ℜn.
⎢ ⎥ ⎢ ⎥
⎣⎢c n ⎦⎥ ⎣⎢c n ⎦⎥ Ejemplo 10.4.

En consecuencia, Consideremos el SEL del ejemplo 3.6.:

Xsg = AgY + (In – AgA)Z = (In – AgA)C + (In – AgA)Z; C, Z∈ℜn. ⎧ X1 + 2X 2 + X 3 = 1


⇒ Xsg = (In – AgA)(C + Z) ⎪
⎨ 2X1 − X 2 + 3X 3 = 2
⎪2 X + 4 X + 2 X = 2
Por lo tanto, ⎩ 1 2 3

AXsg = A(In – AgA)(C + Z) En este caso:


⇒ AXsg = (A – AAgA)(C + Z)
⇒ AXsg = (A – A)(C + Z) ⎡1 2 1⎤ ⎡1 ⎤
⇒ AXsg = (θmxn)(C + Z) ⎢ ⎥ ⎢ ⎥
A = ⎢2 − 1 3⎥ , Y = ⎢ 2⎥
⇒ AXsg = θmx1
⎣⎢2 4 2⎦⎥ ⎣⎢2⎦⎥
Lo cual es una contradicción ya que Y ≠ θmx1. En consecuencia,
Rango(X) = n – r + 1 y como X es una matriz de soluciones del SEL AX = Y Se puede verificar que Rango(A) = 2. Igualmente, se puede verificar que una
entonces el SEL AX = Y tiene n – r + 1 soluciones L.I. inversa condicional de A es:

Para demostrar que el SEL AX = Y tiene exactamente n – r + 1 soluciones L.I., ⎡1 2 0⎤


supongamos que t es el número máximo de soluciones L.I. del SEL AX = Y. ⎢ 5 5 ⎥
Luego, existen H1, H2, …, Ht∈ℜn tales que: A = ⎢2
c
−1 0⎥
⎢ 5 5 ⎥
j g g j ⎢⎣ 0 0 0⎥

X = A Y + (In – A A)H es solución del SEL AX = Y.

Luego, También se puede verificar que AAcY = Y. Luego, por el teorema 10.9., el
SEL es consistente. Determinemos ahora su solución general:
⎡1 1 L 1⎤
W = [X1 X2 … Xt] = [AgY In – AgA] ⎢ 1 ⎥ Xsg = AcY + (In – AcA)Z; Z∈ℜn
⎣H H2 L Ht ⎦
⎡1 2 0⎤ ⎡1 ⎤ ⎡1⎤
Como X1, X2, …, Xt son L.I., entonces Rango(W) = t. Por el teorema 1.32., ⎢ 5 5 ⎥ ⎢ ⎥ ⎢ ⎥
Rango(W) es igual a: A Y = ⎢2
c
−1 0⎥ 2
⎢ ⎥ = ⎢0 ⎥
⎢ 5 5 ⎥ ⎢⎣2⎥⎦ ⎢⎣0⎥⎦
⎢⎣ 0 0 0⎥

⎡1 1 L 1⎤
Rango([AgY In – AgA] ⎢ 1 ⎥ ) ≤ Rango([A Y
g
In – AgA])
⎣H H2 L Ht ⎦

371 372
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⎡1 0 0⎤ ⎡⎢ 1 5 2 0⎤ ⎡1 2 1⎤ ⎡0 0 − 7 ⎤ EJERCICIOS PROPUESTOS.
⎢ ⎥
5 ⎥ ⎢ ⎥ ⎢ 5⎥
I3 – A A = ⎢0 1 0⎥ – ⎢ 2
c
−1 0⎥ ⎢2 − 1 3 ⎥ = ⎢0 0 1 ⎥ 1. Determine la inversa generalizada de cada una de las siguientes
5 5 ⎢ 5 ⎥
⎢⎣0 0 1⎥⎦ ⎢⎢ 0 0

0⎥ ⎢⎣2 4 2⎥⎦ ⎢⎣0 0 1 ⎥ matrices:
⎣ ⎦ ⎦
⎡ 2 0 −1 ⎤
Luego, ⎢ ⎥ ⎡1 0 −1 0⎤ ⎡ −1 0⎤
0 4 1⎥ ⎢ ⎥ ⎢ ⎥
A=⎢ ; B = ⎢3 − 2 2 4⎥ ; C = ⎢ 1 1 ⎥ ;
⎢− 3 0 − 2⎥
⎡1⎤ ⎡0 0 − 7 ⎤ ⎢ ⎥ ⎢⎣5 0 1 3⎥⎦ ⎢⎣ 2 3⎥⎦
⎢ ⎥ ⎢ 5⎥
⎣⎢ 0 1 2⎦⎥
X = ⎢0 ⎥ + ⎢0 0
sg 1 ⎥ Z; Z∈ℜ3
⎢ 5 ⎥ ⎡ 1 −2 1 −2 ⎤
⎢⎣0⎥⎦ ⎢⎣0 0 1 ⎥ ⎡ 1 −1 2⎤ ⎢ ⎥
⎦ ⎢ ⎥ −2 0 3 − 5⎥
D=⎢ 0 2 3⎥ ; E = ⎢ ;
⎢ 1 3 2 2⎥
Como Rango(A) = 2 el SEL AX = Y tiene exactamente 3 – 2 + 1 = 2 ⎢⎣ − 2 2 − 4⎥⎦ ⎢ ⎥
soluciones L.I. Fijando Z1 = θ3x1 y Z2 = e3 se obtienen las 2 soluciones X1 y X2 ⎣⎢− 2 − 5 2 − 9 ⎦⎥
L.I. de dicho SEL: ⎡1 2 5 2⎤
⎢ ⎥
F = ⎢3 7 − 12 4⎥
⎡− 7 ⎤ ⎡− 2 ⎤ ⎢⎣0
⎡1⎤ ⎡1⎤ ⎢ 5⎥ ⎢ 5⎥ 1 3 − 2⎥⎦
⎢ ⎥ ⎢ ⎥ ⎢ 1 ⎥ = ⎢ 1 ⎥
X1 = ⎢0⎥ y X2 = 0
⎢ ⎥ +
⎢⎣0⎥⎦ ⎢⎣0⎥⎦ ⎢ 5⎥ ⎢ 5⎥
⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦ 2. Sea A∈Mmxn(ℜ), B∈Mnxn(ℜ). Demuestre que si BtAtA + AtAB
= ((AB)tA)t entonces AB = θmxn.
Esta operación equivale a desarrollar la solución general: 3. Sea A∈Mmxn(ℜ), tal que Rango(A) = r, con 0 < r < m. Demuestre que
A(AtA)gAt es semidefinida positiva.
⎡1⎤ ⎡0 0 − 7 ⎤ ⎡ Z ⎤
⎢ ⎥ ⎢ 5⎥ 1

X = ⎢0 ⎥ + ⎢0 0
sg 1 ⎥ ⎢Z ⎥ 4. Sea A∈Mmxn(ℜ). Demuestre que Ag = At si y sólo si AtA es
⎢ 5 ⎥ ⎢ 2⎥ idempotente.
⎢⎣0⎥⎦ ⎥⎦ ⎢⎣ Z3 ⎥⎦
⎣⎢
0 0 1
5. Sea A∈Mmxm(ℜ). Demuestre que si A es simétrica entonces Ag es
⎡1⎤ ⎡ − 7 Z3 ⎤ diagonalizable.
⎢ ⎥ ⎢ 5 ⎥
= ⎢0 ⎥ + ⎢ 1 Z 3 ⎥
⎢ 5 ⎥ 6. Sean A∈Mmxm(ℜ), B∈M(m-n)xm(ℜ) tales que BA = θ(m-n)xm con
⎢⎣0⎥⎦ ⎢⎣ Z3 ⎥⎦ Rango(A) = r y Rango(B) = m – r. Demuestre que la matriz AAg +
BgB es no singular.
⎡1⎤ ⎡− 7 ⎤
⎢ ⎥ ⎢ 5⎥
= ⎢0⎥ + Z3 ⎢ 1 ⎥ ; Z3∈ℜ 7. Sean A∈Mmxm(ℜ), B∈M(m-n)xm(ℜ) tales que A es simétrica,
⎢⎣0⎥⎦ ⎢ 5⎥ BA = θ(m-n)xm, Rango(A) = r y Rango(B) = m – r. Demuestre que la
⎣⎢
1⎥ matriz A + BtB es no singular.

Para luego fijar Z3 = 0 y Z3 = 1 y así obtener las 2 soluciones L.I. del SEL 8. Sean A∈Mmxm(ℜ), B∈M(m-n)xm(ℜ) tales que A es simétrica y
AX = Y: BA = θ(m-n)xm. Demuestre que:

⎡− 7 ⎤ ⎡− 2 ⎤ BtBAg = ABg(Bg)t = θmxm


⎡1⎤ ⎡1⎤ ⎢ 5⎥ ⎢ 5⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢0⎥ + ⎢ 5 ⎥ = ⎢⎢ 5 ⎥⎥
X1 = ⎢0⎥ y X2 = 1 1 9. Sean A, B∈Mnxn(ℜ) matrices simétricas, tales que Rango(A) = m,
⎢⎣0⎥⎦ ⎢⎣0⎥⎦ Rango(B) = r y BA = θnxn, con 0 < m < n, 0 < r < n y m + r = n.
⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦
Demuestre que si C y D son las inversas generalizadas de A y B,
respectivamente, entonces A + B es no singular.

10. Determine una inversa condicional de cada una de las matrices del
ejercicio 1.

373 374
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

11. Sean A, B∈Mnxn(ℜ) tales que Rango(A) = r < n, B es no singular y la ⎧X1 + 3X 2 − X 4 = 0


matriz BA es idempotente. Demuestre que B es una inversa ⎪
condicional de A.
18.4. ⎨X1 − X 3 + X 4 = 0
⎪X + X = 0
⎩ 1 2
12. Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ). Demuestre que si B es una inversa
condicional de A entonces Rango(A) = Rango(BAB). 19. Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm. Considere el SEL AX = Y. Sea Ac
una inversa condicional de A. Sean Hj∈ℜn; ∀ j = 1, 2, …, t y cj∈ℜ;
13. Sean G∈Mpxp(ℜ) y X∈Mnxp(ℜ) tal que Rango(X) = r con 0 < r < p. ∀ j = 1, 2, …, t. Demuestre que si el SEL AX = Y es consistente
Demuestre que si G es una inversa condicional de XtX entonces: t

13.1. t
G es inversa condicional de X X. t
entonces el vector Z = AcY + ∑ c (I
j=1
j n − A c A)H j es solución del SEL

13.2. XGXtX = X. AX = Y.
13.3. XGXt es invariante respecto de cualquier inversa
condicional G de XtX. 20. Sean A∈Mmxn(ℜ), B∈Mpxq(ℜ), C∈Mmxq(ℜ) y X∈Mnxp(ℜ). Demuestre
13.4. XGXt es simétrica. que una condición necesaria y suficiente para que la ecuación
13.5. XGXt es semidefinida positiva. AXB = C tenga una solución es que AAgCBgB = C y en tal caso su
13.6. Rango(In – XGXt) = n – r. solución general es de la forma Xsg = AgCBg + Z – AgAZBBg; donde
13.7. CtXGXtXB = UtB; ∀ B∈ℜp donde U = XtC y C∈ℜn. Z∈Mnxp(ℜ).
14. Determine una inversa mínimo cuadrática para cada una de las 21. Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm. Sea X0 = AgY una solución del
matrices dadas en el ejercicio 1. sistema de ecuaciones AX = Y. Demuestre que el vector Z = X0 + W
es una solución del SEL AX = Y, ∀ W∈S⊥, siendo
15. Sean A∈Mmxn(ℜ) y Amc∈Mnxm(ℜ) tales que Amc es una inversa S = {(A1)t, (A2)t, …, (An)t}.
mínimo cuadrática de A. Demuestre que AAg = Im si y sólo si
AAmc = Im.

16. Sea A∈Mmxn(ℜ). Demuestre que si A1mc y A mc


2 son inversas mínimo
cuadráticas de A entonces A (A1mc − A mc
2 ) = θ mxm .

17. Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ). Demuestre que si B es una inversa


condicional de AtA entonces BAt es una inversa mínimo cuadrática de
A.

18. Demuestre que los siguientes SEL son consistentes y determine para
cada uno de ellos su solución general así como el conjunto de
soluciones L.I.:

⎧2X1 − 2X 2 + 4X 3 − 2X 4 = −4

18.1. ⎨X1 + 5X 3 − 2X 4 = 3
⎪− 3X + 3X − 6X + 3X = 6
⎩ 1 2 3 4

⎧X1 + X 2 + X 3 = 3

18.2. ⎨X1 − X 2 + 2X 3 = −3
⎪3X − X + 5X = −2
⎩ 1 2 3

⎧4X1 + 2X 2 + 2X 3 = 3

18.3. ⎨2X1 + 2X 2 = 0
⎪2 X + 2 X = 3
⎩ 1 3

375 376
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

2 2
ε(X ) = ( Y − AA mc Y) + (AX − AA mc Y) –2 (Y − AA mc Y) t (AX − AA mc Y)
2

Capítulo 11 2 2
= (Y − AX smc ) + (AX − AX smc ) –2 (Y − AA mc Y ) t (AX − AA mc Y )
SISTEMAS DE ECUACIONES 2 2
LINEALES INCONSISTENTES = ε(X smc ) + (AX − AX smc ) – 2 (Y − AA mc Y) t (AX − AA mc Y)

Ahora bien,

(Y − AA mc Y ) t (AX − AA mc Y ) = ((I n − AA mc )Y) t (A(X − A mc Y))


11.1. INTRODUCCIÓN.
= Y t (I n − AA mc ) t (A(X − A mc Y))
En este capítulo se presentan los Sistemas de Ecuaciones Lineales
Inconsistentes. Se exponen sus tópicos básicos como lo son la Solución = Y t ((I n ) t − (AA mc ) t )(A (X − A mc Y ))
Mínimo Cuadrática y la Mejor Solución Aproximada. De esta forma, aunque = Y t (I n − AA mc )(A(X − A mc Y))
un Sistema de Ecuaciones Lineales sea inconsistente siempre será posible
obtener un vector que es lo más parecido a la solución del sistema. = Y t (A − AA mc A )(X − A mc Y )
= Y t (A − A)(X − A mc Y)
11.2. SOLUCIÓN MÍNIMO CUADRÁTICA. PROPIEDADES.
= Y t (θ mxn )(X − A mc Y )
Observación: =0

Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm. Si ∀ X∈ℜn se verifica que AX ≠ Y Por lo tanto,


entonces el SEL AX = Y es inconsistente (SELI) y se expresa de la forma
Y – AX = ε(X), siendo ε(X) un vector de desviaciones ∀ X∈ℜn. ε( X )
2
= ε(X smc )
2
+ (AX − AX smc )
2

Definición 11.1
En consecuencia,
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente.
Se dice que un vector Xsmc∈ℜn es una solución mínimo cuadrática del SELI ε( X )
2 2
≥ ε(X smc ) , es decir, ε(X smc )
2
≤ ε( X ) .
2

Y – AX = ε(X) si y sólo si ε(X smc


) = Mínimo ε( X ) .
X∈ℜn

Luego, ε(X smc ) ≤ ε(X) y ε(X smc ) = Mínimo ε( X ) .


Teorema 11.1. n
X∈ℜ

Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente. Por consiguiente, Xsmc = AmcY es una solución mínimo cuadrática del SELI
El vector Xsmc = AmcY es una solución mínimo cuadrática del SELI Y – AX = ε(X).
Y – AX = ε(X), siendo Amc una inversa mínimo cuadrática de A.
Observaciones:
Demostración
1. Como la inversa mínimo cuadrática de A no es única entonces no existe
Minimizar ε(X) equivale a minimizar ε(X) .
2 una única solución mínimo cuadrática del SELI Y – AX = ε(X).
2. Por el teorema 10.6., si Rango(A) = n entonces existe una única inversa
mínimo cuadrática de A igual a la inversa generalizada y por lo tanto el
2 2 2 SELI Y – AX = ε(X) tiene una única solución mínimo cuadrática.
ε(X ) = Y − AX = Y − AA mc Y + AA mc Y − AX
3. Mínimo ε(X) = Y − AA mc Y .
2 X∈ℜ
n
= (Y − AA Y) + (AA Y − AX)
mc mc
4. Como la inversa generalizada de A (Ag) es una inversa mínimo
2 cuadrática de A entonces una solución mínimo cuadrática del SELI
= (Y − AA mc Y) − (AX − AA mc Y)
Y – AX = ε(X) es Xsmc = AgY.

Por el teorema 5.2., se tiene que:

378
CAPÍTULO 11: SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Teorema 11.2.
= ((I m − AA g )Y) t (I m − AAg )Y
n m
Sean A∈Mmxn(ℜ), X∈ℜ e Y∈ℜ tales que el SEL AX = Y es inconsistente. = (Y − AA g Y ) t (Y − AA g Y )
El vector Xsmc∈ℜn es una solución mínimo cuadrática del SELI Y – AX = ε(X)
si y sólo si ε(X smc ) = Y t (I m − AA g )Y . = (Y − AA mc Y) t (Y − AA mc Y)
= Y − AA mc Y
Demostración
= Mínimo ε(X )
X∈ℜ
n

CN(⇒): Si el vector X ∈ℜ es una solución mínimo cuadrática del SELI Y –


smc n

AX = ε(X) entonces ε(X smc ) = Y t (I m − AA g )Y . Por consiguiente,


smc mc mc
Por hipótesis, X = A Y, siendo A una inversa mínimo cuadrática de A. Xsmc es una solución mínimo cuadrática del SELI Y – AX = ε(X).
Luego,
Teorema 11.3.
ε(X smc ) = Y − AX smc = Y − AA mc Y
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente.
El vector Xsmc∈ℜn es una solución mínimo cuadrática del SELI Y – AX = ε(X)
Ahora bien,
si y sólo si Xsmc es solución del SEL AX = AAgY.
AAmcA = A ⇒ AAmcAAg = AAg Demostración
⇒ AAmcAAg = AAg
⇒ (AAmc)t(AAg)t = AAg CN(⇒): Si Xsmc∈ℜn es una solución mínimo cuadrática del SELI
⇒ (AAgAAmc)t = AAg Y – AX = ε(X) entonces Xsmc es solución del SEL AX = AAgY.
⇒ (AAmc)t = AAg
⇒ AAmc = AAg Por el teorema 11.2., se tiene que:

Luego, 2
ε(X smc ) = Y t (I m − AA g )Y , es decir, ε(X smc ) = Y t (I m − AA g )Y .
ε(X smc ) = Y − AA g Y = (Y − AA g Y ) t (Y − AA g Y )
Sea Z = Xsmc – AgY. Luego, Xsmc = Z + AgY. En consecuencia,
= ((I m − AA )Y) (I m − AA )Y
g t g

= (Y t (I m − AAg ) t (I m − AAg )Y ε( Z + A g Y) = Y t (I m − AA g )Y .
⇒ (Y – A(Z+AgY))t(Y – A(Z+AgY)) = Yt(Im – AAg)Y
Por el teorema 10.2., apartado 8 se tiene que Im – AAg es simétrica e ⇒ (Y – AZ –AAgY))t(Y – AZ –AAgY) = Yt(Im – AAg)Y
idempotente. Por consiguiente: ⇒ (Y – AAgY – AZ))t(Y –AAgY – AZ) = Yt(Im – AAg)Y
⇒ ((Im – AAg)Y – AZ))t((Im –AAg)Y – AZ) = Yt(Im – AAg)Y
ε(X smc ) = Y t (I m − AA g )Y ⇒ (((Im – AAg)Y)t – (AZ)t)((Im –AAg)Y – AZ) = Yt(Im – AAg)Y
⇒ (Yt(Im – AAg)t – ZtAt)((Im –AAg)Y – AZ) = Yt(Im – AAg)Y
⇒ Yt(Im – AAg)t(Im –AAg)Y – Yt(Im –AAg)tAZ – ZtAt(Im –AAg)Y + ZtAtAZ
CS(⇐): Si ε(X smc ) = Y t (I m − AA g )Y entonces el vector Xsmc∈ℜn es una = Yt(Im – AAg)Y

solución mínimo cuadrática del SELI Y – AX = ε(X). Por el teorema 10.2., apartado 8 se tiene que Im – AAg es simétrica e
idempotente. Por consiguiente:
Por hipótesis ε(X smc ) = Y t (I m − AA g )Y . Además, si Amc es una inversa
Yt(Im – AAg)Y – Yt(Im –AAg)AZ – ZtAt(Im –AAg)tY + ZtAtAZ = Yt(Im – AAg)Y
mínimo cuadrática de A entonces AAmc = AAg. Luego, ⇒ Yt(Im – AAg)Y – Yt(A –AAgA)Z – Zt((Im –AAg)A)tY + ZtAtAZ
= Yt(Im – AAg)Y
ε(X smc ) = Y t (I m − AA g )Y = (Y t (I m − AA g ) t (I m − AA g )Y ⇒ Yt(Im – AAg)Y – Yt(A –AAgA)Z – Zt((A –AAgA)tY + ZtAtAZ
= Yt(Im – AAg)Y
⇒ Yt(Im – AAg)Y – Yt(A –A)Z – Zt((A –A)tY + ZtAtAZ = Yt(Im – AAg)Y

379 380
CAPÍTULO 11: SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

⇒ Yt(Im – AAg)Y – Yt(θmxn)Z – Zt((θmxn)tY + ZtAtAZ = Yt(Im – AAg)Y Demostración


⇒ Yt(Im – AAg)Y + ZtAtAZ = Yt(Im – AAg)Y
⇒ ZtAtAZ = Yt(Im – AAg)Y – Yt(Im – AAg)Y Por definición, el SELN del SELI Y – AX = ε(X) es AtAX = AtY. Utilicemos
⇒ (AZ)tAZ = 0 el teorema 10.9., para demostrar que el SELN es siempre consistente:
⇒ AZ = θmx1
(AtA)(AtA)gAtY = AtAAg(At)gAtY
En consecuencia: = AtAAg(Ag)tAtY
= AtAAg(AAg)tY
AXsmc = A(Z + AgY) = AZ + AAgY = θmx1 + AAgY = AAgY. = AtAAgAAgY
= AtAAgY
Es decir, Xsmc es solución del SEL AX = AAgY. = At(AAg)tY
= (AAgA)tY
CS(⇐): Si Xsmc∈ℜn es solución del SEL AX = AAgY entonces Xsmc es una = AtY
solución mínimo cuadrática del SELI Y – AX = ε(X).
En consecuencia, el SELN es consistente y su solución general es:
Por hipótesis:
X sg = (A t A ) g A t Y + (I n − (A t A ) g (A t A )) Z; Z ∈ ℜ n
smc g
AX = AA Y. = A g (A t ) g A t Y + (I n − A g (A t ) g A t A) Z; Z ∈ ℜ n
Luego, = A g (A g ) t A t Y + (I n − A g (A g ) t A t A ) Z; Z ∈ ℜ n
= A g (AA g ) t Y + (I n − A g (AA g ) t A) Z; Z ∈ ℜ n
ε(X smc ) = Y − AX smc = Y − AA g Y = (Y − AA g Y ) t (Y − AA g Y ) = A g AA g Y + (I n − A g AA g A ) Z; Z ∈ ℜ n
= ((I m − AA g )Y) t (I m − AAg )Y = A g Y + (I n − A g A) Z; Z ∈ ℜ n

= (Y t (I m − AAg ) t (I m − AAg )Y Teorema 11.5.

Por el teorema 10.2., apartado 8 se tiene que Im – AAg es simétrica e Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente.
idempotente. Por consiguiente: El vector Xsmc∈ℜn es una solución mínimo cuadrática del SELI Y – AX = ε(X)
si y sólo si Xsmc es solución del SELN de dicho SELI.
ε(X smc ) = Y t (I m − AA g )Y
Demostración

Por el teorema 11.2., Xsmc es una solución mínimo cuadrática del SELI CN(⇒): Si Xsmc∈ℜn es una solución mínimo cuadrática del SELI
Y – AX = ε(X). Y – AX = ε(X) entonces Xsmc es solución del SELN de dicho SELI.

Definición 11.2. Por hipótesis, Xsmc∈ℜn es una solución mínimo cuadrática del SELI
Y – AX = ε(X). Luego, por el teorema 11.3., Xsmc es solución del SEL
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente. AX = AAgY. Por lo tanto,
Se define como sistema de ecuaciones lineales normales (SELN) del SELI
Y – AX = ε(X) al SEL AtAX = AtY. AXsmc = AAgY ⇒ AtAXsmc = AtAAgY
⇒ AtAXsmc = At(AAg)tY
Teorema 11.4. ⇒ AtAXsmc = (AAgA)tY
⇒ AtAXsmc = AtY
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente.
Entonces el SELN del SELI Y – AX = ε(X) es consistente y además su Es decir, Xsmc es solución del SELN del SELI Y – AX = ε(X).
solución general es:
CS(⇐): Si Xsmc∈ℜn es solución del SELN de dicho SELI entonces Xsmc es una
X sg = A g Y + (I n − A g A) Z; Z ∈ ℜ n solución mínimo cuadrática del SELI Y – AX = ε(X).

Por hipótesis, Xsmc∈ℜn es solución del SELN del SELI Y – AX = ε(X). Luego,

381 382
CAPÍTULO 11: SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

AtAXsmc = AtY ⇒ (Ag)tAtAXsmc = (Ag)tAtY


⇒ (AAg)tAXsmc = (AAg)tY (Xsmc)tXsmc = (AgY)t(AgY) + Yt((Ag)t – (Ag)t(AgA)t)Xsmc +
⇒ AAgAXsmc = AAgY + (Xsmc)t(In – AgA)AgY + ((In – AgA)Xsmc)t((In – AgA)Xsmc)
⇒ AXsmc = AAgY = (Xmsa)t(Xmsa) + Yt((Ag)t – (AgAAg)t)Xsmc +
+ (Xsmc)t(Ag – AgAAg)Y + (Xsmc – AgAXsmc)t(Xsmc – AgAXsmc)
Es decir, Xsmc es solución del SEL AX = AAgY. Por consiguiente, por el = (Xmsa)t(Xmsa) + Yt((Ag)t – (Ag)t)Xsmc + (Xsmc)t(Ag – Ag)Y +
teorema 11.3., Xsmc es solución mínimo cuadrática del SELI Y – AX = ε(X). + (Xsmc – AgAAgY)t(Xsmc – AgAAgY)
= (X ) (Xmsa) + Yt(θmxn)Xsmc + (Xsmc)t(θnxm)Y +
msa t

11.3. MEJOR SOLUCIÓN APROXIMADA. PROPIEDADES Y + (Xsmc – AgY)t(Xsmc – AgY)


EJEMPLOS. = (Xmsa)t(Xmsa) + (Xsmc – Xmsa)t(Xsmc – Xmsa)

Definición 11.3 Luego,

2 2 2
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente. X smc = X msa + X smc − X msa
Se dice que el vector Xmsa∈ℜn es la mejor solución aproximada del SELI
Y – AX = ε(X) si y sólo si:
Como Xsmc ≠ Xmsa entonces:
msa
1. X es una solución mínimo cuadrática.
2. ∀ Xsmc∈ℜn solución mínimo cuadrática del SELI Y – AX = ε(X) con ⇒ X smc
2
> X msa
2

Xsmc ≠ Xmsa se cumple que X msa < X smc . 2 2


⇒ X msa < X smc
Teorema 11.6.
⇒ X msa < X smc
n m
Sean A∈Mmxn(ℜ), X∈ℜ e Y∈ℜ tales que el SEL AX = Y es inconsistente.
El vector Xmsa = AgY es la mejor solución aproximada del SELI Por lo tanto, el vector Xmsa es la mejor solución aproximada del SELI
Y – AX = ε(X). Y – AX = ε(X).

Demostración Observaciones:

1. Es claro que Xmsa = AgY es una solución mínimo cuadrática del SELI 1. Como Ag es única entonces existe una única mejor solución aproximada
Y – AX = ε(X). Xmsa = AgY del SELI Y – AX = ε(X).
2. Sea Xsmc una solución mínimo cuadrática del SELI Y – AX = ε(X) con 2. Si Rango(A) = n entonces por el teorema 10.6., existe una única inversa
mínimo cuadrática igual a la inversa generalizada. En ese caso, existe una
Xsmc ≠ Xmsa. Luego, ε(X smc ) = ε(X msa ) y además por el teorema 11.3.,
única solución mínimo cuadrática igual a la mejor solución aproximada
Xsmc es solución del SEL AX = AAgY, es decir, AXsmc = AAgY. Por lo del SELI Y – AX = ε(X).
tanto,
Ejemplo 11.1.
AXsmc = AAgY ⇒ AgAXsmc = AgAAgY
⇒ AgAXsmc = AgY Consideremos el SEL del Ejemplo 3.4.:
⇒ AgAXsmc + Xsmc = AgY + Xsmc
⇒ Xsmc = AgY + Xsmc – AgAXsmc ⎧ X1 + 2X 2 + X 3 = 1
⇒ Xsmc = AgY + (In – AgA)Xsmc ⎪
⎨ 2X1 − X 2 + 3X 3 = 2
⎪2 X + 4X + 2 X = 4
En consecuencia, ⎩ 1 2 3

(Xsmc)tXsmc = (AgY + (In – AgA)Xsmc)t(AgY + (In – AgA)Xsmc) En este caso:


= (Yt(Ag)t + (Xsmc)t(In – AgA)t)(AgY + (In – AgA)Xsmc)
= Yt(Ag)tAgY + Yt(Ag)t(In – AgA)Xsmc + (Xsmc)t(In – AgA)tAgY + ⎡1 2 1⎤ ⎡1 ⎤
+ (Xsmc)t(In – AgA)t(In – AgA)Xsmc ⎢ ⎥ ⎢ ⎥
A = ⎢2 −1 3⎥ , Y = ⎢ 2⎥
Por el teorema 10.2., apartado 8 se tiene que In – AgA es simétrica. Por ⎢⎣2 4 2⎥⎦ ⎢⎣4⎥⎦
consiguiente:

383 384
CAPÍTULO 11: SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Se puede verificar que Rango(A) = 2. Igualmente, se puede verificar que una Ejemplo 11.2.
inversa condicional de A es:
Consideremos el SEL del ejemplo 3.7.:
⎡1 2 0⎤
⎢ 5 5 ⎥ ⎧X1 − 2X 2 + 3X 3 = 2
A =⎢
c 2 −1 0⎥ ⎪
⎢ 5 5 ⎥ ⎪ 2X1 + X 2 + X 3 = 4
⎢⎣ 0 0 0⎥ ⎨
⎦ ⎪ X1 − 2X 2 + X 3 = 1
⎪ 2X 2 + 3X 3 = 6

También se puede verificar que:
En este caso:
⎡1 ⎤
⎢ ⎥
AAcY = ⎢2⎥ ≠ Y. Por lo tanto el SEL es inconsistente. ⎡ 1 −2 3⎤ ⎡ 2⎤
⎢⎣2⎥⎦ ⎢ ⎥ ⎢ ⎥
2 1 1⎥ ⎢ 4⎥
A=⎢ , Y=
⎢1 − 2 1⎥ ⎢1 ⎥
Determinemos una solución mínimo cuadrática y la mejor solución ⎢ ⎥ ⎢ ⎥
⎢⎣0 2 3⎥⎦ ⎢⎣6⎥⎦
aproximada.

Se puede verificar que una inversa mínimo cuadrática de A es: Se puede verificar que Rango(A) = 3. Por lo tanto, la inversa mínimo
cuadrática es única y coincide con la inversa generalizada Ag = (AtA)-1At:
⎡1 2 2 ⎤
⎢ 25 5 25⎥ ⎡ − 37 476 115 − 160 ⎤
A mc
= ⎢2 −1 4 ⎥ ⎢ 1030 1030 1030 1030 ⎥
⎢ 25 5 25⎥ A = (A A) A = ⎢− 152
g t −1 t 146 − 140 150 ⎥
⎢⎣ 0 0 0 ⎥ ⎢ 1030 1030 1030 1030 ⎥
⎦ ⎢⎣ 158 1030 − 84 10 210
1030 1030 1030⎥⎦
En consecuencia, una solución mínimo cuadrática del SEL es:
También se puede verificar que:
⎡1 2 2 ⎤ ⎡29 ⎤
⎢ 25 5 25⎥ ⎡1 ⎤ ⎢ 25⎥ ⎡ 531 ⎤
⎢ ⎥
4 ⎥ 2 = ⎢8 ⎥ ⎢ 206 ⎥
Xsmc = AmcY = ⎢ 2 −1
⎢ 25 5 25⎥ ⎢ ⎥ ⎢ 25 ⎥ ⎢ 852 ⎥
⎢⎣ 0 0 0 ⎥ ⎢⎣4⎥⎦ ⎢⎣ 0 ⎥⎦ AAgY = ⎢ 206 ⎥ ≠ Y. Por lo tanto el SEL es inconsistente.
⎦ ⎢ 31 ⎥
⎢1166206 ⎥
Se puede verificar que la inversa generalizada de A es: ⎢⎣ 206⎥⎦

⎡8 45 16 ⎤ En este caso existe una única solución mínimo cuadrática que además es la
⎢ 375 375 375 ⎥ mejor solución aproximada. Dicha solución es:
A =⎢
g 31 − 60 62 ⎥
⎢ 375 375 375⎥
⎢ 5 375 75 10
375 ⎥⎦ ⎡ − 37 476 115 − 160 ⎤ ⎡ 2⎤ ⎡197 ⎤
⎣ 375 ⎢ 1030 1030 10301030 ⎥ ⎢ ⎥ ⎢ 205 ⎥
X msa g
= A Y = ⎢− 152 146 − 140 150 ⎥ ⎢ 4⎥ = ⎢208 ⎥
Por lo tanto, la mejor solución aproximada del SEL es: ⎢ 1030 1030 1030 1030 ⎥ ⎢1 ⎥ ⎢ 205⎥
⎢⎣ 1581030 − 84 10 210 ⎢ ⎥ 250
1030 1030 1030⎥⎦ ⎢⎣6⎥⎦

⎣ 205⎥⎦
⎡8 45 16 ⎤ ⎡1 ⎤ ⎡162 ⎤
⎢ 375 375 375 ⎥
⎢ ⎥ ⎢ 375⎥
X msa
= A Y = ⎢31
g
− 60 62 ⎥ ⎢2⎥ = ⎢⎢
159 ⎥
⎢ 375 375 375⎥ 375⎥
⎢⎣ 5 375 75 10 ⎢⎣4⎥⎦ 195
375 375 ⎥⎦ ⎢⎣ 375⎥⎦

385 386
CAPÍTULO 11: SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES

EJERCICIOS PROPUESTOS.

1. Demuestre que los siguientes SEL son inconsistentes y determine


para cada uno de ellos una solución mínimo cuadrática, su mejor
solución aproximada y su sistema de ecuaciones lineales normales
con su respectiva solución general:

⎧3X1 + 2X 2 = 12

1.1. ⎨X1 − X 2 = −1
⎪2 X + X = 5
⎩ 1 2

⎧X1 + X 2 + X 3 = 6

1.2. ⎨2X1 − X 2 = 0
⎪3X + X = 7
⎩ 1 3

⎧X1 + 2X 2 + 3X 3 = 1

1.3. ⎨2X1 − X 3 = 5
⎪− 4X − 7X = −21
⎩ 2 3

⎧3X1 + X 2 − X 3 = 9

⎪X1 + 3X 2 − X 3 = 7
1.4. ⎨
⎪2X1 − X 2 − X 3 = 5
⎪7 X1 − 11X 2 + X 3 = 2

2. Sean A∈Mmxn(ℜ), X∈ℜn, Y∈ℜm tales que el SEL Y = AX es


inconsistente. Demuestre que el SEL AX = AAgY es consistente y
que si X smc es una solución mínimo cuadrática del SELI
Y – AX = ε(X) entonces X smc = AgY + (In – AgA)Z; Z∈ℜn es la
solución general del SEL AX = AAgY.

3. Sean A∈Mmxn(ℜ), X∈ℜn, Y∈ℜm tales que el SEL Y = AX es


inconsistente. Demuestre que AX smc es invariante para cualquier
vector X smc solución del SELN del SELI Y – AX = ε(X).

4. Sean A∈Mmxn(ℜ), X∈ℜn, Y∈ℜm tales que el SEL Y = AX es


inconsistente. Demuestre que la forma cuadrática
f (Y) = (Y − AXsmc ) t (Y − AX smc ) es invariante y semidefinida
positiva para cualquier solución mínimo cuadrática X smc del SELI
Y – AX = ε(X), con 0 < Rango(A) < n.

5. Sean A∈Mmxn(ℜ), X, W∈ℜn, Y, C∈ℜm tales que el SEL Y = AX es


inconsistente, con 0 < Rango(A) < n. Sea X msa la mejor solución
aproximada del SELI Y – AX = ε(X). Demuestre que si CtAX = WtX;
∀ X∈ℜn entonces ∃ V0∈ℜn tal que V0 es solución del SEL
AtAV = W y además W t X msa = (V 0 ) t A t Y .

387
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

p p
Apéndice V F
F V

LÓGICA PROPOSICIONAL
Ejemplo A.2.

En el ejemplo A.1.,

A.1. PROPOSICIONES LÓGICAS. Para p: “María estudió más de 10 horas para el 1º examen parcial de Algebra
Lineal” la proposición p es p : “María estudió 10 horas o menos para el 1º
Definición A.1. examen parcial de Algebra Lineal”. El valor veritativo de p es V y el valor
Se define como proposición lógica o proposición a toda afirmación o expresión veritativo de p es F.
que se hace de algún fenómeno y que dispone de un criterio objetivo que Para q: “María aprobó el 1º examen parcial de Algebra Lineal” la proposición
permite afirmar que es verdadera o falsa.
q es q : “María reprobó el 1º examen parcial de Algebra Lineal”. El valor
Si una proposición es verdadera se dice que su valor veritativo es “Verdadero” veritativo de q es F y el valor veritativo de q es V.
y se denota por “V”, mientras que si una proposición es falsa entonces se dice
que su valor veritativo es “Falso” y se denota por “F”. Definición A.3.
La tabla que muestra los valores veritativos posibles de una o más Dadas dos proposiciones p y q se define como proposición “conjunción de p y
proposiciones recibe el nombre de Tabla de Verdad. Para una proposición en q” y se denota por p ∧ q a la proposición que tiene como valor veritativo V
particular la tabla de verdad es:
sólo cuando p y q tienen como valores veritativos V y tiene como valor
veritativo F en cualquier otra situación. La proposición p ∧ q se lee como “p y
p
V q”. Su tabla de verdad es:
F
p q p∧q
Ejemplo A.1. V V V
V F F
La afirmación p: “María estudió más de 10 horas para el 1º examen parcial de F V F
Algebra Lineal” es una proposición ya que puede ser verdadera o falsa. A F F F
efectos académicos supondremos que efectivamente María estudió más de 10
horas para el 1º examen parcial de Algebra Lineal y entonces el valor Ejemplo A.3.
veritativo de esta proposición es V. La afirmación q: “María aprobó el 1º
examen parcial de Algebra Lineal” es una proposición ya que puede ser En el ejemplo A.1.,
verdadera o falsa. A efectos académicos supondremos que María no aprobó el
1º examen parcial de Algebra Lineal, es decir, el valor veritativo de esta La proposición p y q es p ∧ q : “María estudió más de 10 horas para el 1º
proposición es F. examen parcial de Algebra Lineal y aprobó dicho examen”. Como el valor
veritativo de p es V y el valor veritativo de q es F entonces el valor veritativo
A.2. CONECTIVOS LÓGICOS. de p ∧ q es F.

Definición A.2. Definición A.4.


Dada una proposición p se define como proposición “negación de p” y se Dadas dos proposiciones p y q se define como proposición “disyunción
denota por p a la proposición que tiene como valor veritativo V cuando p incluyente de p y q” y se denota por p ∨ q a la proposición que tiene como
tiene como valor veritativo F y tiene como valor veritativo F cuando p tiene valor veritativo F sólo cuando p y q tienen como valores veritativos F y tiene
como valor veritativo V. La proposición p se lee como “no p”. Su tabla de como valor veritativo V en cualquier otra situación. La proposición p ∨ q se
verdad es: lee como “p o q”. Su tabla de verdad es:

A- 2
APENDICE: LÓGICA PROPOSICIONAL ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

p q p∨q En este caso la proposición p se dice que es el antecedente del condicional y la


V V V proposición q se dice que es el consecuente del condicional.
V F V
F V V Ejemplo A.6.
F F F
En el ejemplo A.1.,
Ejemplo A.4.
La proposición si p entonces q es p → q : “Si María estudió más de 10 horas
En el ejemplo A.1., para el 1º examen parcial de Algebra Lineal entonces aprobó dicho examen”.
Como el valor veritativo de p es V y el valor veritativo de q es F entonces el
La proposición p o q es p ∨ q : “María estudió más de 10 horas para el 1º valor veritativo de p → q es F.
examen parcial de Algebra Lineal o aprobó dicho examen”. Como el valor
veritativo de p es V y el valor veritativo de q es F entonces el valor veritativo Definición A.7.
de p ∨ q es V.
Dadas dos proposiciones p y q se define como proposición “bicondicional de p
Definición A.5. y q” y se denota por p ↔ q a la proposición que tiene como valor veritativo V
sólo cuando p y q tienen los mismos valores veritativos y tiene como valor
Dadas dos proposiciones p y q se define como proposición “disyunción veritativo F en cualquier otra situación. La proposición p ↔ q se lee como “p
excluyente de p y q” y se denota por p∨q a la proposición que tiene como si y sólo si q”. Su tabla de verdad es:
valor veritativo F sólo cuando p y q tienen los mismos valores veritativos y
p q p↔q
tiene como valor veritativo V en cualquier otra situación. La proposición p∨q
V V V
se lee como “o p o q”. Su tabla de verdad es: V F F
F V F
p q p∨q F F V
V V F
V F V En este caso cada proposición participa simultáneamente como antecedente y
F V V consecuente.
F F F
Ejemplo A.7.
Ejemplo A.5.
En el ejemplo A.1.,
En el ejemplo A.1.,
La proposición p si y sólo si q es p ↔ q : “María estudió más de 10 horas para
La proposición o p y q es p∨q : “o María estudió más de 10 horas para el 1º
el 1º examen parcial de Algebra Lineal si y sólo si aprobó dicho examen”.
examen parcial de Algebra Lineal o aprobó dicho examen”. Como el valor Como el valor veritativo de p es V y el valor veritativo de q es F entonces el
veritativo de p es V y el valor veritativo de q es F entonces el valor veritativo valor veritativo de p ↔ q es F.
de p∨q es V.

Definición A.6. A.3. TIPOS DE CONDICIONALES.


Dadas dos proposiciones p y q se define como proposición “condicional de p y
Definición A.8.
q” y se denota por p → q a la proposición que tiene como valor veritativo F
sólo cuando p tiene como valor veritativo V y q tiene como valor veritativo F y Dadas dos proposiciones p y q, el condicional p → q recibe el nombre de
tiene como valor veritativo V en cualquier otra situación. La proposición
condicional directo. Además de éste existen otros 3 condicionales:
p → q se lee como “si p entonces q”. Su tabla de verdad es:
1. q → p , el cual recibe el nombre de condicional recíproco.
p q p→q
V V V 2. p → q , el cual recibe el nombre de condicional contradirecto.
V F F 3. q → p , el cual recibe el nombre de condicional contrarecíproco.
F V V
F F V

A- 3 A- 4
APENDICE: LÓGICA PROPOSICIONAL ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

Ejemplo A.8. 4. p∨q ≡ q∨p . (Propiedad Conmutativa de la Disyunción


Incluyente)
En el ejemplo A.1., 5. p∧q ≡ q∧p . (Propiedad Conmutativa de la Conjunción)
6. p ↔ q ≡ ( p → q ) ∧ (q → p ) (Propiedad de Conjunción de
El condicional directo p → q es: “Si María estudió más de 10 horas para el 1º
Condicionales)
examen parcial de Algebra Lineal entonces aprobó dicho examen”.
7. p↔q≡q↔p. (Propiedad Conmutativa del Bicondicional)
El condicional recíproco q → p es: “Si María aprobó el 1º examen parcial de 8. p →q ≡ p∧q . (Propiedad de Negación de un Condicional)
Algebra Lineal entonces estudió más de 10 horas para dicho examen”.
9. p→q≡q→p (Equivalencia Contrarecíproca)

El condicional contradirecto p → q es: “Si María estudió 10 horas o menos 10. p → q ≡ p ∧ q → O . (Equivalencia Reducción al Absurdo)
para el 1º examen parcial de Algebra Lineal entonces reprobó dicho examen”.
A.6. CONDICIONALES TAUTOLÓGICOS O TEOREMAS.
El condicional contrarecíproco q → p es: “Si María reprobó el 1º examen Definición A.11.
parcial de Algebra Lineal entonces estudió 10 horas o menos para dicho
examen”. Dadas dos proposiciones p y q, se dice que el condicional p → q es una
implicación si dicho condicional es una tautología. En ese caso se dice que p
A.4. TAUTOLOGÍAS, CONTRADICCIONES Y CONTINGENCIAS. implica a q o que q se deduce de p y se escribe p ⇒ q . Igualmente al
Definición A.9. antecedente p se le denomina hipótesis y al consecuente q se le denomina tesis.
La implicación p ⇒ q también se conoce como teorema. Asimismo se dice
Se dice que una proposición obtenida de un conectivo lógico es una: que p es condición suficiente para q y que q es condición necesaria para p.

1. Tautología y se denota por I cuando su valor veritativo siempre es Analicemos por un instante la tabla de verdad del condicional p → q :
V.
2. Contradicción y se denota por O cuando su valor veritativo siempre P q p→q
es F. V V V
3. Contingencia cuando no es una Tautología ni es una Contradicción. V F F
F V V
Ejemplo A.9. F F V
Las proposiciones p ↔ q del ejemplo A.7., y p → q del ejemplo A.6., son Observemos que si el antecedente (p) es verdadero el condicional será una
contradicciones, mientras que la proposición p ∨ q del ejemplo A.4., es una tautología cuando el consecuente (q) también sea verdadero, en tanto que si el
tautología. antecedente (p) es falso el condicional será una tautología independientemente
del valor veritativo del consecuente (q). La única forma de que el condicional
sea una contradicción es que el antecedente (p) sea verdadero y el consecuente
A.5. PROPOSICIONES EQUIVALENTES. (q) sea falso. Lo usual es que el punto de partida sea que el antecedente (p) es
verdadero, para luego utilizando una serie de herramientas deducir el valor
Definición A.10. veritativo del consecuente (q) lo cual nos llevará a saber si el condicional es o
no una implicación.
Se dice que dos proposiciones p y q son equivalentes y se escribe p ≡ q si
tienen la misma tabla de verdad. Igualmente se dice que un bicondicional p ↔ q es una doble implicación si
dicho bicondicional es una tautología. En ese caso se escribe p ⇔ q y se dice
Las equivalencias más importantes son las siguientes: que p es condición necesaria y suficiente para q.

1. p≡p. (Propiedad Reflexiva de la Negación) A.7. MÉTODOS DE DEMOSTRACIÓN DE TEOREMAS.

2. p∨q ≡ p∧q . (Ley de Morgan de la Disyunción Incluyente) Como se señaló anteriormente el condicional p → q es una implicación y se
escribe p ⇒ q si dicho condicional es una tautología. El método o la serie de
3. p∧q ≡ p∨q . (Ley de Morgan de la Conjunción)
razonamientos y deducciones válidas y lógicas empleadas para mostrar que un

A- 5 A- 6
APENDICE: LÓGICA PROPOSICIONAL ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

condicional es una implicación o un teorema recibe el nombre de alguno de los 3 métodos de demostración para probar que el condicional es
Demostración. Existen tres (3) métodos de demostración: verdadero. Notemos que tanto el antecedente como el consecuente plantean
desigualdades lo cual podríamos tomar como proposiciones definidas de forma
1. Método Directo: Se basa en el condicional propiamente dicho afirmativa. Por ello, utilizaremos el método directo. Supongamos que el
p → q . Se utiliza casi siempre; fundamentalmente cuando las antecedente es verdadero, es decir, que x + 9 < 3 – 2x. Luego,
proposiciones p y q están definidas de forma afirmativa. Por
ejemplo, p: “Juan cobró su quincena ayer” y q:”Juan llevó a su x + 2x < 3 – 9
novia al cine anoche” ⇒ 3x < –6
⇒ x < −6
2. Método Contrarecíproco: Se basa en la equivalencia 3
⇒ x < –2
p → q ≡ q → p . Se utiliza fundamentalmente cuando las
proposiciones p y q estén definidas de forma negativa. Por ejemplo, Es decir, el consecuente es verdadero. Por consiguiente, hemos demostrado
p: “Juan no llevó a su novia al cine anoche” y q: “Juan no cobró su que el condicional es verdadero.
quincena ayer”.
Ejemplo A.11.
3. Método Reducción al Absurdo: Se basa en la equivalencia
p → q ≡ p ∧ q → O . Se utiliza fundamentalmente cuando la Sea f: ℜ→ℜ definida por f(x) = ax + b, con a≠0. Demuestre que f es inyectiva.
proposición p está definida de forma afirmativa y la proposición q
esta definida de forma negativa. Por ejemplo, p: “Juan cobró su Observamos nuevamente que el enunciado comienza diciendo “Demuestre
quincena ayer” y q: “Juan almorzó fuera de su casa ayer”. que” lo cual indica que el condicional es verdadero y debemos demostrarlo.
Una función f es inyectiva cuando para pre-imágenes distintas existen
La forma afirmativa o negativa como se le podría catalogar que esta definida imágenes distintas, es decir, si x, y∈Dom(f) el condicicional si x ≠ y entonces
una proposición es algo relativo. Por ejemplo, para algunos lectores la f(x) ≠ f(y) es verdadero. Notemos que demostrar que f es inyectiva se reduce a
proposición q: “Juan almorzó fuera de su casa ayer” puede estar definida de demostrar que si x ≠ y entonces f(x) ≠ f(y). En este caso tanto el antecedente
forma afirmativa y quizás para otros puede estar definida de forma negativa. como el consecuente expresan que una cosa es diferente de otra, es decir, están
En ese caso, la experiencia en el tema donde se encuentra el teorema a definidas de forma negativa, por lo cual resulta conveniente utilizar el método
demostrar resulta clave en la elección del método para lograr realizar la de demostración contrarecíproco. Esto es, para demostrar que si x ≠ y entonces
demostración del teorema. Pero en general, las razones señaladas en los f(x) ≠ f(y) se debe demostrar que si f(x) = f(y) entonces x = y. En efecto,
párrafos anteriores son las fundamentales para elegir el método apropiado para
demostrar un teorema. f(x) = f(y) ⇒ ax + b = ay + b
⇒ ax = ay + b – b
Además de estos tres (3) métodos de demostración existe otro método de ⇒ ax = ay
demostración que involucra proposiciones que están definidas en función de un
⇒ x = (a )y
número natural (ℵ). Dicho método recibe el nombre de Inducción Matemática. a
Fue creado por Blaise Pascal en el año 1.662 cuando éste creó lo que hoy en ⇒x=y
día se conoce como el triángulo de Pascal. Este método consiste en los
siguientes pasos: Luego, el condicional contrarecíproco es verdadero y por lo tanto el
condicional directo también es verdadero. Por consiguiente, f es inyectiva.
1. Demostrar que la afirmación es cierta para algún natural; por lo
general el de menor valor. Ejemplo A.12.
2. Se supone que la afirmación es cierta para un natural k mayor o
igual que el elegido en el primer paso. Esto recibe el nombre de Sean a, b, c∈ℜ con a≠0. Demuestre que si b2 – 4ac < 0 entonces la ecuación de
hipótesis de inducción. 2º grado ax2 + bx + c = 0 no tiene soluciones reales.
3. Se demuestra que la afirmación es cierta para el entero k+1. Esto
recibe el nombre de tesis de inducción. De nuevo el enunciado comienza diciendo “Demuestre que” lo cual indica que
el condicional es verdadero y debemos demostrarlo. En este caso, el
Ejemplo A.10. antecedente plantea una desigualdad lo cual se puede tomar como una
proposición definida de forma afirmativa mientras que el consecuente se
Demuestre que si x + 9 < 3 – 2x entonces x < –2. plantea de forma negativa ya que esta diciendo que una cosa no tiene otra cosa.
Esto nos indica que resulta conveniente utilizar el método de reducción al
Observemos que el enunciado comienza diciendo “Demuestre que” lo cual absurdo. Para ello debemos suponer que b2 – 4ac < 0 y que la ecuación de 2º
significa que dicho condicional es verdadero. Debemos entonces utilizar

A- 7 A- 8
APENDICE: LÓGICA PROPOSICIONAL ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS

grado ax2 + bx + c = 0 tiene soluciones reales y debemos llegar a una Ejemplo A.14.
contradicción. En efecto,
Sean a, b, c∈ℜ con a≠0. Determine si la proposición “si b = 0 entonces la
La fórmula resolvente de la ecuación de 2º grado ax2 + bx + c = 0 es: ecuación de 2º grado ax2 + bx + c = 0 tiene soluciones complejas” es verdadera
o falsa justificando su respuesta con una demostración si es verdadera o un
contraejemplo si es falsa.
− b ± b 2 − 4ac
x=
2a En este caso, el enunciado no comienza diciendo “Demuestre que” sino que
comienza diciendo “Determine si la proposición… es verdadera o falsa”. Esto
Como dicha ecuación tiene soluciones reales entonces eso quiere decir que significa que debemos determinar el valor veritativo de este condicional. Para
b2 – 4ac ≥ 0 lo cual es una contradicción ya que b2 – 4ac < 0. De esta forma ello, definitivamente se debe tener un conocimiento del tema en estudio para
hemos demostrado que el condicional es verdadero. así tener una idea inicial de si esta proposición es verdadera o falsa. Pareciera
que el hecho de que b sea igual a cero nada tiene que ver con que la ecuación
Ejemplo A.13. de 2º grado ax2 + bx + c = 0 tenga soluciones complejas, por lo cual esta
proposición luce falsa. Busquemos un contraejemplo:
Sean x, y∈ℜ y n∈ℵ*. Entonces se cumple que:
Consideremos la ecuación de 2º grado x2 – 4 = 0. En este caso b = 0 y la
(xy)n = xnyn ecuación tiene 2 soluciones reales x1 = 2 y x2 = -2, es decir, no tiene soluciones
complejas. En este ejemplo, el antecedente es verdadero y el consecuente es
En este caso tenemos una proposición que depende de un número natural (n). falso. Por consiguiente, el condicional es falso.
Por ello, resulta conveniente utilizar el método de demostración de inducción
matemática.
Debemos demostrar que la proposición es verdadera para n = 1.

En efecto,

(xy)1 = xy = x1y1

Supongamos que la proposición es cierta para n = m, es decir,

(xy)m = xmym

Demostremos que la proposición es cierta para n = m+1. En efecto,

(xy)m+1 = (xy)m(xy)

Pero por hipótesis de inducción, (xy)m = xmym. Luego,

(xy)m+1 = xmym(xy) = xmymxy = xmxymy = xm+1ym+1

Por consiguiente, la proposición es verdadera.

A.8. CONTRAEJEMPLOS.

El condicional p → q no es una implicación cuando dicho condicional no es


una tautología, es decir, es una contradicción. Esto solamente ocurre cuando el
valor veritativo de p es V y el de q es F. Si se consigue un ejemplo particular
en el cual p es verdadera pero q es falsa se habrá demostrado que el
condicional p → q es falso. Dicho ejemplo recibe el nombre de
contraejemplo.

A- 9 A - 10
BIBLIOGRAFÍA

1. ECHARRY, A. (1983): Desarrollo de Algunos Elementos


Fundamentales de Algebra Lineal y su Utilidad en la Estimación
Puntual Mínimo Cuadrática de los Parámetros del Modelo Lineal
Asociado al Diseño de Experimentos, Trabajo de Ascenso, UCV,
Venezuela.

2. GROSSMAN, S. (1993): Algebra Lineal, Mc Graw-Hill, México.

3. HOFFMAN, J. (1999): Selección de Temas de Matemática, SPHINX,


Venezuela.

4. HOHN, F. (2002): Elementary Matrix Algebra, DOVER


PUBLICATIONS, INC, Estados Unidos.

5. RAMÍREZ, G. y VÁSQUEZ, M. (2000): Aspectos Teóricos del


Álgebra Matricial con Aplicaciones Estadísticas, FACES UCV,
Venezuela.

6. SEBER, G. (1977): Linear Regresión Analysis, Library of Congreso


Cataloging in Publication Data, Estados Unidos.

También podría gustarte