Documentos de Académico
Documentos de Profesional
Documentos de Cultura
⎢ ⎥ ⎪
A = ⎢0 −1 3⎥ ⎨4 x1 − 4x 2 + 2x 3 = 2
⎢⎣2 0 1⎥⎦ ⎪ 2x + 3x − 2x = 1
⎩ 1 2 3
n
El Álgebra Lineal es una materia
∑
1 de suma importancia para los
A-1 = Adj(A) α= ci • αi
Det (A) i =1 estudiantes de Estadística y
p Ciencias Actuariales. No
ProyWβ = ∑ < β, α
i =1
i > αi T(c•α + β) = c•T(α) + T(β) solamente porque en
programas de estudio existen 2
sus
1,5
Estadística y Ciencias Actuariales
1
de la principal herramienta para
0,5
el estudio del Álgebra Lineal, no
0
solo para los que cursan esta
0 0,5 1 1,5 2 ψ1 materia sino para los que cursan
asignaturas relacionadas y que
requieren consultar definiciones,
1. (AAg)t = AAg. teoremas o aplicaciones vinculadas
2. (AgA)t = AgA. X smc = A mc Y con dichas materias.
3. g
AA A = A. X msa = A g Y
4. AgAAg = Ag.
William Noguera
ALGEBRA LINEAL
para Estadísticos y Actuarios
William Noguera
Universidad Central de Venezuela Editor:
El autor
Transcrito por:
El autor
Impreso por:
El autor
Segunda Edición:
5. Espacios Euclídeos.
Definición 1.2.
Capítulo 1 Sean m, n ∈ ℵ*. Se define como matriz de orden mxn con coeficientes en K a
la función Amxn: Jm x Jn → K con regla de correspondencia Amxn(i,j) = Aij. La
TEORÍA DE MATRICES matriz A se representa por un arreglo rectangular con la siguiente estructura:
1. ∀ x, y ∈ K se cumple que x + y = y + x
Nótese que A11 = 1, A12 = 0, A21 = -1, A22 = 2, A31 = 1 y A32 = 1.
2. ∀ x, y, z ∈ K se cumple que x + (y + z) = (x + y) + z
3. ∃ θ ∈ K tal que ∀ x ∈ K se cumple que x + θ = x Notación:
4. ∀ x ∈ K ∃ -x ∈ K tal que x + (-x) = θ.
5. ∀ x, y ∈ K se cumple que x . y = y . x. El conjunto de todas las matrices de orden mxn con coeficientes en K se
6. ∀ x, y, z ∈ K se cumple que x . (y . z) = (x . y) . z. denomina cuerpo de matrices de orden mxn en K y se denota por Mmxn(K).
7. ∃ u ∈ K ( u ≠ θ ) tal que ∀ x ∈ K se cumple que x . u = x
8. ∀ x ∈ K ( x ≠ θ ) ∃ x-1 ∈ K tal que se cumple que x . x-1 = u Observación:
9. ∀ x, y, z ∈ K se cumple que x . (y + z) = (x . y) + (x . z)
El elemento genérico de una matriz A de orden mxn es Amxn(i,j) = Aij. Para
En la mayoría de los cuerpos la notación de la operación producto es ignorada descargar la notación, se utilizará Aij.
ya que queda sobreentendida.
Definición 1.3.
Ejemplo 1.1.
Sea A∈Mmxn(K). Se dice que la matriz A es:
Los conjuntos ℜ y Q tienen estructura de cuerpo con las propiedades de suma
y producto. 1. Cuadrada de orden m (n) si m = n.
2. Rectangular si m ≠ n .
Notación:
Cuando A es cuadrada la línea diagonal formada por los valores A11, A22, ...,
Sea n ∈ ℵ*. El conjunto {1, 2,…, n} se denota por Jn. Ann se dice que es la diagonal principal de la matriz A.
2
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Definición 1.5.
El resultado es el siguiente:
Sean A, B∈ Mmxn(K). Se define como matriz suma de A y B y se denota por
⎡0 1 0 0 0 1⎤ A + B a la matriz (A + B) ∈ Mmxn(K) definida como (A + B)ij = Aij + Bij.
⎢ ⎥
⎢0 0 1 1 0 0⎥
⎢0 1 0 1 0 0⎥ Ejemplo 1.5.
A=⎢ ⎥
⎢0 1 0 0 1 0⎥
⎢0 ⎡1 2⎤ ⎡−2 2⎤
0 0 1 0 1⎥ Sean A, B∈ M2x2(ℜ) definidas por A = ⎢ ⎥ , B=⎢ ⎥ . Como A y B
⎢ ⎥ 3 4
⎣ ⎦ ⎣ 1 5⎦
⎣⎢0 1 0 0 1 0⎦⎥
son de orden 2x2 entonces existe la matriz suma A+B la cual es:
Observando las columnas de A se aprecia que el participante 1 no tuvo ⎡1 + (−2) 2 + 2⎤ ⎡ −1 4⎤
señalamientos, el participante 2 tuvo 4 señalamientos, el participante 3 tuvo 1 A+B=⎢ ⎥=⎢ ⎥
señalamiento, el participante 4 tuvo 3 señalamientos, el participante 5 tuvo 2 ⎣ 3 +1 4 + 5⎦ ⎣ 4 9⎦
señalamientos y el participante 6 tuvo 2 señalamientos. Luego, los amenazados Teorema 1.1.
son los participantes 2 y 4.
Sean A, B, C∈ Mmxn(K). Entonces se cumple que:
Ejemplo Aplicado 1.2.
1. A + B = B + A.
2. A + (B + C) = (A + B) + C.
Consideremos las ciudades venezolanas Caracas, Maracay, Valencia,
Barquisimeto y Maracaibo. Se define la matriz B de la siguiente forma: 3. ∃ θ∈Mmxn(K) (θij = 0 ∀ (i,j) ∈ Jm x Jn) tal que ∀ A ∈ Mmxn(K) se
cumple que A + θ = A.
Bij = Distancia (Km) de la i-ésima ciudad a la j-ésima ciudad. 4. ∀ A∈Mmxn(K) ∃ -A∈Mmxn(K) ((-A)ij) = -Aij) tal que A+(-A)= θ.
3 4
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Demostración 2
(AB)21 = ∑A
r =1
2 r B r1 = A21B11 + A22B21 = 2.1+3.3 = 2+9 = 11
1. (1A)ij = 1Aij = Aij
2
2. (c(A+B))ij = c(A+B))ij
= c(Aij + Bij) (AB)22 = ∑A
r =1
2r B r 2 = A21B12 + A22B22 = 2.(-1)+3.2 = –2 + 6 = 4
= cAij + cBij
2
= (cA + cB)ij)
3. ((c+d)A)ij = (c+d)Aij
(AB)31 = ∑A
r =1
3r B r1 = A31B11 + A32B21 = 2.1+1.3 = 2 + 3 = 5
= cAij + dAij 2
= (cA)ij + (dA)ij
= (cA + dA)ij
(AB)32 = ∑A
r =1
3r B r 2 = A31B12 + A32B22 = 2.(-1)+1.2 = –2 + 2 = 0
4. ((cd)A)ij = (cd)Aij
= c(dAij) = c(dA)ij Luego,
⎡ −2 −3⎤
Definición 1.7. ⎢ ⎥
AB = ⎢ 11 4⎥
Sean A ∈ Mmxn(K) y B ∈ Mnxp(K). Se define como matriz producto de A y B y ⎢⎣ 5 0⎥⎦
se denota por AB a la matriz AB ∈ Mmxp(K) definida como:
5 6
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
También se puede calcular la matriz AB sin realizar todo el procedimiento 2. Como C, D ∈ Mpxs(K) entonces (C + D) ∈ Mpxs(K) y como B ∈
formal anterior, haciendo la siguiente operación: Mnxp(K) entonces el producto B(C+D) está definido y se cumple
que (B(C + D))∈Mnxs(K). Luego:
⎡1.1 + (−1).3 1.(−1) + (−1).2⎤ ⎡1 − 3 −1 − 2 ⎤ ⎡ −2 −3⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ p
AB = ⎢ 2.1 + 3.3 2.(−1) + 3.2 ⎥ = ⎢2 + 9 − 2 + 6⎥ = ⎢ 11 4⎥
⎢⎣ 2.1 + 1.3 2.(−1) + 1.2 ⎥⎦ ⎢⎣ 2 + 3 − 2 + 2⎥⎦ ⎢⎣ 5 0 ⎥⎦
(B(C+D))ij = ∑B r =1
ir (C + D) rj
Teorema 1.3.
= ∑ (B
r =1
ir C rj + B ir D rj )
p p
Sean A, E∈Mmxn(K), B∈Mnxp(K), C, D∈Mpxs(K) y c∈K. Entonces se cumple = ∑B ir C rj + ∑B ir D rj
que: r =1 r =1
= (BC)ij + (BD)ij
1. A(BC) = (AB)C. = (BC + BD)ij
2. B(C + D) = BC + BD.
3. (A + E)B = AB + EB. 3. Como A, E ∈ Mmxn(K) entonces (A + E) ∈ Mmxn(K) y como B ∈
4. A(cB) = (cA)B = cAB. Mnxp(K) entonces el producto (A + E)B está definido y se cumple
que ((A + E)B) ∈ Mmxp(K). Luego:
Demostración n
((A+E)B)ij = ∑ (A + E) ir B rj
1. Como B∈Mnxp(K) y C∈Mpxs(K) el producto BC está definido y se r =1
n
= ∑A ir B rj + ∑E ir B rj ) = (AB)ij + (EB)ij
∑
r =1 r =1
(A(BC))ij = A ir (BC) rj
r =1
= (AB + EB)ij
n p
= ∑ A (∑ B
r =1
ir
h =1
rh C hj )
4. (A(cB))ij =
n
∑A ir (cB) rj
r =1
n p
= ∑∑ A
r =1 h =1
ir B rh C hj
= ∑ cA
n
ir B rj
r =1
p n
= ∑∑ A
h =1 r =1
ir B rh C hj
=
n
∑ (cA) ir B rj
r =1
p n
= ∑ (∑ A
h =1 r =1
ir B rh )C hj = ((cA)B))ij
n
p n
= c ∑A ir B rj = c(AB)ij
= ∑ C (∑ A
h =1
hj
r =1
ir B rh )
r =1
7 8
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Sea A∈M3x2(ℜ) definida por: Se define como matriz identidad de orden n a la matriz cuadrada In ∈ Mnxn(K)
definida de la siguiente forma:
⎡ 1 2⎤
⎢ ⎥ ⎧1 si i = j
A = ⎢− 2 2⎥ (In)ij = ⎨
⎢⎣ 3 4⎥⎦ ⎩0 si i ≠ j
⎡1 −2 3⎤ Teorema 1.5.
At = ⎢ ⎥
⎣2 2 4⎦
Sea A ∈ Mmxn(K). Entonces se cumple que AIn = ImA = A
Teorema 1.4.
Demostración
Sean A, B ∈ Mmxn(K) y C ∈ Mnxp(K). Entonces se cumple que:
n
1. t t
(A ) = A.
(AIn)ij = ∑A
r =1
ir (I n ) rj
2. (A + B)t = At + Bt.
3. (AC)t = CtAt. = A i1 (I n )1 j + ... + A ij (I n ) jj + ... + A in (I n ) nj
9 10
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
11 12
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ A r1 ⎤ Definición 1.17.
⎢ ⎥
Ar2 ⎥
Ar = ⎢ es la transpuesta de la r-ésima fila de A. Sea X∈Mnxp(ℜ) una matriz de datos. Se define como Matriz de Datos Centrada
⎢ M ⎥
⎢ ⎥ asociada a la Matriz de Datos X a la matriz X̂ ∈Mnxp(ℜ) con elemento
⎣⎢ A rp ⎦⎥
genérico X̂ ij = X ij − X j , siendo X j la media aritmética de las n mediciones de
Lo propio ocurre con las matrices Grammian de la forma AAt.
13 14
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n n
1 1
Sea X∈Mnxp(ℜ) una matriz de datos. Se define como Matriz de Datos =
n
∑1.X rj =
n
∑X rj = Xj
Estandarizada asociada a la matriz de datos X a la matriz X̂ E ∈Mnxp(ℜ) con r =1 r =1
1 1 1
1 n
X ri − X i X rj − X j
Teorema 1.6. =
n
∑(
r =1 Si
)(
Sj
)
X. 1
= Sij
2. X̂ = PX . Si S j
1
3. V = X̂ t X̂ . Sij
n = = rij = Rij.
Si S j
1
4. R = (X̂ E ) t X̂ E 1
n ⇒ (X̂ E ) t X̂ E = R
n
15 16
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Observación: ⎡12 11 10 ⎤
⎢ ⎥
La matriz de varianzas y covarianzas y la matriz de correlaciones son matrices ⎢10 12 09⎥
Grammian. ⎢08 14 12 ⎥
UX = 1 [7 1
7
1
7
1
7
1
7
1
7 7
]
1 ⎢⎢17 ⎥
19 18 ⎥
Ejemplo Aplicado 1.4. ⎢15 13 11⎥
⎢ ⎥
En relación al ejemplo aplicado 1.3.: ⎢12 10 08⎥
⎢ ⎥
⎣13 09 13 ⎦
1. El vector generador de medias es:
= [12,43 12,57 11,57]
U=
1
7
[1 1 1 1 1 1 1] = 1 7 1 7 [ 1
7
1
7
1
7
1
7
1
7
] 5. La matriz de datos centrada es:
17 18
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
7. Las desviaciones estándares de las 3 variables son: 1. Substituir la p-ésima columna de A por dicha columna más d veces
la s-ésima columna de A, donde d∈K, d ≠ 0 ( p ≠ s ). Se denota
S1 = 2,77, S2 = 3,06 y S3 = 3,06 por cp → cp + dcs.
2. Multiplicar la p-ésima columna de A por un escalar d∈K, d ≠ 0 .
Luego, la matriz de datos estandarizada es:
Se denota por cp → dcp.
3. Intercambiar las columnas p-ésima y s-ésima de A. Se denota por
⎡ −0,15 −0,51 −0,51 ⎤
⎢ ⎥ cp ↔ cs.
⎢− 0,88 − 0,19 − 0,84⎥
⎢ − 1,60 0,47 0,14 ⎥ Observación:
⎢ ⎥
X̂ E = ⎢ 1,65 2,10 2,10 ⎥
⎢ 0,93 Una operación elemental de filas o de columnas es una función
0,14 − 0,19 ⎥ e:Mmxn(K)→ Mmxn(K) que asigna a cada matriz A∈Mmxn(K) una única matriz
⎢ ⎥
⎢ − 0,15 − 0,84 − 1,17 ⎥ e(A)∈Mmxn(K). En particular, para el caso de las filas:
⎢ ⎥
⎣ 0,21 − 1,17 0,47⎦
1. e:rp→rp+crs ( c ≠ 0 )
8. La matriz de correlaciones es:
⎧⎪A ij si i ≠ p
e(A)ij = ⎨
1
R = (X̂ E ) t X̂ E ⎪⎩A pj + cA sj si i = p
7
⎡ −0,15 −0,51 −0,51 ⎤ 2. e:rp→crp ( c ≠ 0 )
⎢ ⎥
⎢ − 0,88 − 0,19 − 0,84 ⎥
⎡−0,15 −0,88 −1,60 1,65 0,93 −0,15 0,21⎤ ⎢ − 1,60 0,47 0,14 ⎥ ⎧⎪A ij si i ≠ p
1 ⎢ ⎥ ⎢ ⎥ e(A)ij = ⎨
= −0,51 −0,19 0,47 2,10 0,14 −0,84 −1,17⎥ ⎢ 1,65 2,10 2,10 ⎥ ⎪⎩cA pj si i = p
7 ⎢ ⎢ 0,93
⎢⎣−0,51 −0,84 0,14 2,10 −0,19 −1,17 0,47⎥⎦ 0,14 − 0,19 ⎥
⎢ ⎥
⎢ − 0,15 − 0,84 − 1,17 ⎥ 3. e:rp↔rs
⎢ ⎥
⎣ 0,21 − 1,17 0,47⎦
⎧A ij si i ≠ p e i ≠ s
⎡1,00 0,43 0,59⎤ ⎪
⎢ ⎥ e(A)ij = ⎨A sj si i = p
= ⎢0,43 1,00 0,76⎥ ⎪A
⎩ pj si i = s
⎢⎣0,59 0,76 1,00 ⎥⎦
De forma análoga ocurre para el caso de las columnas sólo que en lugar de e se
1.6. OPERACIONES ELEMENTALES DE FILAS Y DE COLUMNAS. denota por f.
Definición 1.21. Ejemplo 1.19.
Sea A∈Mmxn(K). Una operación elemental de filas sobre A es cualquiera de las Sea A∈M3x2(ℜ) definida por:
siguientes operaciones:
19 20
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
f2: c2→3c2 ⎡1 2⎤ ⎡1 6 ⎤
f3: c1↔c2 ⎢ ⎥ 2 3c 2 ⎢ ⎥
A = ⎢0 1 ⎥ ⎯c⎯→⎯
⎯→⎢0 3⎥ = f 2 (A)
Luego,
⎢⎣3 2⎥⎦ ⎢⎣3 6⎥⎦
⎡1 + 2.0 2 + 2.1⎤ ⎡1 4⎤ ⎡1 2⎤ ⎡2 1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 1 c2 ⎢ ⎥
e1(A) = ⎢ 0 1 ⎥ = ⎢0 1 ⎥ A = ⎢0 1 ⎥ ⎯c⎯↔⎯→ ⎢1 0 ⎥ = f 3 ( A )
⎢⎣ 3 2 ⎦ ⎣3 2⎥⎦
⎥ ⎢ ⎢⎣3 2⎥⎦ ⎢⎣2 3⎥⎦
⎡2.1 2.2⎤ ⎡2 4⎤
⎢ ⎥ ⎢ ⎥ También es posible aplicar simultáneamente 2 o más operaciones elementales
e2(A) = ⎢ 0 1 ⎥ = ⎢0 1 ⎥
siempre y cuando la fila o columna cambiante en cada operación no sea la
⎢⎣ 3 2 ⎦ ⎣3 2⎥⎦
⎥ ⎢
misma. Por ejemplo:
⎡1 2⎤
⎢ ⎥ e1: r1→r1+2r2
e3(A) = ⎢3 2⎥ e4: r3→r3 – r2
⎢⎣0 1 ⎥⎦
⎡1 2 − 1⎤ ⎡1 1⎤ ⎡1 2⎤ r → r + 2 r ⎡1 4⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎯⎯
1
⎯
1
⎯2 → ⎢ ⎥
f1(A) = ⎢0 1 − 0 ⎥ = ⎢0 1⎥ A = ⎢0 1 ⎥ r → r − r ⎢0 1 ⎥ = e 4 (e1 (A ))
⎢⎣3 2⎥⎦ ⎯⎯3
⎯ ⎯
3 2
→ ⎢⎣3 1 ⎥⎦
⎢⎣3 2 − 3⎥⎦ ⎢⎣3 − 1⎥⎦
⎡2 1⎤ Teorema 1.7.
⎢ ⎥
f2(A) = ⎢1 0⎥
⎢⎣2 3⎥⎦ Sea e: Mmxn(K)→ Mmxn(K) la operación elemental de filas definida por:
⎡1 3.2⎤ ⎡1 6⎤ ⎧⎪A ij si i ≠ p
⎢ ⎥ ⎢ ⎥ e(A)ij = ⎨ ;(c≠0)
f3(A) = ⎢0 3.1⎥ = ⎢0 3⎥
⎪⎩A pj + cA sj si i = p
⎢⎣3 3.2⎥⎦ ⎢⎣3 6⎥⎦
Entonces existe una operación elemental de filas e1: Mmxn(K)→ Mmxn(K) del
Las operaciones elementales se pueden aplicar sin el procedimiento formal mismo tipo que e tal que e(e1(A)) = e1(e(A)) = A, ∀ A∈ Mmxn(K).
anterior de la siguiente manera:
Demostración
⎡1 2⎤ ⎡1 4⎤
⎢ ⎥ 1 → r1 + 2 r2 ⎢ ⎥ Sea e1: Mmxn(K)→ Mmxn(K) una operación elemental de filas definida de la
A = ⎢0 1 ⎥ ⎯r⎯ ⎯⎯→ ⎢0 1 ⎥ = e1 (A)
siguiente forma:
⎢⎣3 2⎥⎦ ⎢⎣3 2⎥⎦
⎡1 2⎤ ⎡ 2 4⎤ ⎧⎪A ij si i ≠ p
⎢ ⎥ 1 →2 r1 ⎢ ⎥ e1(A)ij = ⎨ ;(c≠0)
A = ⎢0 1 ⎥ ⎯r⎯ ⎯→⎢0 1 ⎥ = e 2 (A) ⎪⎩A pj + (−c)A sj si i = p
⎢⎣3 2⎥⎦ ⎢⎣3 2⎥⎦
Luego,
⎡1 2⎤ ⎡1 2⎤
⎢ ⎥ 2 ↔ r3 ⎢ ⎥
A = ⎢0 1 ⎥ ⎯r⎯⎯→⎢3 2⎥ = e 3 (A) ⎧⎪A ij si i ≠ p
⎢⎣3 2⎥⎦ ⎢⎣0 1 ⎥⎦ e(e1(A))ij = ⎨
⎪⎩(A pj + (−c)A sj ) + cA sj si i = p
⎡1 2⎤ ⎡1 1⎤ ⎧⎪A ij si i ≠ p
⎢ ⎥ 2 c 2 − c1 ⎢ ⎥ = ⎨
A = ⎢0 1 ⎥ ⎯c⎯→⎯ ⎯→ ⎢0 1⎥ = f1 (A) ⎪⎩A pj − cA sj + cA sj si i = p
⎢⎣3 2⎥⎦ ⎢⎣3 − 1⎥⎦
⎧⎪A ij si i ≠ p
= ⎨ = Aij
⎪⎩ A pj si i = p
21 22
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎧⎪A ij si i ≠ p ⎧⎪A ij si i ≠ p
e1(e(A))ij = ⎨ = ⎨ = Aij
⎪⎩(A pj + cAsj ) + (−c)A sj si i = p ⎪⎩ A pj si i = p
⎧⎪A ij si i ≠ p
=⎨ De forma análoga ocurre para el caso de las columnas.
⎪⎩A pj + cA sj − cA sj si i = p
⎧A ij si i ≠ p
⎪ Luego,
e1(A)ij = ⎨ 1 ;(c≠0)
⎪⎩ c A pj si i = p
⎧A ij si i ≠ p e i ≠ s
⎪
Luego, e(e1(A))ij = ⎨ A pj si i = p
⎪A si i = s
⎩ sj
⎧ A ij si i ≠ p
⎪ ⎧⎪A ij si i ≠ p
e(e1(A))ij = ⎨ 1 = ⎨ = Aij
⎪⎩c( c A pj ) si i = p ⎪⎩ A pj si i = p
⎧A ij si i ≠ p
⎪ ⎧A ij si i ≠ p e i ≠ s
= ⎨ 1
⎪⎩c c A pj si i = p ⎪
e1(e(A))ij = ⎨ A pj si i = p
⎪A si i = s
⎧⎪A ij si i ≠ p ⎩ sj
= ⎨ = Aij
⎪⎩ A pj si i = p ⎧⎪A ij si i ≠ p
= ⎨ = Aij
⎧ A ij si i ≠ p ⎪⎩ A pj si i = p
⎪
e1(e(A))ij = ⎨ 1
⎪⎩ c (cA pj ) si i = p
De forma análoga ocurre para el caso de las columnas.
⎧A ij si i ≠ p
⎪
= ⎨1
⎪⎩ c cA pj si i = p
23 24
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Definición 1.22. ⎡1 0 0⎤
⎢ ⎥ ⎡1 0 0 ⎤ ⎡1 0 0 1 ⎤
0 0 1⎥ ⎢ ⎥ ⎢ ⎥
Sean A, B ∈Mmxn(K). Se dice que B es equivalente por filas a A si B se obtiene A=⎢ ; B = ⎢0 1 0 ⎥ ; C = ⎢0 1 0 0 ⎥
de A aplicándole una sucesión finita de operaciones elementales de fila. ⎢0 1 0⎥
⎢ ⎥ ⎢⎣0 2 0⎥⎦ ⎢⎣0 0 1 2⎥⎦
Igualmente se dice que B es equivalente por columnas a A si B se obtiene de A ⎣⎢0 0 0⎦⎥
aplicándole una sucesión finita de operaciones elementales de columna.
Las matrices A y C son reducidas por filas mientras que la matriz B no es
Ejemplo 1.20. reducida por filas, ya que el elemento (3, 2) es no nulo. Las matrices A y B son
reducidas por columnas pero la matriz C no es reducida por columnas ya que el
En el ejemplo 1.19., las matrices e1(A), e2(A), e3(A) y e4(e1(A)) son elemento (1, 4) es no nulo.
equivalentes por filas a A mientras que las matrices f1(A), f2(A) y f3(A) son
equivalentes por columnas a A. Definición 1.25.
Definición 1.23. Sea R∈Mmxn(K). Se dice que R es escalonada reducida por filas si se verifican
las siguientes condiciones:
Sea A∈Mmxn(K). Se define como pivote de la p-ésima fila (respectivamente de
la s-ésima columna) de A al primer elemento no nulo de dicha fila 1. R es reducida por filas.
(respectivamente de dicha columna); si lo hay. 2. Las filas nulas de R están por debajo de las filas no nulas de R.
3. Si las filas 1, 2, …, p son las filas no nulas de R y si el pivote de la
Ejemplo 1.21. i-ésima fila pertenece a la columna si, i = 1, 2, …, p entonces
s1 < s2 < … < s p .
En el ejemplo 1.19., el pivote de la primera fila de A es 1, el de la segunda fila
es 1 y el de la tercera fila es 3. El pivote de la primera columna de A es 1 y el Igualmente se dice que R es escalonada reducida por columnas si se verifican
de la segunda columna es 2. las siguientes condiciones:
Definición 1.24. 1. R es reducida por columnas.
2. Las columnas nulas de R están a la derecha de las columnas no
Sea R ∈Mmxn(K). Se dice que R es reducida por filas si se verifican las nulas de R.
siguientes condiciones: 3. Si las columnas 1, 2, …, s son las columnas no nulas de R y si el
pivote de la j-ésima columna pertenece a la fila pj, j = 1, 2, …, p
1. El pivote de cada fila no nula de R es igual a 1. entonces p1 < p2 < … < ps.
2. Cada columna de R que contenga el pivote de alguna fila no nula de
R tiene todos sus otros elementos nulos. Observación:
Igualmente se dice que R es reducida por columnas si se verifican las Sea A∈Mmxn(K). Entonces A siempre es equivalente por filas o por columnas a
siguientes condiciones: una única matriz escalonada reducida por filas o por columnas R∈Mmxn(K).
1. El pivote de cada columna no nula de R es igual a 1.
Ejemplo 1.23.
2. Cada fila de R que contenga el pivote de alguna columna no nula de
R tiene todos sus otros elementos nulos. En el ejemplo 1.21. la matriz A es reducida por filas pero no es escalonada
reducida por filas ya que s1 = 1, s2 = 3 y s3 = 2 (s2 > s3). A su vez la matriz C si
Observación: es escalonada reducida por filas ya que además de ser reducida por filas
cumple que s1 = 1 < s2 = 2 < s3 = 3.
Sea A∈Mmxn(K). Entonces A siempre es equivalente por filas a una matriz
reducida por filas R∈Mmxn(K). En el mismo ejemplo la matriz A es reducida por columnas pero no es
escalonada reducida por columnas ya que p1 =1, p2 = 3 y p3 = 2 (p2 > p3). A su
Ejemplo 1.22. vez la matriz B si es escalonada reducida por columnas ya que además de ser
reducida por columnas cumple que p1 = 1 y p2 = 2 (p1 < p2).
Sea A∈M4x3(ℜ), B∈M3x3(ℜ) y A∈M3x4(ℜ) definidas por:
25 26
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Sea A∈Mnxn(K). Se dice que A es invertible o no singular si existe una matriz 1. Si A y B son invertibles entonces:
B∈Mnxn(K) tal que AB = BA = In. 1.1. A-1 es invertible y (A-1)-1 = A.
1.2. AB es invertible y (AB)-1 = B-1A-1.
Ejemplo 1.24. 1.3. (A-1)t = (At)-1.
2. Si C tiene una fila o columna nula entonces C no es invertible.
⎡1 2⎤
Sea A∈M2x2(ℜ) definida por A = ⎢ ⎥ . A es no singular ya que existe la Demostración
⎣3 5⎦
⎡ −5 2⎤ 1.
matriz B∈M2x2(ℜ) definida por B = ⎢ ⎥ tal que AB = BA = I2. 1.1. Si A es invertible entonces se cumple que AA-1 = A-1A = In.
⎣ 3 − 1 ⎦ Luego se cumple que (A-1)-1 = A.
1.2. Veamos si existe una matriz C tal que ABC = In y CAB = In.
Teorema 1.10.
ABC = In ⇒ A-1ABC = A-1In ⇒ BC = A-1 ⇒ B-1BC = B-1A-1.
Sea A∈Mnxn(K). Si A es invertible entonces existe una única matriz ⇒ C = B-1A-1.
B∈Mnxn(K) tal que AB = BA = In, en cuyo caso B se dice que es la matriz CAB = In ⇒ CABB = InB ⇒ CA = B ⇒ CAA-1 = B-1A-1.
-1 -1 -1
inversa de A y se denota por A-1. ⇒ C = B-1A-1.
Demostración Luego, AB es invertible y además se cumple que
(AB)-1 = B-1A-1.
Supongamos que A es invertible y que existen matrices B y C ∈Mnxn(K) tales 1.3. Por definición se cumple que AA-1 = A-1A = In. Tomando
que B y C son inversas de A. Entonces B = InB = (CA)B = C(AB) = CIn = C. transpuesta en los tres lados de la igualdad se tiene que
(AA-1)t = (A-1A)t = (In)t = In. Luego, aplicando propiedades de
Como B = C se concluye que A tiene una única matriz inversa. la matriz transpuesta:
Teorema 1.11. (A-1)tAt = In
At(A-1)t = In
Sean A, B ∈Mnxn(K).
Ahora bien, por definición de matriz inversa se cumple que:
1. Si BA = In entonces A es invertible y B = A-1.
2. Si AB = In entonces A es invertible y B = A-1. (At)(At)-1 = In
(At)-1(At) = In
Demostración
Por consiguiente (A-1)tAt = (At)-1(At). Postmultiplicando a
1. Para demostrar que A es invertible utilicemos reducción al absurdo, ambos lados de la igualdad por (A-1)t se tiene que:
es decir, supongamos que A no es invertible. En ese caso no existe
matriz alguna C∈Mnxn(K) tal que AC = CA = In, lo cual es una (A-1)tAt(A-1)t = (At)-1(At)(A-1)t
contradicción ya que por hipótesis BA = In. Para demostrar que ⇒ (A-1)t(A-1A)t = (At)-1(A-1A)t
B = A-1, sea C = A-1. En ese caso AC = In. Luego, BAC = B(AC) = ⇒ (A-1)t(In)t = (At)-1(In)t
BIn = B y BAC = (BA)C = InC = C. Por consiguiente B = C = A-1. ⇒ (A-1)tIn = (At)-1In
2. La demostración es análoga a la del apartado anterior.
⇒ (A-1)t = (At)-1
Ejemplo 1.25.
2. Utilicemos el método de reducción al absurdo. Supongamos sin
pérdida de generalidad que C∈Mnxn(K) tiene la primera fila nula y
En el ejemplo 1.24., la matriz inversa de A es:
que C es invertible. Sea D∈Mnxn(K) la matriz inversa de C. En ese
⎡ −5 2⎤ caso se cumple que CD = DC = In. Pero,
A −1 = ⎢ ⎥
⎣ 3 −1⎦
27 28
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Definición 1.27. ⎣0 1 ⎦ ⎣0 1 ⎦
Sea E∈Mnxn(K). Se dice que E es una matriz elemental si E se obtiene de la La matriz E4 no es elemental ya que:
matriz In aplicándole una única operación elemental de fila o de columna.
⎡1 0⎤ r2 →r2 − r1 ⎡ 1 0⎤ r1 →3r1 ⎡ 3 0⎤
Notación: I2 = ⎢ ⎥ ⎯⎯ ⎯⎯→⎢ ⎥ ⎯⎯⎯→ ⎢ ⎥ = E4
⎣0 1 ⎦ ⎣− 1 1⎦ ⎣ − 1 1⎦
1. Si e: Mnxn(K)→ Mnxn(K) se define por:
Teorema 1.13.
⎧⎪A ij si i ≠ p
e(A)ij = ⎨ ;(c≠0) Sean e una operación elemental de filas y E∈Mnxn(K) la matriz elemental
⎪⎩A pj + cA sj si i = p E = e(In). Entonces ∀ A∈Mnxn(K) se cumple que EA=e(A)
2. Si e: Mnxn(K)→ Mnxn(K) se define por: 1. Consideremos la operación elemental de filas e: Mnxn(K)→ Mnxn(K)
definida por:
⎧⎪A ij si i ≠ p
e(A)ij = ⎨ (c≠0) ⎧⎪A ij si i ≠ p
⎪⎩cA pj si i = p e(A)ij = ⎨ ;(c≠0)
⎪⎩A pj + cA sj si i = p
29 30
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
31 32
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Luego,
33 34
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Del teorema anterior se desprenden las siguientes conclusiones: Sea A∈Mnxn(K). Si A es invertible entonces A es equivalente por filas a In.
Demostración ⎣⎢ 1 1 3⎦⎥
Si R es invertible entonces R tiene todas sus filas y columnas no nulas. Como Para determinar si A es no singular y en caso afirmativo hallar la matriz
R es una matriz cuadrada y es escalonada reducida por filas entonces inversa A-1 determinaremos la matriz R escalonada reducida por filas de A y
necesariamente R tiene la forma: simultáneamente aplicaremos las mismas operaciones elementales de filas para
obtener R a partir de A sobre la matriz I3 de modo de no perder el trabajo de
⎡1 0 L 0 L 0 ⎤ hallar A-1 de una vez en el caso en que resulte que R = I3, es decir, que A sea
⎢ ⎥ no singular.
⎢0 1 L 0 L 0 ⎥
⎢M M M M ⎥
R=⎢ ⎥ = In ⎡ 1 0 2 1 0 0⎤ ⎡1 0 2 1 0 0⎤
⎢0 0 L 1 L 0 ⎥ ⎢ ⎥ 2 →r2 + r1 ⎢ ⎥ r3 → r3 − r1
[A | I3] = ⎢− 1 2 1 0 1 0⎥ ⎯r⎯ ⎯⎯→ ⎢0 2 3 1 1 0⎥ ⎯⎯⎯⎯→
⎢M M ⎥
⎢
M M
⎥ ⎢ 1 1 3 0 0 1⎥ ⎢1 1 3 0 0 1⎥
⎣ ⎦ ⎣ ⎦
⎣⎢0 0 L 0 L 1 ⎦⎥
35 36
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ ⎤
⎢1 0 2 1 0 0⎥ Es decir, la traza de una matriz es la suma de los elementos de la diagonal
⎢0 1 3 1 1 0⎥ ⎯r⎯
3 → −2 r3
⎯ ⎯→ principal.
⎢ 2 2 2 ⎥
⎢0 0 − 1 2 − 3 2 − 1 2 1⎥ Ejemplo 1.28.
⎣ ⎦
⎡1 0 2 1 0 0⎤ ⎡1 0 0 − 5 − 2 4⎤ En el ejemplo 1.25. Traza(A) = 1 +2 +3 = 6.
⎢ ⎥ 1 →r1 − 2 r3 ⎢ ⎥
⎢0 1 0 − 4 −1 3⎥ ⎯r⎯ ⎯⎯→ ⎢ 0 1 0 − 4 − 1 3⎥
⎢0 0 1 3 1 − 2⎥⎦ ⎢0 0 1 3 1 − 2⎥⎦
Teorema 1.18.
⎣ ⎣
= [R | B] Sean A, B ∈Mnxn(K) y c∈K con c ≠ 0. Entonces se cumple que:
Demostración
Traza (cA) = ∑ (cA) = ∑ c(A
i =1
ii
i =1
ii )=c ∑A
i =1
ii = cTraza (A)
=
E*sE*s-1…E*1B = EtEt-1…E1In Traza(A) + Traza(B)
De lo anterior se puede deducir las 2 siguientes igualdades: 3. (A–B)ij = Aij – Bij. Por lo tanto,
E1-1E2-1…Et-1E*sE*s-1…E*1B = In n n n n
-1 -1
BE1 E2 …E E E -1 * * *
…E = In
Traza (A − B) = ∑ (A − B) = ∑ (A
i =1
ii
i =1
ii − Bii ) = ∑A − ∑B
i =1
ii
i =1
ii
t s s-1 1
=
Es decir, B es invertible y además B-1 = Et-1Et-1-1…E1-1E*sE*s-1…E*1. Traza(A) – Traza(B)
n n
4. (AB)ij = ∑A
r =1
ir B rj y (BA)ij = ∑B A
r =1
ir rj . Luego,
37 38
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n n n Teorema 1.20.
Traza(AB) = ∑ (AB) = ∑∑ A
i =1
ii
i =1 r =1
ir B ri
Sean A, B∈Mnxn(K). Si A y B son matrices triangulares superiores entonces
n n n n n
AB es una matriz triangular superior.
Traza(BA) = ∑ (BA) = ∑∑ B
i =1
ii
i =1 r =1
ir A ri = ∑∑ B
i =1 r =1
ri A ir
Demostración
n n
Si A y B son matrices triangulares superiores entonces A y B tienen la
= ∑∑ A
i =1 r =1
ir Bri = Traza (AB)
siguiente forma:
5. Traza(B-1AB) = Traza(ABB-1) = Traza(AIn) = Traza(A). ⎡A11 A12 L A1n ⎤ ⎡B11 B12 L B1n ⎤
⎢ ⎥ ⎢ ⎥
0 A L A 0 B22 L B2 n ⎥
6. (At)ij = Aji. Por lo tanto, A=⎢ 22 2n ⎥
y B=⎢
⎢ M M M ⎥ ⎢ M M M ⎥
n n
⎢ ⎥ ⎢ ⎥
(AAt)ij = ∑A
r =1
ir (A t ) rj = ∑A
r =1
ir A jr ⎣⎢ 0 0 L A ⎥
nn ⎦ ⎣⎢ 0 0 L B nn ⎥
⎦
Luego,
Luego,
⎡ 1 2 n
⎤
n n n n n n
∑
⎢ A1r B r1 ∑A 1r Br 2 L ∑A B rn ⎥
1r
⎢ r =1 ⎥
∑∑ A ∑∑ (A ∑∑ (A
r =1 r =1
Traza(AAt) = ir A ir = ir )2 = ij )2 ⎢ 2 n
⎥
i =1 r =1 i =1 r =1 i =1 j=1
AB = ⎢
0 ∑A 2r Br 2 L ∑ A 2 r B rn ⎥
⎢ r =2 r =2 ⎥
1.9. FACTORIZACIÓN LU. ⎢ M M M ⎥
⎢ n ⎥
⎢ 0 0 L ∑ A nr B rn ⎥
Teorema 1.19. ⎣⎢ r =n ⎦⎥
Sean A, B∈Mnxn(K). Si A y B son matrices triangulares inferiores con unos en Es decir, AB es una matriz triangular superior.
la diagonal principal entonces AB es una matriz triangular inferior con unos en
la diagonal principal. Teorema 1.21.
Demostración Sean A, U∈Mnxn(K). Si A es equivalente por filas a U solamente con
operaciones elementales de fila del tipo rp → rp + crs y U es triangular superior
Si A y B son matrices triangulares inferiores con unos en la diagonal principal
entonces existe una matriz triangular inferior L∈Mnxn(K) no singular con unos
entonces A y B tienen la siguiente forma:
en la diagonal principal tal que A = LU.
⎡ 1 0 L 0⎤ ⎡ 1 0 L 0⎤ Demostración
⎢ ⎥ ⎢ ⎥
A 1 L 0⎥ B 1 L 0⎥
A = ⎢ 21 y B = ⎢ 21 Si A es equivalente por filas a U solamente con operaciones elementales de fila
⎢ M M M ⎥ ⎢ M M M⎥
⎢ ⎥ ⎢ ⎥ del tipo rp → rp + crs entonces existen matrices elementales E1, E2,…, Et tales
⎣⎢A n1 An2 L 1⎦⎥ ⎣⎢B n1 Bn 2 L 1⎦⎥ que U = EtEt-1…E1A. En consecuencia, A = E1-1E2-1…Et-1U.
Luego,
Ahora bien, las matrices elementales E1, E2,…, Et son obtenidas aplicándole a
⎡ 1 0 L 0⎤ la matriz identidad In solamente operaciones elementales de fila de la forma
⎢ ⎥ rp → rp + crs y como estas matrices elementales se utilizan para reducir la
⎢ A 21 + B 21 1 L 0⎥ matriz A a la matriz triangular superior U entonces E1, E2,…, Et son matrices
AB = ⎢ M M ⎥ triangulares inferiores con unos en la diagonal principal. Luego, sus
⎢ n n ⎥ correspondientes matrices inversas son también triangulares inferiores con
⎢A n1 + A ir B rj ∑ An2 + ∑A ir Brj L 1⎥ unos en la diagonal principal.
⎣⎢ r =2 r =3 ⎦⎥
Sea L = E1-1E2-1…Et-1. Como E1-1, E2-1,…, Et-1 son matrices triangulares
Es decir, AB es una matriz triangular inferior con unos en la diagonal inferiores con unos en la diagonal principal entonces L es una matriz triangular
principal.
39 40
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
inferior con unos en la diagonal principal y además se cumple que L-1A = U, es Teorema 1.22.
decir, que A = LU.
Sea A∈Mnxn(K). Si A es invertible entonces existen matrices únicas
([A | In] → … → [U | L-1]) L∈Mnxn(K) triangular inferior con unos en la diagonal principal y U∈Mnxn(K)
triangular superior tales que A = LU.
Ejemplo 1.29.
Demostración
Sea A∈M3x3(ℜ) definida por:
Por el teorema anterior se sabe que existe una matriz triangular inferior
⎡1 2 2⎤ L∈Mnxn(K) no singular con unos en la diagonal principal tal que A = LU.
⎢ ⎥ Supongamos que existen matrices triangulares superiores U1, U2∈Mnxn(K) tales
A = ⎢2 1 3⎥
que A es equivalente por filas a U1 y también a U2. Luego por el teorema
⎢⎣1 4 2⎥⎦ anterior se cumple que existen matrices L1 y L2∈Mnxn(K) tales que:
Para factorizar A de la forma LU buscaremos una matriz U triangular superior A = L1U1 = L2U2
y equivalente por filas a A solamente con operaciones elementales de fila del
tipo rp → rp + crs. Dichas operaciones las aplicaremos simultáneamente sobre I3 Como A es equivalente por filas a U1 y U2 y A es invertible entonces U1 y U2
para obtener L-1. Veamos: son matrices invertibles. Por otra parte, como L1 y L2 se obtienen como
producto de matrices elementales entonces es obvio que L1 y L2 son matrices
invertibles. Luego,
⎡1 2 2 1 0 0⎤ r →r − 2 r ⎡1 2 2 1 0 0⎤
[A | I3 ] = ⎢⎢2 ⎥ ⎯⎯ ⎯ ⎯1 → ⎢ ⎥
2 2
1 3 0 1 0⎥ r → r − r ⎢ 0 − 3 − 1 − 2 1 0⎥ U1U2-1 = (L1-1L1)(U1U2-1)
⎢1 4 2 0 0 1⎥ ⎯⎯⎯⎯→ ⎢0
3 3 1
⎡1 2 2 1 0 0⎤ Ahora bien, U2-1 es triangular superior y L1-1 es triangular inferior. Por lo tanto
⎢ ⎥
[ ] se cumple que U1U2-1 es triangular superior y L1-1L2 es triangular inferior con
2
r3 → r3 + r2
⎯⎯⎯ ⎯
⎯→⎢0 − 3 − 1 − 2
3
1 0⎥ = U | L−1 unos en la diagonal principal. Por consiguiente la única forma de que U1U2-1
⎢ 2 7 2 ⎥
⎢⎣0 0 − 3 − 3 1 sea igual a L1-1L2 es que ambas sean iguales a In, es decir:
3 ⎥⎦
Luego, U1U2-1 = L1-1L2 = In
⇒ U1U2-1 = In y L1-1L2 = In
⎡ 1 0 0⎤ ⎡1 2 2 ⎤ ⇒ U1 = U2 y L1 = L2
⎢ ⎥ ⎢ ⎥
L−1 = ⎢ − 2 1 0 ⎥ y U = ⎢0 − 3 − 1 ⎥
⎢− 7 ⎥ ⎢ Luego las matrices L y U son únicas.
2 1⎥ 0 0 − 2 ⎥⎥
⎣⎢ 3 3 ⎦ ⎣⎢ 3⎦
Ejemplo 1.30.
Para determinar L se aplican en orden inverso las inversas de las operaciones
En el ejemplo 1.27. se puede verificar que A es no singular. Por consiguiente,
elementales utilizadas para hallar L-1 a partir de I3:
las matrices L y U obtenidas son únicas para factorizar A de la forma A = LU.
41 42
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡1 2 2 1 0 0⎤ r → r − 2 r ⎡1 2 2 1 0 0⎤ ⎡1 0 0⎤ ⎡1 2 2⎤
[B | I3 ] = ⎢⎢2 ⎥ ⎯⎯ ⎯ ⎯1 → ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
2 2
1 3 0 1 0 ⎥ r → r − 2 r ⎢0 − 3 − 1 − 2 1 0⎥ (1) L = ⎢2 1 − 1⎥ ; U = ⎢0 − 3 − 1 ⎥ y se cumple que B = LU.
⎢2 4 4 0 0 1⎥ ⎯⎯⎯⎯→ ⎢0
3 3 1
Definición 1.29.
⎡ 1 0 0⎤ ⎡1 2 2⎤
⎢ ⎥ ⎢ ⎥
L−1 = ⎢− 2 1 0⎥ y U = ⎢0 − 3 − 1⎥ Sea P∈Mnxn(K). Se dice que P es una matriz de permutación si P = E1E2…Et,
⎢⎣− 2 0 1⎥⎦ ⎢⎣0 0 0 ⎥⎦ siendo E1, E2,…Et matrices elementales obtenidas cada una de ellas con la
operación elemental de filas rp ↔ rs.
Para determinar L se aplican en orden inverso las inversas de las operaciones
elementales utilizadas para hallar L-1 a partir de I3: Ejemplo 1.31.
43 44
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Si además se tiene que ip = jp = p, p = 1, 2,… , t entonces B se dice que es una D11 = A i1 j1 = A11 = 1
sub-matriz principal líder. D12 = A i1 j2 = A12 = 0
La matriz D es entonces:
⎡1 0 2 3⎤
⎢ ⎥
A = ⎢3 2 1 1⎥
⎡1 0⎤
⎢⎣5 4 2 6⎥⎦ D=⎢ ⎥
⎣3 2⎦
B11 = A i1 j1 = A22 = 2 Sean A∈Mmxn(K) y {m1, m2,…, mp} y {n1, n2,…, nq} sub-conjuntos de ℵ* tales
p q
B12 = A i1 j2 = A24 = 1 que ∑m
r =1
r =m y ∑n
r =1
r = n . Si A i , j ∈ M m i xn j (K); i = 1, 2,…, p; j = 1, 2,…, q
B21 = A i 2 j1 = A32 = 4
entonces la matriz:
B22 = A i 2 j2 = A34 = 6
⎡ A1,1 A1, 2 L A1,q ⎤
La matriz B es entonces: ⎢ ⎥
A 2,1 A 2, 2 L A 2,q ⎥
A=⎢
⎢ M M M ⎥
⎡2 1⎤ ⎢ ⎥
B=⎢ ⎥ A
⎣⎢ p,1 A p, 2 L A ⎥
p ,q ⎦
⎣ 4 6⎦
Se dice que es una matriz particionada o una matriz por bloques pxq.
B es una sub-matriz de A. B no es sub-matriz principal ya que aunque es de
orden 2x2 e i1 = j1, i2 ≠ j2. Observación:
Una sub-matriz principal es la matriz C∈M2x2(ℜ) tal que i1 = 2; i2 = 3, j1 = 2, Toda matriz A∈Mmxn(K) se puede expresar como una matriz particionada o
j2 = 3. Luego, por bloques mx1 (particionada por filas) y como una matriz particionada o por
bloques 1xn (particionada por columnas). Las columnas de A son vectores
C11 = A i1 j1 = A22 = 2 columnas y se denotan por A1, A2, …, An y sus respectivas transpuestas
C12 = A i1 j2 = A23 = 1 conforman las filas de At. Las filas de A son vectores filas y en consecuencia
45 46
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡1 0⎤ ⎡2 3⎤
A1,1 = ⎢ ⎥; A1, 2 = ⎢ ⎥; A 2,1 = [5 4]; A 2,2 = [2 6]; 2. Por hipótesis:
⎣3 2 ⎦ ⎣1 1⎦
⎡ A1,1 A1, 2 L A1,s ⎤ ⎡ B1,1 B1, 2 L B1,s ⎤
Entonces A es una matriz particionada 2x2 ya que: ⎢ ⎥ ⎢ ⎥
A 2,1 A 2 , 2 L A 2 ,s ⎥ B2,1 B2, 2 L B2,s ⎥
A=⎢ y B=⎢
⎢ M M M ⎥ ⎢ M M M ⎥
⎡ A1,1 A1, 2 ⎤ ⎢ ⎥ ⎢ ⎥
A=⎢ ⎥ ⎢⎣A q ,1 A q , 2 L A q ,s ⎥⎦ ⎢⎣Bq ,1 Bq , 2 L Bq ,s ⎥⎦
⎢⎣A 2,1 A 2, 2 ⎥⎦
Luego,
Teorema 1.24.
47 48
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Observaciones: Como A1,1 y A2,2 son matrices no singulares entonces tienen como matrices
escalonadas reducidas por filas a I n1 e I n 2 , respectivamente. Por consiguiente
Nótese que:
la matriz R escalonada reducida por filas de A es:
1. Si A∈Mmxn(K) es una matriz particionada por filas mx1 entonces
At∈Mnxm(K) es una matriz particionada por columnas 1xm, es ⎡ In θ n1xn 2 ⎤
R=⎢ 1 ⎥=I
decir: ⎢⎣θ n 2 xn1 I n 2 ⎥⎦ n
⎡ (A1 ) t ⎤ ⎡ In θ n1xn 2 ⎤
⎢ 2 t⎥ AA −1 = A −1A = ⎢ 1 ⎥=I
(A ) ⎥ ⎣⎢θ n 2 xn1 I n 2 ⎦⎥ n
A = [ A1 A 2 L An ] y A = ⎢
⎢ M ⎥
⎢ n t⎥ En efecto,
⎣⎢(A ) ⎦⎥
⎡ A1,1 A1, 2 ⎤ ⎡ B1,1 B1, 2 ⎤ ⎡ I n1 θ n1xn 2 ⎤
Teorema 1.25. AA −1 = ⎢ ⎥⎢ ⎥=⎢ ⎥ (2) y
⎣⎢A 2,1 A 2, 2 ⎦⎥ ⎣⎢B2,1 B2, 2 ⎥⎦ ⎣⎢θ n 2 xn1 I n 2 ⎦⎥
Sean A∈Mnxn(K) una matriz particionada 2x2 con A i , j ∈ M n i xn j (K); i = 1, 2; ⎡ B1,1 B1, 2 ⎤ ⎡ A1,1 A1, 2 ⎤ ⎡ I n1 θ n1xn 2 ⎤
A −1A = ⎢ ⎥⎢ ⎥=⎢ ⎥ (3)
j = 1, 2, 0 < n1 < n, 0 < n2 < n, n1 + n2 = n. Si A1,1 y A2,2 son no singulares ⎣⎢B 2,1 B 2, 2 ⎥⎦ ⎣⎢A 2,1 A 2, 2 ⎦⎥ ⎣⎢θ n 2 xn1 I n 2 ⎦⎥
entonces A es no singular y además la matriz inversa de A se puede expresar
de las siguientes 2 formas:
Por el teorema 1.23., apartado 2 se tiene que las ecuaciones matriciales (2) y
(3) generan los sistemas de ecuaciones (4) y (5), respectivamente:
⎡ A11.2 − A1−,11A1, 2 (A 2, 2 − A 2,1A1−,11A1, 2 ) −1 ⎤
A −1 = ⎢ −1 −1 −1 ⎥
⎣⎢ − A A
2, 2 2,1 ( A1,1 − A A A
1, 2 2, 2 2,1 ) A 22.1 ⎦⎥ ⎧ A1,1B1,1 + A1, 2 B 2,1 = I n1
⎪
⎪A1,1B1, 2 + A1, 2 B 2, 2 = θ n1xn 2
⎨ (4)
⎡ A11.2 − (A1,1 − A1, 2 A −2,12 A 2,1 ) −1 A1, 2 A −2,12 ⎤ ⎪A 2,1B1,1 + A 2, 2 B 2,1 = θ n 2 xn1
=⎢ −1 −1 −1 ⎥ ; siendo: ⎪ A 2,1B1, 2 + A 2, 2 B2, 2 = I n
⎢⎣− (A 2, 2 − A 2,1A1,1A1, 2 ) A 2,1A1,1 A 22.1 ⎥⎦ ⎩ 2
49 50
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Sustituyendo (6) en la primera ecuación del sistema (4) se obtiene que: ⎡ B1,1 B1, 2 ⎤
A −1 = ⎢ ⎥
A1,1B1,1 + A1, 2 (−A 2−,12 A 2,1B1,1 ) = I n1 ⎣⎢B2,1 B2, 2 ⎥⎦
⎡ A11.2 − (A1,1 − A1, 2 A 2−,12 A 2,1 ) −1 A1, 2 A −2,12 ⎤
⇒ (A1,1 − A1, 2 A 2−,12 A 2,1 )B1,1 = I n1 =⎢ −1 −1 −1 ⎥
⎣⎢− (A 2, 2 − A 2,1A1,1A1, 2 ) A 2,1A1,1 A 22.1 ⎦⎥
−1
Lo cual implica que la matriz (A1,1 − A1, 2 A 22 A 2,1 ) es no singular por el
1.11. RANGO DE UNA MATRIZ.
teorema 1.11. y además se cumple que:
Definición 1.32.
B1,1 = (A1,1 − A1, 2 A −221A 2,1 ) −1 = A11.2 (7)
Sean A, R1 y R2∈Mmxn(K) tales que R1 es la matriz escalonada reducida por
Sustituyendo (7) en (6) se obtiene que: filas de A y R2 es la matriz escalonada reducida por columnas de A. Se define
como Rango de A y se denota por Rango(A) al número de filas no nulas de R1
o al número de columnas no nulas de R2.
B2,1 = − A −2,12 A 2,1 (A1,1 − A1, 2 A −221A 2,1 ) −1
De esta definición se desprende que el máximo valor que puede tomar el rango
Igualmente como A1,1 y A2,2 son no singulares entonces de la segunda ecuación de A es el mínimo entre m y n. Si Rango(A) = m entonces se dice que A es de
del sistema (4) se obtiene que: rango fila completo. Si Rango(A) = n se dice que A es de rango columna
completo. Si además m = n y Rango(A) = m = n se dice que A es de rango fila
A1,1B1, 2 = − A1, 2 B2, 2 columna completo.
Sustituyendo (8) en la cuarta ecuación del sistema (4) se obtiene que: Para toda matriz A∈Mmxn(K) se cumple que el número de filas no nulas de su
matriz escalonada reducida por filas es igual al número de columnas no nulas
−A 2,1A1−,11A1, 2 B2, 2 + A 2, 2 B2, 2 = I n 2 de su matriz escalonada reducida por columnas.
51 52
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Teorema 1.26. AF = R2Ft-1Ft-1-1…F1-1F. Esto indica que AF es equivalente por columnas a R2,
es decir, R2 es la matriz escalonada reducida por columnas de AF. Luego,
Sean A, B∈Mmxn(K). Si A es equivalente por filas a B entonces
Rango(A) = Rango(B). Rango(AF) = Rango(A).
Luego, Como P y Q son no singulares existen matrices elementales EP1, EP2,…, EPt y
FQ1, FQ2,…, FQt tales que:
B= EB1-1EB2-1…EBt-1RB
EPtEPt-1…EP1P = Im y QFQtFQt-1…FQ1 = In.
Por tanto,
Por consiguiente,
A = EtEt-1…E1EB1-1EB2-1…EBt-1RB
P = EP1-1EP2-1…EPt-1 y Q = FQ1-1FQ2-1…FQt-1
Es decir, A es equivalente por filas a RB y como la matriz escalonada reducida
por filas de una matriz es única entonces RA = RB. Luego,
Sea R1 la matriz escalonada reducida por filas de la matriz A. En ese caso, Rango(AQ) = Rango(AQ = AFQ1-1FQ2-1…FQt-1)
existen matrices elementales E1, E2,…, Et tales que R1 = EtEt-1…E1A. Luego, = Rango(AQ = AFQ1-1FQ2-1…FQt-1-1) = … = Rango(A)
Sea R2 la matriz escalonada reducida por columnas de la matriz A. En ese Sea A∈Mnxn(K). A es no singular si y sólo si Rango(A) = n.
caso, existen matrices elementales F1, F2,…, Ft tales que R2 = AF1F2…Ft.
Luego, Demostración
53 54
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
55 56
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ 1 0 0 0⎤ ⎧⎪A ij si i ≠ p
⎢1 0 0 −4 0 2 −1 ⎥ e(A)ij = ⎨ ; ( c ≠ 0 ), 1 ≤ p ≤ r
⎪⎩cA pj si i = p
⎢ 19 − 1 −2 5 0 1 0 0⎥ c 4 →c 4 + 4c1
⎯⎯⎯ ⎯ ⎯→
⎢0 1 0
4 4 4 0 0 1 0⎥
⎢0 0 1 7 1 −1 1 ⎥
⎢ 2 2 2 0 0 0 1⎥ Luego,
⎣ ⎦
⎡ 1 0 0 4⎤
⎢1 0 0 0 0 2 −1 ⎥ ⎡ Ir B rx ( n − r ) ⎤
0⎥ c 4 →c 4 − 194 c 2 EP*AQ = E ⎢ ⎥
⎢
1 0 19 − 1 −2 5 0 1 0 ⎯⎯⎯ ⎯⎯→ ⎢⎣θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎥⎦
⎢0 4 4 4 0 0 1 0⎥
⎢0 0 1 7 1 −1 1 ⎥
⎢ 2 2 2 0 0 0 1⎥
⎣ ⎦ ⎡ Dr θ rx ( n − r ) ⎤
⇒ PAQ = ⎢ ⎥ = Δ(A)
⎡ 4 ⎤
⎢1 0 0 0 0 2 −1
1 0 0
⎥ ⎣⎢θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎦⎥
⎢ 0 1 0 − 19 ⎥ c 4 →c 4 − 7 c3
1 5 4 ⎯⎯ ⎯⎯
⎢0 1 0 0 − 4 − 2 ⎯→
2
4 0 0 1 0 ⎥ con P = EP* y Dr∈Mrxr(K) una matriz diagonal y no singular, ya que c ≠ 0 .
⎢0 0 1 7 1 −1 1 ⎥
⎢ 2 2 2 0 0 0 1 ⎥
⎣ ⎦ Luego, como P* es no singular y E es elemental entonces P = EP* es también
⎡ 1 0 0 4 ⎤ una matriz no singular. Por consiguiente, existen matrices no singulares
⎢1 0 0 0 0 2 −1 ⎥
⎢ 0 1 0 − 19 ⎥ P∈Mmxm(K) y Q∈Mnxn(K) tales que PAQ = Δ(A) .
1 5 4 = [R (A) | P | Q]
⎢0 1 0 0 − 4
−2
4 0 0 1 −7 ⎥
⎢0 0 1 0 1 −1 1 2⎥ Ahora bien, sea E* = e*(In) la matriz elemental definida a partir de la operación
⎢ 2 2 0 0 0 1 ⎥
⎣ ⎦ elemental de filas e*: Mmxm(K)→ Mmxm(K) definida por:
Luego, ⎧⎪A ij si i ≠ t
e*(A)ij = ⎨ ; ( d ≠ 0 ), 1 ≤ t ≤ r, t ≠ p .
⎪⎩dA tj si i = t
⎡ 0 ⎡1 0 0 4 ⎤
⎡1 0 0 0⎤ 2 −1 ⎤ ⎢ ⎥
⎢ ⎥; ⎢ ⎥ 0 1 0 − 19 ⎥
R ( A ) = ⎢0 1 0 0 ⎥ P = ⎢ − 1 −2 5 ⎥ ; Q=⎢ 4 Luego,
⎢ 4 4⎥ ⎢0 0 1 −7 ⎥
⎢⎣0 0 1 0⎥⎦ ⎢ 2⎥
⎢⎣ 1 2 − 1 1 ⎥
2⎦ ⎢⎣0 0 0 1 ⎥⎦ ⎡ Dr θ rx ( n − r ) ⎤ ⎡ D* r θ rx ( n − r ) ⎤ *
E*PAQ = E* ⎢ ⎥ = ⎢ ⎥ = Δ (A)
⎢⎣θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎥⎦ ⎢⎣θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎥⎦
Además, se cumple que PAQ = R(A).
Sea A∈Mmxn(K). Si Rango(A) = r entonces existen matrices no singulares con P** = E*P y D*r∈Mrxr(K) una matriz diagonal y no singular, ya que d ≠ 0 .
P∈Mmxm(K) y Q∈Mnxn(K) tales que PAQ = Δ(A) , siendo:
Luego, como P es no singular y E* es elemental entonces P** = E*P es también
⎡ Dr θrx ( n − r ) ⎤ una matriz no singular. Por consiguiente, existen matrices no singulares
Δ(A) = ⎢ ⎥ ; con Dr∈Mrxr(K) una matriz diagonal y no P**∈Mmxm(K) y Q∈Mnxn(K) tales que P**AQ = Δ* (A ) .
⎣⎢θ( m− r ) xr θ( m− r ) x ( n − r ) ⎦⎥
singular.
En general, se pueden definir infinitas matrices elementales con la operación
elemental del tipo anterior, bien sea de filas o de columnas para obtener
Demostración
matrices no singulares P∈Mmxm(K) y Q∈Mnxn(K) tales que PAQ = Δ(A) .
Por el teorema anterior se sabe que existen matrices no singulares P*∈Mmxm(K)
y Q∈Mnxn(K) tales que P*AQ = R(A). Sea E = e(Im) una matriz elemental Ejemplo 1.38.
definida por la operación elemental de filas e: Mmxm(K)→ Mmxm(K) definida
por: En el ejemplo 1.35., partiendo de [A | I3 | I4] se llegó a [R(A) | P | Q] aplicando
operaciones elementales de filas. Veamos que ocurre si estas operaciones se
siguen aplicando:
57 58
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ 1 0 0 4 ⎤ EJERCICIOS PROPUESTOS.
⎢1 0 0 0 0 2 −1 ⎥
0 1 0 − 19 ⎥ r →3r
[R (A) | P | Q] = ⎢⎢0 1 0 0 − 1
4
−2 5
4 0 0 1 −7 ⎥
4 ⎯⎯1
⎯1 → 1. Sean A, B, C∈M2x2(ℜ) las siguientes matrices:
⎢0 0 1 0 1 −1 1 2 ⎥
⎢ 2 2 0 0 0 1 ⎥ ⎡a b ⎤ ⎡ 4 −2 ⎤ ⎡1 4⎤ ⎡−1 2⎤
⎣ ⎦ A=⎢ ⎥ B=⎢ ⎥ C=⎢ ⎥ D=⎢ ⎥
⎣ c d ⎦ ⎣ 1 3 ⎦ ⎣ 2 − 2 ⎦ ⎣ 2 3⎦
⎡ 1 0 0 4 ⎤
⎢3 0 0 0 0 6 −3 ⎥
[ ]
⎢ 0 1 0 − 19
1 5 4 ⎥ = Δ ( A) P * Q Determine los valores de a, b, c y d para que:
⎢0 1 0 0 − 4
−2
4 0 0 1 −7 ⎥
⎢0 0 1 0 1 −1 1 2⎥
⎢ 2 2 0 0 0 1 ⎥ 1.1. A + B = I2.
⎣ ⎦ 1.2. CA = I2.
1.3. (AD)t = I2.
Se obtienen entonces matrices P* y Q tales que P*AQ = Δ(A). Si continuamos
aplicando mas operaciones elementales de filas se obtendrán tantos infinitos 2. Sean A, B∈M3x3(ℜ) las siguientes matrices:
pares de matrices P y Q como matrices Δ(A) obtenidas a partir de A.
⎡1 a b ⎤ ⎡1 −a −b ⎤
Teorema 1.32. ⎢ ⎥ ⎢ ⎥
A = ⎢0 1 0 ⎥ B = ⎢0 1 0⎥
⎢⎣0 0 1 ⎥⎦ ⎢⎣0 0 1⎥⎦
Sean A∈Mmxn(K) y B∈Mnxp(K). Entonces se cumple que:
n
5.3. XtAX = ∑ (X
i =1
i − X) 2 .
t
∑ (X
i =1
i − X) 2
5.4. X AX = .
n
6. Para la siguiente matriz de datos definida por las variables X1: Peso
(kg.), X2: Estatura (cm.) y X3: Edad (años cumplidos) determine e
59 60
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
interprete las matrices de datos centrada, de datos estandarizada, de 14. Sea A∈Mnxn(K). Demuestre que si A es simétrica e idempotente y tiene
varianzas y covarianzas y de correlaciones: algún elemento nulo en la diagonal principal entonces la fila y la
columna de dicho elemento son nulas.
⎡62 158 25⎤
⎢ ⎥ 15. Sean A, B∈Mnxn(K), tales que A es triangular inferior y B es triangular
⎢77 172 29⎥
superior. Demuestre que:
⎢85 185 22⎥
⎢ ⎥
X = ⎢45 155 19 ⎥ 15.1. ABt es triangular inferior.
⎢68 162 32⎥ 15.2. AB no es triangular.
⎢ ⎥
⎢73 168 33⎥
⎢ ⎥ 16. Sea A∈Mnxn(K). Demuestre que si A es idempotente entonces In – A es
⎣79 180 30⎦ idempotente.
7. Dadas las siguientes matrices: 17. Sea A∈Mnxn(K). Demuestre que si A es triangular y simétrica entonces
A es diagonal.
⎡ 1 2 0⎤ ⎡1 2 3⎤ ⎡1 2 3⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 18. Sean A, B∈Mnxn(K), tales que A y B son no singulares. Demuestre que:
A = ⎢ 1 1 0⎥ , B = ⎢1 1 − 1⎥ y C = ⎢1 1 − 1⎥
⎢⎣− 1 4 0⎥⎦ ⎢⎣2 2 2⎥⎦ ⎢⎣1 1 1⎥⎦ (A −1 + B−1 ) −1 = B(A + B) −1 A
Demuestre que AB = AC. 19. Sea A∈M2x2(ℜ) tal que A es no singular y la inversa de 4A es:
61 62
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
24.1. AAt y (A + At) son simétricas. 29. Determine si las siguientes matrices son no singulares y en caso
24.2. (A – At) es antisimétrica. afirmativo halle la correspondiente matriz inversa:
25. Sea A∈M2x2(K) tal que A es no singular. Deduzca una fórmula para la ⎡1 0 1⎤
matriz inversa de A. ⎢ ⎥
29.1. A = ⎢2 − 1 3⎥
⎢⎣1 1 2⎥⎦
26. Se dice que una matriz A∈Mmxn(K) es una matriz estocástica, aleatoria o
de probabilidad si y sólo si ∀ (i,j)∈JmxJn 0 ≤ Aij ≤ 1 y ∀ i=1, 2, …, m se ⎡2 6 −4 ⎤
n ⎢ ⎥
cumple que ∑ A ij = 1 . Sean A, B∈Mmxn(K). Demuestre que: 29.2. B = ⎢2
⎢⎣1
−1 1⎥
j=1 3 − 2⎥⎦
26.1. 2
Si m = n y A es estocástica entonces A es estocástica. ⎡5 0 1⎤
⎢ ⎥
26.2. Si m = n y A y B son estocásticas entonces AB es estocástica. 29.3. C = ⎢ 3 − 2 0⎥
⎢⎣2 0 3⎥⎦
27. Se define como matriz conjugada de una matriz A∈Mmxn(K) y se denota
⎡ 1 0 2 −1 ⎤
por A a la matriz A ∈Mmxn(K) definida por A ij = A ij , siendo A ij la ⎢ ⎥
2 1 1 3⎥
conjugada del término Aij. Sean A∈Mmxn(K), B∈Mnxp(K) y c∈K. 29.4. D=⎢
⎢ −1 2 −1 0⎥
Demuestre que: ⎢ ⎥
⎣⎢ 3 0 1 − 1⎦⎥
27.1. AB = A B
30. Sean A∈Mmxn(K) una matriz particionada por columnas y X∈Kn un
27.2. cA = c A n
63 64
CAPÍTULO 1: TEORÍA DE MATRICES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ 2 4 1⎤
⎡1 0 ⎤ ⎢ ⎥
E=⎢ 36.2. B = ⎢− 4 − 8 3⎥
34.1. ⎥
⎣4 1⎦ ⎣⎢ 5 8 2⎦⎥
⎡2 0⎤
34.2. E=⎢ ⎥
⎣0 − 2 ⎦ 37. Para la siguiente matriz A determine una matriz U triangular superior
para que AU sea una matriz ortogonal:
⎡0 1 0 ⎤
⎢ ⎥
34.3. E = ⎢1 0 0 ⎥ ⎡1 1 1⎤
⎢⎣0 0 1⎥⎦ ⎢ ⎥
A = ⎢1 1 0⎥
⎡0 1 0 ⎤ ⎢⎣1 0 0⎥⎦
⎢ ⎥
34.4. E = ⎢0 0 1 ⎥
⎢⎣1 0 0⎥⎦
⎡1 0 0⎤
⎢ ⎥
34.5. E = ⎢0 1 − 3 ⎥
⎢⎣0 0 1⎥⎦
35. Determine para las siguientes matrices rango y matriz normal o reducida
así como también matrices P y Q tales que PAQ = R(A):
⎡2 0 −1 ⎤
⎢ ⎥
35.1. A = ⎢1 1 2⎥
⎢⎣3 1 0⎥⎦
65 66
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡0 2 ⎤
Capítulo 2 M (A)1, 2 = ⎢
⎣1 7⎦
⎥
⎡1 3⎤
M(A) 2 = ⎢ ⎥
2.1. INTRODUCCIÓN. ⎣1 7 ⎦
En este capítulo se presenta el concepto del determinante de una matriz. El Es importante conocer todos los menores principales de A:
término “matriz” se debe a que es considerada “la madre del determinante”.
Los determinantes son una herramienta fundamental en el Algebra Lineal ya Orden 1: C3,1 = 3 menores.
que permite el cálculo de la inversa de una matriz, así como también la
resolución de sistemas de ecuaciones lineales. Se exponen todas sus M (A)12 = [7]; M(A)13 = [4]; M(A)23 = [1]
propiedades y el concepto de matriz adjunta para el cálculo de la matriz
inversa. Orden 2: C3,2 = 3 menores.
2.2. DEFINICIONES Y EJEMPLOS.
⎡4 2⎤ ⎡1 3⎤ ⎡1 2 ⎤
M (A )1 = ⎢ ⎥; M(A) 2 = ⎢ ⎥; M(A)3 = ⎢ ⎥
Definición 2.1. ⎣ 5 7 ⎦ ⎣1 7 ⎦ ⎣0 4 ⎦
Sean A∈Mnxn(K) y p∈{1, 2,… , n}. Se define como menor de orden p de A y Orden 3: C3,3 = 1 menor.
se denota por M(A) i1i 2 ...i n − p , j1 j2 ... jn − p con i1, i2,…, in-p, j1, j2,… , jn-p∈{1, 2,… , n}
68
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
M (A )123 = [6]; M(A)124 = [2]; M(A)134 = [2]; M(A) 234 = [1] A = [A11 ]
Orden 2: C4,2 = 6 menores. Como n = 1 entonces existe 1! = 1 permutación posible la cual es (1). Por lo
tanto, para j = 1, es decir, (1) se tiene que j1 = 1.
⎡2 4⎤ ⎡2 5⎤ ⎡2 4⎤
M (A)12 = ⎢ ⎥; M(A)13 = ⎢ ⎥; M(A)14 = ⎢ ⎥ Luego, q(j1) = 0. Por lo tanto, μ(1) = 0.
⎣3 6⎦ ⎣2 6⎦ ⎣1 2⎦
⎡1 3⎤ ⎡1 2⎤ ⎡1 0⎤ En consecuencia,
M(A) 23 = ⎢ ⎥; M(A) 24 = ⎢ ⎥; M(A)34 = ⎢ ⎥
⎣0 6⎦ ⎣3 2⎦ ⎣2 2⎦
Det (A) = (−1) μ (1) A1 j1
Orden 3: C4,3 = 4 menores. ⇒ Det (A ) = (−1) 0 A11
⇒ Det (A) = A11
⎡2 4 5 ⎤ ⎡1 2 3 ⎤ ⎡1 0 3 ⎤ ⎡1 0 2 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
M (A)1 = ⎢1 2 4⎥; M (A ) 2 = ⎢3 2 4⎥; M (A)3 = ⎢2 2 5⎥; M (A) 4 = ⎢2 2 4⎥
Como se observa, cuando A∈M1x1(K), es decir, A es un escalar, su
⎢⎣2 3 6⎥⎦ ⎢⎣0 3 6⎥⎦ ⎢⎣0 2 6⎥⎦ ⎢⎣3 1 2⎥⎦
determinante es el mismo escalar.
Sean A∈Mnxn(K) y j1, j2, …, jn∈{1, 2, …, n}. Se define como Determinante de Como n = 2 entonces existen 2! = 2.1 = 2 permutaciones posibles las cuales
A y se denota por Det(A) al siguiente escalar: son (1,2) y (2,1). Desarrollemos la fórmula de determinante de A:
1. j1, j2, …, jn son los valores de la j-ésima permutación de n Luego, q(j1) = 1 y q(j2) = 0. Por lo tanto, μ(1) = 1 + 0 = 1.
n
2. μ( j) = ∑ q( j ) ; siendo q(j ) la cantidad de valores menores que j
p =1
p p p En consecuencia,
que se encuentran a la derecha de jp en la j-ésima permutación de n. Det (A) = (−1)μ (1) A1 j1 A 2 j2 + (−1)μ ( 2) A1 j1 A 2 j2
69 70
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Sabiendo que el determinante de una matriz de orden 1x1, es decir, de un Para j = 6, es decir, (3,2,1) se tiene que j1 = 3, j2 = 2 y j3 = 1.
escalar es el mismo escalar se puede concluir entonces que el determinante de
una matriz 2x2 es función de los determinantes de algunas sub-matrices de Luego, q(j1) = 2, q(j2) = 1 y q(j3) = 0. Por lo tanto, μ(6) = 2 + 1 + 0 = 3.
orden 1x1. Específicamente se cumple que:
En consecuencia,
Det(A) = A11A22 – A12A21
= A11A22 + (-1)A12A21 Det (A) = (−1) μ (1) A1 j1 A 2 j2 A 3 j3 + (−1)μ (3) A1 j1 A 2 j2 A 3 j3
= (-1)2A11Det([A22]) + (-1)3A12Det([A21])
= (-1)1+1A11Det(M(A)1,1) + (-1)1+2A12Det(M(A)1,2) +(−1) μ (3) A1 j1 A 2 j2 A 3 j3 + (−1)μ ( 4) A1 j1 A 2 j2 A 3 j3
2
= ∑ (−1)
j=1
1+ j
A1 jDet (M(A)1, j ) +(−1) μ (5) A1 j1 A 2 j2 A 3 j3 + (−1) μ ( 6) A1 j1 A 2 j2 A 3 j3
Luego, q(j1) = 0, q(j2) = 0 y q(j3) = 0. Por lo tanto, μ(1) = 0 + 0 + 0 = 0. Ahora bien, consideremos la matriz B∈M3x5(K) cuyas 3 primeras columnas
son las columnas de A y las últimas 2 columnas son las primeras 2 columnas
Para j = 2, es decir, (1,3,2) se tiene que j1 = 1, j2 = 3 y j3 = 2. de A, es decir:
Luego, q(j1) = 0, q(j2) = 1 y q(j3) = 0. Por lo tanto, μ(2) = 0 + 1 + 0 = 1. ⎡ A11 A12 A13 A11 A12 ⎤
Para j = 3, es decir, (2,1,3) se tiene que j1 = 2, j2 = 1 y j3 = 3. ⎢ ⎥
B = ⎢A 21 A 22 A 23 A 21 A 22 ⎥
Luego, q(j1) = 1, q(j2) = 0 y q(j3) = 0. Por lo tanto, μ(3) = 1 + 0 + 0 = 1. ⎢⎣A 31 A 32 A 33 A 31 A 32 ⎥⎦
Para j = 4, es decir, (2,3,1) se tiene que j1 = 2, j2 = 3 y j3 = 1. Como se observa, Det(A) es la suma de los productos de los elementos de las
diagonales de 3 elementos “\” de B menos la suma de los productos de los
Luego, q(j1) = 1, q(j2) = 1 y q(j3) = 0. Por lo tanto, μ(4) = 1 + 1 + 0 = 2. elementos de las diagonales de 3 elementos “/” de B.
Para j = 5, es decir, (3,1,2) se tiene que j1 = 3, j2 = 1 y j3 = 2.
Lo propio ocurre al definir la matriz C∈M5x3(K) cuyas 3 primeras filas son las
Luego, q(j1) = 2, q(j2) = 0 y q(j3) = 0. Por lo tanto, μ(5) = 2 + 0 + 0 = 2. filas de A y las últimas 2 filas son las primeras 2 filas de A, es decir, Det(A)
71 72
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
= (-1)3+1A31Det(M(A)3,1) + (-1)3+2A32Det(M(A)3,2)
2. Para n > 1, suponemos que está definida Det: M(n-1)x(n-1)(K)→K. + (-1)3+3A33Det(M(A)3,3) + (-1)3+4A34(3,4)Det(M(A)3,4)
Luego,
⎡ A12 A13 A14 ⎤ ⎡ A11 A13 A14 ⎤
⎢ ⎥ ⎢ ⎥
n = (-1)4A31Det( ⎢A 22 A 23 A 24 ⎥ )+(-1)5A32Det( ⎢A 21 A 23 A 24 ⎥ )
Det(A) = ∑ (−1)
j=1
i+ j
A ij Det(M (A) i , j ) ⎢⎣A 42 A 43 A 44 ⎥⎦ ⎢⎣A 41 A 43 A 44 ⎥⎦
73 74
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ A12 A13 A14 ⎤ ⎡ A11 A13 A14 ⎤ Cij = Aij = Bij cuando i ≠ p
⎢ ⎥ ⎢ ⎥ Cpj = Apj + Bpj
= A31Det( ⎢A 22 A 23 A 24 ⎥ ) – A32Det( ⎢A 21 A 23 A 24 ⎥ ) Entonces Det(C) = Det(A) + Det(B)
⎢⎣A 42 A 43 A 44 ⎥⎦ ⎢⎣A 41 A 43 A 44 ⎥⎦ 9. Si ∀ i = 1, 2,… , n se cumple que:
Cij = Aij = Bij cuando j ≠ p
⎡ A11 A12 A14 ⎤ ⎡ A11 A12 A13 ⎤ Cip = Aip + Bip
⎢ ⎥ ⎢ ⎥
+ A33Det( ⎢A 21 A 22 A 24 ⎥ ) – A34Det( ⎢A 21 A 22 A 23 ⎥ ) Entonces Det(C) = Det(A) + Det(B)
⎢⎣A 41 A 42 A 44 ⎥⎦ ⎢⎣A 41 A 42 A 43 ⎥⎦ 10. Si e3:rp→rp+crs (c ≠ 0) y f3:cp→cp+dcs (d ≠ 0) entonces:
Det(e3(A)) = Det(f3(A)) = Det(A).
11. Si E es una matriz elemental obtenida con alguna operación
Luego se sigue de forma análoga a los ejemplos 2.3., 2.4. y 2.5. elemental de filas y F es una matriz elemental obtenida con
alguna operación elemental de columnas entonces
Particularmente, si:
Det(EA) = Det(E)Det(A) y Det(AF) = Det(A)Det(F).
12. Si A tiene una fila o una columna nula entonces Det(A) = 0.
⎡1 2 3 5⎤ 13. Si R es escalonada reducida por filas entonces Det(R) = 0 ó
⎢ ⎥ Det(R) = 1.
0 4 3 1⎥
A=⎢ 14. A es no singular si y sólo si Det(A) ≠ 0.
⎢2 0 2 5⎥
⎢ ⎥ 15. Rango(A) = n si y sólo si Det(A) ≠ 0.
⎣⎢1 2 1 3⎦⎥ 16. Det(AB) = Det(A)Det(B).
1
Entonces, fijando i = 1 se tiene que: 17. Si A es no singular entonces Det(A-1) = .
Det (A)
18. Si Rango(A) = r ; 1 ≤ r ≤ n entonces al menos 1 de los
⎡ 4 3 1⎤ ⎡ 0 3 1⎤
⎢ ⎥ ⎢ ⎥ determinantes de los menores principales de orden 1, 2, …, r son
Det(A) = (-1) .1.Det( ⎢0 2 5⎥ ) + (-1)1+2.2. Det( ⎢ 2 2 5⎥ )
1+1
no nulos y todos los determinantes de los menores principales
⎢⎣ 2 1 3⎥⎦ ⎢⎣1 1 3⎥⎦ de orden r+1, r+2,… ,n son nulos.
n
⎡ 0 4 1⎤
⎢ ⎥
⎡ 0 4 3⎤
⎢ ⎥
19. Si A es diagonal entonces Det (A) = ∏A
i =1
ii .
+ (-1)1+3.3.Det( ⎢ 2 0 5⎥ ) + (-1)1+4.5. Det( ⎢2 0 2⎥ )
n
⎢⎣1 2 3⎥⎦ ⎢⎣1 2 1⎥⎦ 20. Si A es triangular superior o inferior entonces Det (A) = ∏A i =1
ii .
1. Det(In) = 1.
2. Det(At) = Det(A). Sea q = 2, es decir, tomamos la segunda columna de I2. Luego,
3. Si e1:rp↔rs y f1:cp↔cs entonces Det(e1(A)) = Det(f1(A))= -Det(A)
4. Si A tiene 2 filas o 2 columnas iguales entonces Det(A) = 0. 2
75 76
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Det(Ih-1) = 1 m +1
Det(At) = ∑ (−1)
j=1
p+ j
(A t ) pj Det (M (A t ) p , j )
Demostremos que la igualdad se cumple para n = h. En efecto,
h
Det(Ih) = ∑ (−1)
i =1
i+q
(I h ) iq Det (M (I h ) i ,q ) Ahora bien, M (A t ) p, j = (M (A) j,p ) t y además
M (A) j,p ∈ M mxm (K ) . Luego, por hipótesis de inducción se
Sea q = h, es decir, tomamos la h-ésima columna de Ih. Luego,
cumple que:
h
Det(Ih) = ∑ (−1)
i =1
i+h
(I h ) ih Det (M (I h ) i , h ) Det (M (A t ) p, j ) = Det ((M (A) j,p ) t ) = Det (M (A) j,p )
m +1
Demostremos que la proposición se cumple para n = 2. = ∑ (−1)
j=1
j+ p
A jp Det (M (A) j, p )
En efecto, m +1
t
(A )ij = Aji. Luego,
= ∑ (−1)
i =1
i+p
A ip Det (M(A) i,p ) = Det(A).
2
Supongamos sin pérdida de generalidad que la p-ésima fila es la
= ∑ (−1)
j=1
p+ j
A jp M (A) j,p
fila siguiente a la s-ésima fila, es decir, p = s+1.
2
Luego,
= ∑ (−1)
j=1
j+ p
A jp Det (M (A) j, p )
⎡ A11 A12 L A1n ⎤
⎢ ⎥
⎢ M M M
2
⎥
= ∑ (−1) i+p
A ip Det (M(A) i,p ) ⎢ A s1 As2 L A sn ⎥
i =1
⎢ ⎥
= Det(A) A = ⎢ A p1 A p2 L A pn ⎥
⎢A A ( p +1) 2 L A ( p +1) n ⎥
Supongamos que la proposición se cumple para n = m, es decir, ⎢ ( p +1)1 ⎥
⎢ M M M ⎥
Det(At) = Det(A), ∀ A∈Mmxm(K). ⎢ ⎥
⎣ A n1 An2 L A nn ⎦
Demostremos que la proposición se cumple para n = m+1. Por tanto, e1(A) está definida por:
77 78
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n
⎡ A11 A12 L A1n ⎤
Det(A) = ∑ (−1) t+ j
A tj Det (M (A) t , j ) ⎢
M M M ⎥
⎥
j=1 ⎢
n ⎢ A s1 A s 2 L A sn ⎥
Det(e1(A)) = ∑ (−1)
j=1
t+ j
(e1 (A)) tj Det (M (e1 (A)) t , j ) ⎢
e 2 (A) = ⎢ M M M ⎥
⎥
⎢cA cA p 2 L cA pn ⎥
⎢ p1 ⎥
Sea t = s para A y sea t = p = s+1 para e1(A). Luego, ⎢ M M M ⎥
⎢ ⎥
⎣ A n1 A n 2 A nn ⎦
Det(A) = (-1)s+1As1Det(M(A)s,1) +… + (-1)s+nAsnDet(M(A)s,n)
Det(e1(A)) = (-1)s+1+1(e1(A))(s+1)1Det(M(e1(A))s+1,1) +
+… + (-1)s+1+n(e1(A))(s+1)nDet(M(e1(A))s+1,n) Ahora bien,
n
Pero Det(M(A)s,j) = Det(M(e1(A))s+1,j) y Asj = (e1(A))(s+1)j ∀ j = 1,
2,… , n.
Det(A) = ∑ (−1)
j=1
t+ j
A tj Det (M (A) t , j )
n
Luego, Det(e2(A)) = ∑ (−1)
j=1
t+ j
(e 2 (A)) tj Det (M (e 2 (A)) t , j )
s+1+1
Det(e1(A)) = (-1) As1Det(M(A)s,1) +… +
(-1)s+1+nAsnDet(M(A)s,n)
Sea t = p tanto para A como para e2(A). Luego,
= -(-1) As1Det(M(A)s,1) -… -(-1)s+nAsnDet(M(A)s,n)
s+1
= -[(-1)s+1As1Det(M(A)s,1) +… +
Det(A) = (-1)p+1Ap1Det(M(A)p,1) +… + (-1)p+nApnDet(M(A)p,n)
(-1)s+nAsnDet(M(A)s,n)]
= -Det(A)
Det(e2(A)) = (-1)p+1(e2(A))p1Det(M(e2(A))p,1) +
+… + (-1)p+n(e2(A))pnDet(M(e2(A))p,n)
La demostración para f1(A) es análoga.
4. Supongamos que las filas s-ésima y p-ésima de A son iguales. Pero Det(M(A)p,j) = Det(M(e2(A))p,j) y (e2(A))pj = cAsj ∀ j = 1,
2,… , n. Luego,
Si sobre A se aplica la operación elemental de filas e1:rp↔rs se
obtiene una matriz e1(A) que cumple la siguiente propiedad:
Det(e2(A)) = (-1)p+1cAp1Det(M(A)p,1) +… + (-1)p+ncApnDet(M(A)p,n)
Det(e1(A)) = -Det(A). Pero como las filas s-ésima y p-ésima de
= c[(-1)p+1Ap1Det(M(A)p,1) +… + (-1)p+nApnDet(M(A)p,n)]
A son iguales entonces e1(A) = A. Luego,
= cDet(A)
Det(A) = -Det(A)
La demostración para f2(A) es análoga.
⇒ Det(A) + Det(A) = 0
⇒ 2Det(A) = 0 6. Sea A la matriz definida por:
⇒ Det(A) = 0
79 80
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n
⎡ A11 A12 L A1n ⎤
⎢ ⎥ Det(C) = ∑ (−1) t+ j
C tj Det (M (C) t , j )
⎢ M M M ⎥ j=1
⎢ A s1 A s 2 L A sn ⎥ ← s − ésima fila
⎢ ⎥ Sea t = p. Luego,
A=⎢ M M M ⎥
⎢cA cA s 2 L cA sn ⎥ ← p − ésima fila
⎢ s1 ⎥ Det(C) = (-1)p+1Cp1Det(M(C)p,1) +… + (-1)p+nCpnDet(M(C)p,n)
⎢ M M M ⎥ = (-1)p+1(Ap1+Bp1)Det(M(C)p,1) +
⎢ ⎥ +… + (-1)p+n(Apn+ Bpn)Det(M(C)p,n)
⎣ A n1 A n 2 A nn ⎦
= (-1)p+1Ap1Det(M(C)p,1) +… + (-1)p+nApnDet(M(C)p,n) +
(-1)p+1Bp1Det(M(C)p,1) +… + (-1)p+nBpnDet(M(C)p,n)
Sea B la matriz definida por:
Pero Det(M(C)p,j) = Det(M(A)p,j) = Det(M(B)p,j); ∀ j = 1, 2,… ,
n. Luego,
⎡ A11 A12 L A1n ⎤
⎢ ⎥ Det(C) = (-1)p+1Ap1Det(M(A)p,1) +… + (-1)p+nApnDet(M(A)p,n) +
⎢ M M M ⎥
⎢ A s1 A s 2 L A sn ⎥ ← s − ésima fila (-1)p+1Bp1Det(M(B)p,1) +… + (-1)p+nBpnDet(M(B)p,n)
⎢ ⎥ = Det(A) + Det(B).
B=⎢ M M M ⎥
⎢A A s 2 L A sn ⎥ ← p − ésima fila 9. La demostración es análoga a la demostración del apartado 7.
⎢ s1 ⎥
⎢ M M M ⎥
⎢ ⎥ 10. Sea A la matriz definida por:
⎣A n1 A n 2 A nn ⎦
⎡ A11 A12 L A1n ⎤
Luego, por el apartado 5 Det(A) = cDet(B). Por el apartado 4 ⎢ ⎥
Det(B) = 0. Por consiguiente, Det(A) = c.0 = 0. ⎢ M M M ⎥
⎢ A s1 A s 2 L A sn ⎥
⎢ ⎥
7. La demostración es análoga a la demostración del apartado A=⎢ M M M ⎥
anterior. ⎢A A p 2 L A pn ⎥
⎢ p1 ⎥
8. Las matrices A, B y C están definidas de la siguiente forma: ⎢ M M M ⎥
⎢ ⎥
⎣ A n1 A n 2 A nn ⎦
⎡ A11 A12 L A1n ⎤ ⎡ A11 A12 L A1n ⎤
⎢ ⎥ ⎢ ⎥ Luego e3(A) está definida por:
⎢ M M M ⎥ ⎢ M M M ⎥
⎢ A s1 A s 2 L A sn ⎥ ⎢ A s1 A s 2 L A sn ⎥
⎢ ⎥ ⎢ ⎥ ⎡ A11 A12 L A1n ⎤
A=⎢ M M M ⎥ B=⎢ M M M ⎥ ⎢ ⎥
⎢A M M M
A p 2 L A pn ⎥ ⎢B Bp 2 L Bpn ⎥ ⎢ ⎥
⎢ p1 ⎥ ⎢ p1 ⎥ ⎢ A s1 As2 L A sn ⎥
⎢ M M M ⎥ ⎢ M M M ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ e3 (A) = ⎢ M M M ⎥
⎣ A n1 A n 2 A nn ⎦ ⎣A n1 A n 2 A nn ⎦
⎢A + cA A p 2 + cA s 2 L A pn + cA sn ⎥
⎢ p1 s1
⎥
⎢ M M M ⎥
⎡ A11 A12 L A1n ⎤ ⎢ ⎥
⎢
M M M
⎥ ⎣ A n1 An2 A nn ⎦
⎢ ⎥
⎢ A s1 As2 L A sn ⎥
⎢ ⎥ Si definimos la matriz B de la siguiente manera:
C=⎢ M M M ⎥
⎢A + B A p 2 + Bp 2 L A pn + Bpn ⎥
⎢ p1 p1
⎥
⎢ M M M ⎥
⎢ ⎥
⎣ A n1 A n2 A nn ⎦
Ahora bien,
81 82
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ A11 A12 L A1n ⎤ 12. Supongamos sin pérdida de generalidad que la primera fila de A
⎢ ⎥ es nula. Ahora bien,
⎢ M M M ⎥
⎢ A s1 A s 2 L A sn ⎥ n
⎢
B=⎢ M M M ⎥
⎥ Det(A) = ∑ (−1)
j=1
t+ j
A tj Det (M (A) t , j )
⎢cA cA s 2 L cA sn ⎥
⎢ s1 ⎥
⎢ M M M ⎥ Sea t = 1. Luego,
⎢ ⎥
⎣ A n1 A n 2 A nn ⎦
Det(A) = (-1)1+1A11Det(M(A)1,1)+…+(-1)1+nA1nDet(M(A)1,n)
= (-1)1+1.0.Det(M(A)1,1)+…+(-1)1+n.0.Det(M(A)1,n)
Entonces por el apartado 7 se cumple que = 0.
Det(e3(A)) = Det(A)+Det(B). De forma análoga se demuestra si A tiene una columna nula.
Por el apartado 6 Det(B) = 0. Por consiguiente: 13. Supongamos que Rango(A) = n. En ese caso R = In y por
consiguiente Det(R) = Det(In) = 1. Supongamos ahora que
Det(e3(A)) = Det(A)+0 = Det(A). Rango(A) = r < n. En ese caso R tiene las últimas n-r nulas. Por
el apartado 10, Det(R) = 0.
La demostración para f3(A) es análoga.
14. CN(⇒): Si A es invertible entonces Det(A) ≠ 0.
11. Supongamos que E está definida por la operación elemental de
filas e1:rp↔rs. Luego, E = e1(In). En consecuencia por el apartado Utilicemos en este caso el método de reducción al absurdo, es
3: decir, supongamos que A es invertible y que Det(A) = 0. Como
A es invertible entonces existen matrices elementales E1, E2,… ,
Det(E) = Det(e1(In)) = -Det(In) = -1. Et tales que:
Por otra parte EA = e1(A). Luego, también por el apartado 3: In = Et-1Et…E1A
⇒ Det(In) = Det(Et-1Et…E1A)
Det(EA) = Det(e1(A)) = -Det(A) = -1.Det(A) = Det(E)Det(A)
⇒ Det(In) = Det(Et-1)Det(Et)…Det(E1)Det(A)
⇒ Det(In) = Det(Et-1)Det(Et)…Det(E1).0
Supongamos que E está definida por la operación elemental de
filas e2:rp→crp (c ≠ 0). Luego, E = e2(In). En consecuencia por ⇒ Det(In) = 0
el apartado 5:
Lo cual es una contradicción porque Det(In) = 1.
Det(E) = Det(e2(In)) = cDet(In) = c.1 = c.
Por otra parte EA = e2(A). Luego, también por el apartado 5: CS(⇐): Si Det(A) ≠ 0 entonces A es invertible.
Det(EA) = Det(e2(A)) = cDet(A) = Det(E)Det(A) Sea R∈Mnxn(K) la matriz escalonada reducida por filas de A.
Luego, existen matrices elementales E1, E2,… , Et tales que:
Supongamos que E está definida por la operación elemental de
filas e3:rp→rp+crs (c ≠ 0). Luego, E = e3(In). En consecuencia por R = Et-1Et…E1A
el apartado 8: ⇒ Det(R) = Det(Et-1Et…E1A)
Por otra parte EA = e3(A). Luego, también por el apartado 8: Det(R) = Det(Et-1)Det(Et)…Det(E1)Det(A)
Det(EA) = Det(e3(A)) = Det(A) = 1.Det(A) = Det(E)Det(A) Por el apartado anterior el determinante de una matriz elemental
puede valer 1, -1 ó c (c ≠ 0), es decir, el determinante de una
De forma análoga se demuestra para las operaciones elementales matriz elemental es no nulo. Por consiguiente, como Det(Et-1) ≠
de columnas. 0, Det(Et) ≠ 0,… , Det(E1) ≠ 0 y Det(A) ≠ 0 entonces Det(R) ≠ 0.
Como Det(R) = 0 o Det(R) = 1 entonces Det(R) = 1, es decir,
83 84
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
15. CN(⇒): Si Rango(A) = n entonces Det(A) ≠ 0. 17. Por el apartado 1 se sabe que:
Det(A) = Det(B) = 0 18. Por definición de Rango a través de determinantes se tiene que:
Por otro lado, si A y B son singulares entonces Rango(A) < n y Rango(A) = máximo{r: ∃ B∈Mrxr(K), sub-matriz de A tal que
Rango(B) < n. Por consiguiente, Rango(AB) ≤ Rango(A) < n, es Det(B) ≠ 0}
decir, AB es singular. Luego, Det(AB) = 0.
Como los menores principales de orden 1, 2,.. , r son matrices de
Por consiguiente, Det(AB) = 0 = 0.0 = Det(A)Det(B). orden rxr entonces al menos uno de los determinantes de los
menores principales de orden 1, 2,… , r son no nulos y todos los
Supongamos ahora que A es singular y B es no singular. En ese determinantes de los menores principales de orden r+1, r+2,… ,n
caso: son nulos.
n
Finalmente supongamos que A y B son no singulares. Por
consiguiente existen matrices elementales E1, E2,… , Et tales
Det(A) = ∑ (−1)
i =1
i +1
A i1Det (M (A) i,1 )
que:
Como A es diagonal Anxn(2,1) = … Anxn(n,1) = 0. Luego,
In = Et-1Et…E1A
85 86
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
20. Supongamos que A es triangular superior. Por definición: a A3 solamente aplicando operaciones elementales de fila del tipo rp→rp + crs
entonces por la propiedad 10, Det(A3) = Det(T) y como T es triangular
n superior entonces Det(A3) es el producto de los elementos de la diagonal
Det(A) = ∑ (−1)
i =1
i+ j
A ij Det (M (A) i , j ) principal de T. Este es un nuevo procedimiento para hallar el determinante de
una matriz de cualquier orden. Veamos:
El determinante de A3 se puede calcular perfectamente por el procedimiento columna 3 por (-3). Luego, por la propiedad 5 se tiene que
anterior. Sin embargo, con fines académicos, para A3 utilizaremos las Det(B5) = (-3)Det(A1) = (-3).3 = -9.
propiedades de determinantes (teorema 2.1.), específicamente las propiedades
10 y 20. Si se determina una matriz T triangular superior equivalente por filas
87 88
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡0 1 4⎤ ⎡6 9 −9 ⎤
⎢ ⎥ 1 ⎢ ⎥
6. B6 = ⎢4 2 3⎥ . Se aprecia que B6 se obtiene al intercambiar Det(B) = Det ( ⎢a b c ⎥ ) =
3
⎢⎣2 0 − 1 ⎥⎦ ⎢⎣2 3 − 3⎥⎦
primero las filas 1 y 3 de A1 y luego a la matriz resultante ⎡ma + 6 mb + 9 mc − 9⎤
multiplicarle la columna 1 por 2. Luego, por las propiedades 3 y 5 1 ⎢ ⎥ 1
se tiene que Det(B6) = -(2Det(A1) = (-2).3 = -6. Det ( ⎢ a b c ⎥ ) = Det (A)
3 3
⎢⎣ 2 3 − 3 ⎥⎦
⎡1 0 −1 ⎤
⎢ ⎥
7. B7 = ⎢1 3 2⎥ . Se observa que las filas 1 y 3 de B7 son
⎢⎣0 1 4⎥⎦
Es decir, Det(A) = 3Det(B) y como B tiene 2 filas iguales Det(B) = 0. En
idénticas a las filas 1 y 3 de A1 y A2, en tanto que la fila 2 de B7 se consecuencia, Det(A) = 3.0 = 0.
obtiene al sumar la fila de 2 de A1 más la fila 2 de A2. Luego, por la
propiedad 8 se tiene que Det(B7) = Det(A1) + Det(A2) = 3 + 6 = 9. Este cálculo se puede hacer sin especificar necesariamente las operaciones
⎡4 0 −1 ⎤ elementales de filas de la siguiente manera:
⎢ ⎥
8. B8 = ⎢1 2 3⎥ . Se aprecia que las columnas 2 y 3 de B8 son
⎡ma+ 6 mb+ 9 mc− 9⎤ ⎡6 9 −9⎤
⎢⎣2 1 4⎥⎦ ⎢ ⎥ ⎢ ⎥
Det(A) = Det( ⎢ a b c ⎥ ) = Det( ⎢a b c ⎥ )
idénticas a las columnas 2 y 3 de A1 y A3, en tanto que la columna 1
⎢⎣ 2 3 −3 ⎦⎥ ⎣2 3 −3⎥⎦
⎢
de B8 se obtiene al sumar la columna 1 de A1 más la columna 1 de
A3. Luego, por la propiedad 9 se tiene que ⎡2 3 −3 ⎤
Det(B8) = Det(A1) + Det(A3) = 3 + 20 = 23. ⎢ ⎥
= 3Det( ⎢a b c ⎥ ) = 3.0 = 0
⎡1 0 −1 ⎤
⎢ ⎥ ⎢⎣2 3 − 3⎥⎦
9. B 9 = ⎢0 2 5⎥ . Se observa que B9 se obtiene al sustituir la fila
⎢⎣0 1 4⎥⎦
2.4. MATRIZ ADJUNTA.
2 de A1 por dicha fila menos 2 veces la fila 1 de A1. Luego, por la
propiedad 10 se tiene que Det(B9) = Det(A1) = 3. Definición 2.3.
⎡ 1 0 0⎤
⎢ ⎥ Sean A∈Mnxn(K) e i, j∈ℵ, 1≤ i ≤ n; 1≤ j ≤ n. Se define como Cofactor del
10. B10 = ⎢ − 1 1 − 2 ⎥ . Se observa que B10 se obtiene al sustituir la
elemento Aij y se denota por A(i|j) al número A(i|j)∈K:
⎢⎣ 0 1 4⎥⎦
columna 3 de A2 por dicha columna más la columna 1 de A2. A(i|j) = (-1)i+jDet(M(A)i,j)
Luego, por la propiedad 10 se tiene que Det(B10) = Det(A2) = 6.
Ejemplo 2.9.
Ejemplo 2.8.
Sea A∈M3x3(ℜ) definida por:
Hallemos el determinante de la siguiente matriz:
⎡ 1 0 2⎤
⎡ma + 6 mb + 9 mc − 9⎤ ⎢ ⎥
A = ⎢− 1 2 1⎥
⎢ ⎥
A=⎢ a b c ⎥ ⎢⎣ 1 1 3⎥⎦
⎢⎣ 2 3 − 3 ⎥⎦
Luego,
⎡ma + 6 mb + 9 mc − 9⎤ ⎡6 9 −9 ⎤ 1 ⎡2 3 −3 ⎤
⎢ ⎥ 1 →r1 −mr2 ⎢ ⎥ r1 → 3 r1 ⎢ ⎥ ⎡1 0⎤
A=⎢ a b c ⎥ ⎯r⎯ ⎯⎯→⎢a b c ⎥ ⎯⎯⎯ →⎢a b c ⎥ = B A(2|3) = (-1)2+3Det(M(A)2,3) = (-1)5Det( ⎢ ⎥ ) = (-1).(1) = -1
⎢⎣ 2 3 − 3 ⎥⎦ ⎢⎣2 3 − 3⎥⎦ ⎢⎣2 3 − 3⎥⎦ ⎣1 1⎦
89 90
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Sea A∈Mnxn(K). Se define como Matriz Adjunta o Matriz Adjugada de A y se La matriz adjunta de A tiene la siguiente estructura:
denota por Adj(A) a la matriz Adj(A)∈Mnxn(K) con elemento genérico:
⎡ A(1 1) A(2 1) L A(n 1) ⎤
⎢ ⎥
(Adj(A))ij = A(j|i) A(1 2) A(2 2) L A(n 2) ⎥
Adj(A) = ⎢⎢
M M M ⎥
Observación: ⎢ ⎥
⎣⎢ A (1 n ) A ( 2 n ) L A ( n n )⎥⎦
Si definimos a B∈Mnxn(K) la matriz Bij = A(i|j) entonces Adj(A) = Bt.
Luego,
Ejemplo 2.10.
n
n
⎡ 2 1⎤
A(1|1) = (-1)1+1Det(M(A)1,1) = (-1)2Det( ⎢ ⎥ )=5
⇒ (A(Adj(A)))ij = ∑A
r =1
ir A ( j r)
⎣1 3⎦
n
⎡−1 1⎤
A(1|2) = (-1)1+2Det(M(A)1,2) = (-1)3Det( ⎢ ⎥)=4
⇒ (A(Adj(A)))ij = ∑A
r =1
ir ( −1)
j+ r
Det(M(A) j, r )
⎣ 1 3⎦
n
⎡−1 2⎤
A(1|3) = (-1)1+3Det(M(A)1,3) = (-1)4Det( ⎢ ⎥ ) = -3
⇒ (A(Adj(A)))ij = ∑ (−1)
r =1
j+ r
A ir Det(M (A) j, r )
⎣ 1 1⎦
⎡0 2 ⎤ n
A(2|1) = (-1)2+1Det(M(A)2,1) = (-1)3Det( ⎢
⎣1 3⎦
⎥)=2 Si i = j entonces (A(Adj(A)))ij = ∑ (−1)
r =1
i+r
A ir Det (M (A) i , r ) = Det(A).
⎡1 2⎤
A(2|2) = (-1)2+2Det(M(A)2,2) = (-1)4Det( ⎢ ⎥ )=1 Ahora bien,
⎣1 3⎦
⎡1 0⎤ Sea B∈Mnxn(K) la matriz definida de la siguiente manera:
A(2|3) = (-1)2+3Det(M(A)2,3) = (-1)5Det( ⎢ ⎥ ) = -1
⎣1 1⎦ ⎡ A11 A12 L A1n ⎤
⎡0 2⎤ ⎢ ⎥
A(3|1) = (-1)3+1Det(M(A)3,1) = (-1)4Det( ⎢ ⎥ ) = -4 ⎢ M M M ⎥
⎣2 1 ⎦ ⎢ A i1 A i 2 L A in ⎥
⎢ ⎥
⎡ 1 2⎤ B=⎢ M M M ⎥
A(3|2) = (-1)3+2Det(M(A)3,2) = (-1)5Det( ⎢ ⎥ ) = -3 ⎢A A i 2 L A in ⎥ ← j − ésima fila
⎣− 1 1⎦ ⎢ i1 ⎥
⎡ 1 0⎤ ⎢ M M M ⎥
A(3|3) = (-1)3+3Det(M(A)3,3) = (-1)6Det( ⎢ ⎥ )=2 ⎢ ⎥
⎣ − 1 2⎦ ⎣A n1 A n 2 A nn ⎦
Teorema 2.2.
Sea t = j. Luego,
n
91 92
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Es decir, ⎡5 0 −2 3⎤
⎢ ⎥
1 − 2 1 4⎥
⎧ Det (A ) si i = j 1.2. B=⎢
⎢3 1 2 4⎥
(A (Adj(A )))ij = ⎨ ⎢ ⎥
⎩ 0 si i ≠ j ⎢⎣0 6 0 5⎥⎦
93 94
CAPÍTULO 2: DETERMINANTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n
⎡ 3 0 0⎤ ⎡3 0 −1⎤ ⎡ 7 1 2⎤
⎢
A = ⎢0 1 1⎥
⎥ ⎢
A = ⎢0 1 1 ⎥
⎥ ⎢
A = ⎢− 1 7 0⎥
⎥ Demuestre que Det(A) = 1 + ∑X
i =1
i .
95 96
CAPÍTULO 2: DETERMINANTES
⎡ 2 −1 x −3⎤
⎢ ⎥
3 0 1 3x ⎥
13.4. Det(A) = –7 con A = ⎢
⎢4 2 5 6⎥
⎢ ⎥
⎣⎢− 2 1 1 2 ⎦⎥
⎡ 2 −3 1 ⎤
⎢ ⎥
13.5. Det(A) = 0 con A = ⎢ 1 senx 0 ⎥ ; x∈[0,2π]
⎢⎣− senx cos 2 x senx ⎥⎦
⎡ 1 −1 1 ⎤
⎢ ⎥
13.6. Det(A) = 0 con A = ⎢ctgx 3 0 ⎥ ; x∈[0,2π]
⎢⎣ 1 − 1 tgx ⎥⎦
⎡2 4 3⎤
⎢ ⎥
14.1. A = ⎢1 2 − 1⎥
⎣⎢1 −1 4⎥⎦
⎡ 1 1 −2 4⎤
⎢ ⎥
0 2 1 3⎥
14.2. B=⎢
⎢−1 2 1 0⎥
⎢ ⎥
⎣⎢ 4 3 2 − 1 ⎦⎥
⎡1 −1 −2 −1 ⎤
⎢ ⎥
0 3 4 − 1⎥
14.3. C=⎢
⎢4 1 2 1⎥
⎢ ⎥
⎢⎣3 3 1 2⎥⎦
97
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
El conjunto de ecuaciones:
⎧ 2X1 − X 2 + 2X 3 = 7
3.1. INTRODUCCIÓN. ⎪
⎪ X1 − 3X 2 + 2X 3 = 8
⎨
En este capítulo se presenta una importante herramienta para el desarrollo del ⎪ 3X1 + X 2 + X 3 = 4
análisis de regresión multivariante como lo son los sistemas de ecuaciones ⎪2X1 − X 2 − 4X 3 = −5
⎩
lineales. Se exponen los 3 principales métodos para la resolución de sistemas
de ecuaciones lineales consistentes como lo son la Eliminación de Gauss, la
Es un SEL de 4 ecuaciones con 3 incógnitas. Dicho sistema se puede escribir
Eliminación de Gauss-Jordan y la Regla de Crámer, así como también se
matricialmente de la siguiente forma:
presentan aplicaciones como el Modelo de Insumo-Producto de Leontief.
99
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Son equivalentes ya que tienen una única solución común X1 = 2; X2 = -2 y Ahora bien, el SEL AX = Y es:
X3 = 4.
100 101
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
102 103
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ Z1 ⎤ ⎡ Z1 ⎤
⎢ ⎥ ⎢ ⎥
Z Z
Supongamos que Z = ⎢ 2 ⎥ es solución del SEL AX = Y. Luego, Es decir, Z = ⎢ 2 ⎥ es solución del SEL AX = Y.
⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥
⎣⎢ Z n ⎦⎥ ⎢⎣ Z n ⎥⎦
⎣⎢ Z n ⎦⎥ ⎪ M
multiplicamos a ambos lados de la igualdad de la p-ésima ecuación por c-1 se ⎪
⎩A m1X1 + A m 2 X 2 + ... + A mn X n = Ym
obtiene que:
104 105
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
106 107
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎧ n
⎧X1 − 3X 2 + X 3 = −2
⎪ X1 + ∑ R 1 jX j = Z1 ⎪
⎨2X1 + 2X 2 − X 3 = 3
⎪ j= r +1
⎪ n ⎪ X + 2X = 7
⎪X 2 +
⎨ ∑
j= r +1
R 2 jX j = Z 2 ⎩ 1 3
⎪ M
⎪ Utilizando la Eliminación de Gauss-Jordan, determinemos si este SEL es
n
⎪X +
∑ R
⎪ r j= r +1 rj j
X = Zr consistente:
⎩
⎡1 − 3 1 − 2⎤ r → r − 2 r ⎡1 − 3 1 − 2⎤ 1
⎡1 − 3 1 −2 ⎤
[A | Y] = ⎢⎢2 ⎥ ⎯⎯ ⎯ ⎯1 → ⎢ ⎥ r2 → 8 r2 ⎢ 7 ⎥
2 2
2 − 1 3⎥ r → r − r ⎢ 0 8 − 3 7 ⎥ ⎯⎯ ⎯ ⎯→ ⎢0 1 −3
Z r +1 = Z r + 2 = ... = Z m = 0 ⎯⎯3
⎯ ⎯→ ⎢
3 1 8 8⎥
⎢1 0 2 7 ⎥⎦ 0 3 1 9 ⎥ ⎢0 3 1 9 ⎥⎦
⎣ ⎣ ⎦ ⎣
Como R = [RA | Z] es escalonada reducida por filas puede ocurrir lo siguiente: ⎡ ⎤ ⎡1 − 3
⎢1 − 3 1 −2 ⎥ 8 1 − 2 ⎤ r →r + 3 r
r3 → r3 ⎢ 7 ⎥ ⎯⎯⎯ ⎯
2 2 3
→
⎯⎯⎯⎯→⎢0 7 ⎥ ⎯⎯ 8
r3 → r3 −3r2
1 −3 ⎯⎯→⎢0
17
1 −3
1. Zr+1 = 1. Esto contradice la igualdad anterior. Luego, el SEL ⎢ 8 8 ⎥ 8 8 ⎥ r1 →r1 − r3
AX = Y es inconsistente. ⎢0 0 17 51 ⎥ ⎢0 0 1 3 ⎥ ⎯⎯⎯ ⎯→
⎣ 8 8⎦ ⎣ ⎦
2. Zr+1 = 0 ó Zr+1 no existe. En este caso el SEL AX = Y es consistente
y las soluciones se obtienen dando valores arbitrarios a las ⎡1 − 3 0 − 5 ⎤ ⎡1 0 0 1 ⎤
incógnitas Xr+1, Xr+2,…, Xn. Además si r = n entonces el sistema ⎢ ⎥ r1 → r1 +3r2 ⎢ ⎥
⎢ 0 1 0 2 ⎥ ⎯⎯ ⎯ ⎯ → ⎢0 1 0 2⎥ = [R A | Z]
tiene una única solución X1 = Z1, X2 = Z2,… , Xn = Zn y si r < n
⎢0 0 1 3⎦ ⎥ ⎢ ⎥
entonces el sistema tiene infinitas soluciones las cuales son ⎣ ⎣0 0 1 3 ⎦
generadas por exactamente n – r + 1 vectores.
Como se puede observar RA = I3 y Rango(A) = 3. Por lo tanto, Zr+1 = Z3+1 = Z4
Ejemplo 3.4. no existe. En consecuencia, el SEL es consistente y como Rango(A) = 3 = n
entonces tiene una única solución la cual es X1 = Z1 = 1; X2 = Z2 = 2;
Consideremos el SEL: X3 = Z3 = 3.
⎧ X1 + 2X 2 + X 3 = 1 Ejemplo 3.6.
⎪
⎨ 2X1 − X 2 + 3X 3 = 2
⎪2 X + 4X + 2 X = 4 Consideremos el SEL:
⎩ 1 2 3
⎧ X1 + 2X 2 + X 3 = 1
Utilizando la Eliminación de Gauss-Jordan, determinemos si este SEL es ⎪
consistente: ⎨ 2X1 − X 2 + 3X 3 = 2
⎪2 X + 4 X + 2 X = 2
⎩ 1 2 3
⎡1 2 1 1⎤ r →r − 2 r ⎡1 2 1 1⎤ r2 →− 1 r2 ⎡1 2 1 1⎤
[A | Y] = ⎢⎢2 ⎥ ⎯⎯ ⎯ ⎯1 → ⎢ ⎥ ⎢
− 1 3 2⎥ r →r − 2r ⎢0 − 5 1 0⎥ ⎯⎯⎯1⎯→ ⎢0 1 − 1 0⎥
⎥ Utilizando la Eliminación de Gauss-Jordan, determinemos si este SEL es
2 2 5
⎯⎯
3
⎯3
⎯1 → ⎢ r3 →− r3 5 consistente:
⎢2 ⎥
4 2 4⎦ ⎥
0 0 2⎦ ⎯⎯⎯⎯→ ⎣0 0
2 ⎢ 0 1⎥⎦
⎣ ⎣0
⎡1 0 7 0⎤ ⎡1 2 1 1⎤ r →r − 2 r ⎡1 2 1 1⎤ ⎡1 2 1 1⎤
⎡1 2 1 0⎤ 1
5 ⎥ ⎢ ⎥ ⎯⎯
[A | Y] = ⎢2 − 1 3 2⎥ r3 →r3 −2r1 ⎢0 − 5 1 0⎥ ⎯⎯⎯⎯→⎢0 1 − 5 0⎥⎥
⎯ ⎯1 → ⎢ ⎥ r2 →− 5 r2 ⎢
2 2
⎢ 1 ⎥ r1 → r1 − 2 r2 ⎢ 1
r1 → r1 − r3
⎯⎯ ⎯⎯→⎢0 1 − 0 ⎯⎯ ⎯⎯→ ⎢0 1 − 1 0⎥ = [R A | Z] ⎯⎯⎯⎯→ ⎢
5 ⎥ ⎢ 5 ⎥ ⎢2 4 2 2⎥⎦ 0 0 0⎥⎦ ⎢0 0 0 0⎥⎦
⎢0 0 0 1⎥⎦ 0 0 0 1⎥ ⎣ ⎣0 ⎣
⎣ ⎣⎢ ⎦
⎡1 0 7 1⎤
⎢ 5 ⎥
Como se puede observar Rango(A) = 2. Por lo tanto, Zr+1 = Z2+1 = Z3 = 1. En ⎯⎯ ⎯⎯→ ⎢0 1 − 1 0⎥ = [R A | Z]
r1 → r1 − 2 r2
108 109
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
{
conjunto de infinitas soluciones del SEL es S = Z ∈ ℜ3 : Z = Z1 + cZ2 ; c ∈ ℜ . }
Utilizando la Eliminación de Gauss-Jordan, determinemos si este SEL es
Ejemplo 3.7. consistente:
Consideremos el SEL: ⎡1 − 2 3 1 2⎤ r → r − 2 r ⎡1 − 2 3 1 2⎤ 1
⎢ ⎥ ⎯⎯
2
⎯
2
⎯1 → ⎢ ⎥ r2 → 5 r2
[A | Y] = ⎢2 1 1 − 2 4⎥ r → r − r ⎢ 0 5 − 5 − 4 0⎥ ⎯⎯ ⎯ ⎯→
⎧X1 − 2X 2 + 3X 3 = 2 ⎢1 − 2 1 ⎥ ⎯⎯ ⎯⎯→ ⎢0
3 3 1
⎥
⎪ ⎣ 1 1 ⎦ ⎣ 0 − 2 0 − 1 ⎦
⎪ 2X1 + X 2 + X 3 = 4
⎨ ⎡1 − 2
⎪ X1 − 2X 2 + X 3 = 1 ⎡1 − 2 3 1 2⎤ 3 1 2⎤ r → r + r
⎢ ⎥
1
r3 → − r3 ⎢ ⎥ ⎯⎯2
⎯ ⎯→
2 3
⎪ 2X 2 + 3X 3 = 6 1 −1 − 4 0⎥ ⎯⎯⎯⎯→⎢0 −1 − 4 0⎥ r → r − 3r
⎢0 1
2
⎩ 5 5
⎢0 ⎥ ⎢ ⎥ ⎯⎯1
⎯1
⎯3 →
0 − 2 0 − 1 0 0 1 0 1 ⎥
Utilizando la Eliminación de Gauss-Jordan, determinemos si este SEL es
⎣ ⎦ ⎣⎢ 2⎦
consistente: ⎡ ⎤ ⎡1 0 0 − 3 3 ⎤
⎢1 − 2 0 1 1 2⎥ ⎢ 5 2⎥
⎢0 1 0 − 4 1 ⎥ ⎯⎯ ⎯⎯→⎢0 1 0 − 4 1 ⎥ = [R A | Z]
r1 → r1 + 2 r2
⎡1 − 2 3 2⎤ ⎡1 − 2 3 2⎤ ⎡1 − 2 3 2⎤ ⎢ 5 2⎥ ⎢ 5 2⎥
⎢ ⎥ r2 →r2 −2r1 ⎢ ⎥ 1 ⎢ ⎥ ⎢0 0 1 0 1 ⎥ ⎢0 0 1 0 1 ⎥
2 1 1 4 ⎯⎯ ⎯ ⎯ → 0 5 − 5 0 0 1 − 1 0⎥ ⎣ 2 ⎦ 2⎦
[A | Y] = ⎢⎢ ⎥ ⎢ ⎥ ⎯⎯⎯ ⎯→⎢⎢ ⎣
r2 → r2
5
⎥ r3 →r3 −r1
1 − 2 1 1 ⎯⎯⎯⎯→ 0 0 − 2 − 1 ⎢ ⎥ 0 0 − 2 − 1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣0 2 3 6⎥⎦ ⎢⎣0 2 3 6⎥⎦ ⎢⎣0 2 3 6⎥⎦ Como se puede observar Rango(A) = 3. Por lo tanto, Zr+1 = Z3+1 = Z4. Como Z4
no existe entonces el SEL es consistente. Como Rango(A) = 3 < n = 4 el SEL
⎡1 − 2 3 2⎤ ⎡1 − 2 3 2⎤ tiene infinitas soluciones generadas por exactamente n – r + 1 = 4 – 3 + 1 = 2
⎢ ⎥ 1 ⎢ ⎥ vectores. Dichos vectores se obtienen de la siguiente manera:
0 1 − 1 0 0 1 − 1 0⎥ r4 →r4 −5 r3
⎯ ⎯→ ⎢⎢ ⎥ ⎯⎯ ⎯2⎯→⎢
r3 → − r3
4 → r4 − 2 r2
⎯r⎯ ⎥ ⎢ ⎯⎯⎯⎯→
0 0 − 2 −1 0 0 11 ⎥
⎢ ⎥ ⎢ 2⎥ ⎡1 0 0 − 3 3 ⎤ ⎧ X − 3 X = 3 ⎧ X1 = 3 + 3 X 4
⎢⎣0 0 5 6⎥⎦ ⎢⎣0 0 5 6⎥⎦ ⎢ 5 2⎥ ⎪ 1 5 4 2 ⎪ 2 5
⎢0 1 0 − 4 1 ⎥ ⇒ ⎪⎨X 2 − 4 X 4 = 1 ⇒ ⎪⎨X 2 = 1 + 4 X 4
⎢ 5 2⎥ 5 2 2 5
⎢0 0 1 0 1 ⎥ ⎪⎪ X3 = 1
⎪
X3 = 1
⎣ 2⎦ ⎩ 2 ⎩⎪ 2
110 111
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Luego, la solución del SEL toma la forma: Supongamos que X1∈Mnx1(K) es también solución del SEL homogéneo
AX = θnx1. Luego se cumple que:
⎡ X1 ⎤ ⎡ 3 2 + 3 5 X 4 ⎤ ⎡ 3 2 ⎤ ⎡3 ⎤
⎢ ⎥ ⎢1 4
⎥ ⎢ ⎥
1
⎢ 5⎥ AX1 = θnx1
X ⎢ ⎥ ⎢ ⎥
⎢ 2 ⎥ = 2 + 5 X 4 = 2 + X ⎢ 4 5 ⎥; X ∈ ℜ ⇒ A-1AX1 = A-1θnx1
⎢X3 ⎥ ⎢ ⎥ ⎢ ⎥ 4⎢ ⎥ 4
⎢ ⎥ ⎢
1
2 ⎥ ⎢ 1 2⎥ ⎢0⎥ ⇒ X1 = θnx1
⎣⎢X 4 ⎦⎥ ⎢⎣ X4 ⎥ ⎢0⎥
⎦ ⎣ ⎦
⎢1 ⎥
⎣ ⎦
La cual es la solución trivial. Por tanto el SEL homogéneo AX = θnx1 tiene una
única solución.
⎡3 ⎤ ⎡3 ⎤
⎢ 2⎥ ⎢ 5⎥ CS(⇐): Si el SEL homogéneo AX = θnx1 tiene una única solución entonces A
1
⎢ ⎥ ⎢4 ⎥
Los vectores que generan las soluciones son Z1 = ⎢ 2 ⎥ y Z2 = ⎢ 5 ⎥ y el es no singular.
1
⎢ 2⎥ ⎢0⎥
⎢0⎥ ⎢1 ⎥ Si el SEL homogéneo AX = θnx1 tiene una única solución entonces
⎣ ⎦ ⎣ ⎦
Rango(A) = n. Por consiguiente A es no singular.
{
conjunto de infinitas soluciones del SEL es S = Z ∈ ℜ : Z = Z + cZ ; c ∈ ℜ .
4 1 2
}
Teorema 3.4.
Teorema 3.2. (Teorema de Rouché-Frobenius)
Sean A∈Mnxn(K), X∈Kn e Y∈Km. Si A es no singular entonces el SEL
n m
Sean A∈Mmxn(K), X∈K e Y∈K . El SEL AX = Y es consistente si y sólo si AX = Y tiene una única solución y ésta es X = A-1Y.
Rango(A) = Rango([A | Y]).
Demostración
Demostración
Si A es no singular entonces Rango(A) = n. Por lo tanto, el SEL es consistente
CN (⇒): Si el SEL AX = Y es consistente entonces y tiene además una única solución. Esta solución es:
Rango(A) = Rango([A | Y]).
AX = Y
Sea R = [RA | Z] la matriz escalonada reducida por filas de [A | Y] y ⇒ A-1AX = A-1Y
supongamos que Rango(A) = r. Si el SEL AX = Y es consistente entonces ⇒ X = A-1Y
Zr+1 = 0 en cuyo caso el número de filas no nulas de R es igual a r, es decir,
Rango([A | Y]) = r = Rango(A). Ejemplo 3.9.
CS (⇐): Si Rango(A) = Rango([A | Y]) entonces el SEL AX = Y es En el ejemplo 3.5., se puede verificar que la matriz de coeficientes A es no
consistente. singular y su matriz inversa es:
Demostración ⎡ 4 6 1 ⎤ 2
⎢ 17 17 17⎥ ⎡− ⎤ ⎡1 ⎤
X = A −1Y = ⎢ − 5 1 3 ⎥ ⎢ 3⎥ = ⎢2⎥
CN(⇒): Si A es no singular entonces el SEL homogéneo AX = θnx1 tiene una ⎢ 17 17 17⎥ ⎢ ⎥ ⎢ ⎥
única solución. ⎢⎣ − 2 17 − 317 8 ⎥ ⎢⎣ 7 ⎥⎦ ⎢⎣3⎥⎦
17⎦
El SEL AX = θnx1 es consistente. La solución trivial X = θnx1 es solución de
este sistema. Veamos que esta solución es única.
112 113
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
114 115
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n
⎡ ⎤
Yi − ∑A X ij j ⎢1 − 3 1 −2 ⎥ 8
⎡1 − 3
⎢
1 −2 ⎤
7 ⎥ = [C | Z]
r3 → r3
Xi =
j=i +1
; i = n-1, n-2,… , 1 ⎯⎯ ⎯⎯→ ⎢0
r3 → r3 −3r2
1 −3 7 ⎥ ⎯⎯ ⎯⎯→ ⎢0
17
1 −3
A ii ⎢ 8 8 ⎥ 8 8⎥
⎢0 17 51 ⎥ ⎢0 0 1 3 ⎥⎦
0 ⎣
⎣ 8 8⎦
De forma análoga se despejan las incógnitas cuando A es triangular inferior.
Como se puede observar Rango(C) = 3. Por lo tanto, Zr+1 = Z3+1 = Z4 no existe.
Definición 3.4. En consecuencia, el SEL CX = Z es consistente y al ser equivalente al SEL
AX = Y, éste último también es consistente. Haciendo sustitución hacia atrás
Sea C∈Mnxn(K). Se dice que C es una matriz escalonada por filas si se se obtienen las incógnitas:
verifican las siguientes condiciones:
⎡1 − 3 1 − 2 ⎤ ⎧X1 − 3X 2 + X 3 = −2 ⎧X1 − 3X 2 + X 3 = −2
1. ∃ r∈ℵ, 1 ≤ r ≤ n, tal que las primeras r filas de C son no nulas y ⎢ 3 7 ⎥ ⇒ ⎪⎨ X − 3 X = 7 ⇒ ⎪⎨ X − 3 (3) = 7
⎢ 0 1 −
las restantes n – r filas son nulas. 8 8⎥ 2 8 3 8 2 8 8
2. Si el pivote de la i-ésima fila de C pertenece a la columna si, ⎢0
⎣ 0 1 3 ⎥⎦ ⎪⎩ X3 = 3 ⎪
⎩ X3 = 3
i = 1, 2,… , p entonces s1 < s2 < … < sp.
3. Todos los elementos de la columna si, i = 1, 2,… , p ⎧X1 − 3X 2 + X 3 = −2 ⎧X1 − 3X 2 + X 3 = −2 ⎧X1 − 3X 2 + X 3 = −2
⎪ ⎪ ⎪
correspondientes a las filas i+1, i+2,… , n son nulos. ⎨ X2 − 9 8 = 7 8 ⇒ ⎨ X2 = 9 8 + 7 8 ⇒ ⎨ X2 = 2
⎪ X = 3 ⎪ X = 3 ⎪ X3 = 3
Observaciones: ⎩ 3 ⎩ 3 ⎩
⎧X1 − 3(2) + 3 = −2 ⎧X1 − 6 + 3 = −2 ⎧X1 = 6 − 3 − 2 ⎧ X1 = 1
1. Una matriz escalonada por filas es una matriz triangular superior. ⎪ ⎪ ⎪ ⎪
⇒⎨ X2 = 2 ⇒⎨ X2 = 2 ⇒ ⎨ X 2 = 2 ⇒ ⎨X 2 = 2
2. Sea A∈Mnxn(K). Entonces A siempre es equivalente por filas a una ⎪ ⎪ ⎪ X =3 ⎪X = 3
matriz escalonada por filas C∈Mnxn(K). Además Rango(A) = r si y ⎩ X3 = 3 ⎩ X3 = 3 ⎩ 3 ⎩ 3
sólo si la matriz C tiene r filas no nulas.
3. Sea A∈Mnxn(K), X∈Mnx1(K) e Y∈Mnx1(K). La matriz aumentada 3.6. REGLA DE CRAMER.
[A | Y] es equivalente por filas a una matriz particionada [C | Z].
Por consiguiente, los SEL AX = Y y CX = Z son equivalentes. Teorema 3.6. (Regla de Gabriel Cramer)
Ejemplo 3.10. Sean A∈Mnxn(K), X∈Kn e Y∈Kn tales que A es no singular y por consiguiente
el SEL AX = Y es consistente con una única solución. Entonces dicha
Utilizando la Eliminación de Gauss, determinemos si el SEL del ejemplo 3.4., Det (D(A) j )
es consistente: solución es X = [X1 X2 … Xn]t, siendo X j = ; ∀ j = 1, 2,... , n ,
Det (A)
⎡1
donde D(A)j es la matriz D(A)j∈Mnxn(K) que se obtiene sustituyendo la j-ésima
2 1 1⎤ r →r −2r ⎡1 2 1 1⎤ r2 →− 1 r2 ⎡1 2 1 1⎤
columna de A por la matriz columna Y.
[A | Y] = ⎢⎢2 ⎥ ⎯⎯ ⎯ ⎯1 → ⎢ ⎥ ⎢ ⎥
− 1 3 2⎥ r →r −2r ⎢0 − 5 1 0⎥ ⎯⎯⎯1⎯→ ⎢0 1 − 1 0⎥ = [C | Z]
2 2 5
⎯⎯3
⎯
3
⎯1
→ r3 →− r3 5
⎢2 4 2 4⎥⎦ ⎢0 0 0 2⎥⎦ ⎯⎯⎯⎯→ ⎢⎣0 0
2
0 1⎥⎦ Demostración
⎣ ⎣
Como se puede observar Rango(C) = 2. Por lo tanto, Zr+1 = Z2+1 = Z3 = 1. En La solución única del sistema AX = Y es X = A-1Y. En consecuencia:
consecuencia, el SEL CX = Z es inconsistente y al ser equivalente al SEL
AX = Y, éste último también es inconsistente. 1
X= Adj(A)Y
Det (A)
Ejemplo 3.11.
Ahora bien,
Utilizando la Eliminación de Gauss, determinemos si el SEL del ejemplo 3.5.,
es consistente:
⎡ A(1 1) A(2 1) L A(n 1) ⎤ ⎡ Y1 ⎤
⎢ ⎥⎢ ⎥
A(1 2) A(2 2) L A(n 2) ⎥ ⎢ Y2 ⎥
⎡1 − 3 1 − 2⎤ r →r −2r ⎡1 − 3 1 − 2⎤ ⎡1 − 3 1 −2 ⎤ Adj(A)Y = ⎢⎢
M ⎥⎢ M ⎥
1
⎢ ⎥ ⎯⎯ ⎯⎯1→⎢ ⎥ r2→8 r2 ⎢ 7 ⎥
[A| Y] = ⎢2 2 −1 3⎥ r3→r3−r1 ⎢0 8 −3 7⎥ ⎯⎯⎯
2 2
3 M M
⎯→⎢0 1 − ⎢ ⎥⎢ ⎥
⎯⎯ ⎯⎯ → 8 8⎥
⎢1 0 2 7⎥ ⎢0 3 1 9⎥ ⎢0 3 1 9 ⎥⎦ ⎣⎢A(1 n ) A(2 n ) L A(n n )⎦⎥ ⎣⎢Yn ⎦⎥
⎣ ⎦ ⎣ ⎦ ⎣
116 117
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n
Det(D(A)j) = ∑ (−1)
i =1
i+ j
(D(A) j ) ij Det (M (D(A) j )i , j ) Este SEL es consistente con una única solución. Utilizando la Regla de Cramer
determinemos la solución de dicho sistema:
Det(D(A)j) = (-1)1+j(D(A)j)1jDet(M(D(A)j)1,j)+
+…+(-1)n+j(D(A)j)njDet(M(D(A)j)n,j) ⎡1 −3 1⎤ ⎡ −2 ⎤
= (-1)1+jY1Det(M(D(A)j)1,j)+…+(-1)n+jYnDet(M(D(A)j)n,j) ⎢ ⎥ ⎢ ⎥
A = ⎢2 2 − 1 ⎥ ; Y = ⎢ 3⎥
= Y1(-1)1+jDet(M(D(A)j)1,j)+…+ Yn(-1)n+jDet(M(D(A)j)n,j)
⎢⎣1 0 2⎥⎦ ⎢⎣ 7⎥⎦
Pero Det(M(D(A)j)i,j) = Det(M(A)i,j) ∀ i = 1, 2,… , n.
⎡ −2 −3 1⎤ ⎡1 −2 1⎤ ⎡1 −3 −2 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Luego, D(A)1 = ⎢ 3 2 − 1 ⎥ ; D( A ) 2 = ⎢ 2 3 − 1 ⎥ ; D( A ) 3 = ⎢ 2 2 3⎥
⎢⎣ 7 0 2⎥⎦ ⎢⎣1 7 2⎥⎦ ⎢⎣1 0 7 ⎥⎦
Det(D(A)j) = Y1(-1)1+jDet(M(A)1,j)+…+ Yn(-1)n+jDet(M(A)n,j)
= Y1A(1|j) +… + YnA(n|j)
Se puede verificar fácilmente que:
= A(1|j)Y1 +… + A(n|j)Yn
Det(A) = 17, Det(D(A)1) = 17, Det(D(A)2) = 34 y Det(D(A)3) = 51
Por consiguiente,
Luego,
⎡ A(1 1)Y1 + A(2 1)Y2 + ... + A(n 1)Yn ⎤ ⎡ Det (D(A)1 ) ⎤
⎢ ⎥ ⎢ ⎥
A(1 2)Y1 + A(2 2)Y2 + ... + A(n 2)Yn ⎥ ⎢ Det (D(A) 2 ) ⎥ Det (D(A)1 ) 17 Det (D(A) 2 ) 34
Adj(A)Y = ⎢⎢ =
⎥ ⎢
X1 = = = 1 ; X2 = = =2;
M M ⎥ Det (A) 17 Det (A) 17
⎢ ⎥ ⎢ ⎥
⎢⎣A(1 n )Y1 + A(2 n )Y2 + ... + A(n n )Yn ⎥⎦ ⎣⎢Det (D(A) n )⎦⎥ Det (D(A) 3 ) 51
X3 = = =3
Det (A) 17
En consecuencia,
118 119
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
3.7. APLICACIÓN DE LOS SISTEMAS DE ECUACIONES LINEALES Como se puede observar Rango(C) = 3. Por lo tanto, Zr+1 = Z3+1 = Z4 no existe.
PARA LA RESOLUCIÓN DE PROBLEMAS. En consecuencia, el SEL CX = Z es consistente y al ser equivalente al SEL
AX = Y, éste último también es consistente. Esto prueba que el registro del
Ejemplo 3.13. viajero esta correcto. Haciendo sustitución hacia atrás se obtienen las
incógnitas:
Un viajero recién llegado de Europa gastó en alojamiento por día $30 en
Inglaterra, $20 en Francia y $20 en España. En comida, por día gastó $20 en ⎡1 2 2 34 ⎤ ⎧X1 + 2 X 2 + 2 X3 = 34 ⎧X + 2 X 2 + 2 X3 = 34
Inglaterra, $30 en Francia y $20 en España. Adicionalmente desembolsó $10 ⎢ 3 3 3⎥ ⎪ 3 3 3 ⎪ 1 3 3 3
⎢0 1 28 ⎥⇒ ⎪ 28 ⎪
por día en cada país por gastos varios. El registro del viajero indica que gastó 2 2
X 2 + X3 = ⇒⎨ X2 = 28 − 2 X3
⎢ 5 5⎥ ⎨ 5 5 5 5
un total de $340 en alojamiento, $320 en comida y $140 en gastos varios en su
⎢0 0 1 4 ⎥ ⎪ X3 = 4 ⎪ X3 = 4
recorrido por estos 3 países. Determine si el registro esta correcto y en caso ⎣ ⎦ ⎪⎩ ⎪⎩
afirmativo determine el número de días que el viajero permaneció en cada país. ⎧X1 + 2 X2 + 2 X3 = 34 ⎧ 2 2 34 ⎧ 2 2 34
3 3 3 ⎪X1 + 3 X2 + 3 X3 = 3 ⎪X1 + 3 (4) + 3 (4) = 3
Definamos las incógnitas: ⎪⎪ 28 2 ⎪ ⎪
⇒ ⎨ X2 = − (4) ⇒⎨ X2 = 4 ⇒⎨ X2 = 4
5 5
⎪ X3 = 4 ⎪ X3 = 4 ⎪ X3 = 4
⎪ ⎪
X1: Número de días que pasó el viajero en Inglaterra. ⎩⎪ ⎩ ⎩
X2: Número de días que pasó el viajero en Francia. ⎧X1 = 34 − 8 − 8 X =6
X3: Número de días que pasó el viajero en España. ⎪⎪ 3 3 3 ⎧⎪ 1
⇒⎨ X2 = 4 ⇒ ⎨X 2 = 4
Los datos del problema se pueden reducir en el siguiente cuadro: ⎪ X3 = 4 ⎪X = 4
⎪⎩ ⎩ 3
Gasto/País Inglaterra Francia España Total
Alojamiento 30 20 20 340 El viajero permaneció 6 días en Inglaterra, 4 días en Francia y 4 días en
Comida 20 30 20 320 España.
Varios 10 10 10 140
3.8. MODELO DE INSUMO-PRODUCTO DE LEONTIEF.
De allí se pueden extraer las siguientes ecuaciones:
Supongamos un sistema económico que tiene n industrias. Existen 2 tipos de
30X1 + 20X2 + 20X3 = 340 demandas en cada industria: Primero, una demanda externa desde afuera del
20X1 + 30X2 + 20X3 = 320 sistema y segundo, la demanda que hace una industria a otra industria en el
10X1 + 10X2 + 10X3 = 140 mismo sistema. Supongamos que Ei representa la demanda externa ejercida
sobre la i-ésima industria. Supongamos que Aij representa la demanda interna
Dando lugar al siguiente SEL: que la j-ésima industria ejerce sobre la i-ésima industria, es decir, Aij
representa el número de unidades de producción de la i-ésima industria que se
necesitan para producir una unidad de la j-esima industria. Sea Xi la
⎧30X1 + 20X 2 + 20X 3 = 340 producción de la i-ésima industria. Supongamos ahora que la producción de
⎪
⎨20X1 + 30X 2 + 20X 3 = 320 cada industria es igual a su demanda. La demanda total es igual a la suma de
⎪ 10X + 10X + 10X = 140 las demandas internas y externas. Igualando la demanda total a la producción
⎩ 1 2 3
de cada industria se obtiene el siguiente SEL:
Como la matriz de coeficientes es cuadrada (3x3) apliquemos eliminación de
Gauss: ⎧ A11X1 + A12 X 2 + ... + A1n X n + E1 = X1
⎪
⎪ A 21X1 + A 22 X 2 + ... + A 2 n X n + E 2 = X 2
⎨
⎡30 20 20 340⎤ ⎡ 1 2 2 34 ⎤ ⎡1 2 2 34 ⎤ ⎪ M
⎥ r1 →30 r1 ⎢
1 3 3 3⎥ ⎯r⎯ 2 →r2 −20r1 ⎢ 3 3 3⎥
⎢ ⎯⎯ ⎯→⎢ 50 20 280 ⎥ ⎪A n1X1 + A n 2 X 2 + ... + A nn X n + E n = X n
[A | Y] = ⎢20 30 20 320⎥ ⎯⎯⎯ ⎯→⎢20 30 20 320⎥ r →r −10r 0
3 3 3⎥
⎩
⎢10 10 10 140⎥ ⎢ ⎥ ⎯⎯
3
⎯3
⎯1 → ⎢
⎯
⎣ ⎦ ⎢⎣10 10 10 140⎥⎦ ⎢0 10 10 80 ⎥
⎣ 3 3 3⎦ Dicho sistema se puede escribir también de la siguiente forma:
⎡1 2 2 34 ⎤ ⎡1 2 2 34 ⎤ ⎡1 2 2 34 ⎤
⎢3 3 3 3⎥ r →r −10r ⎢ 3 3 3 ⎥ r →1 r ⎢ 3 3 3⎥
r2 → r2
⎢
⎯⎯⎯⎯→ 0 1
50 2 28 ⎥ 3 3
⎯⎯⎯⎯ 3
2
⎢
⎯→ 0 1 2 28 ⎥ 3
⎯⎯⎯⎯→⎢0 1 2 28 ⎥
2
3 ⎧ (1 − A11 )X1 − A12 X 2 − ... − A1n X n = E1
⎢ 5 5⎥ ⎢ 5 5⎥ ⎢ 5 5⎥ ⎪
⎢0 10 10 80 ⎥ ⎢0 0 2 8 ⎥ ⎢0 0 1 4 ⎥ ⎪ − A 21X1 + (1 − A 22 )X 2 − ... − A 2 n X n = E 2
⎣ 3 3 3⎦ ⎣ ⎦ ⎣ ⎦ ⎨
⎪ M
⎪− A n1X1 − A n 2 X 2 − ... + (1 − A nn )X n = E n
⎩
120 121
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Este modelo recibe el nombre de modelo de insumo-producto de Leontief en 1. Determine si los siguientes sistemas de ecuaciones lineales son
honor a su autor Wassily W. Leontief. consistentes. En caso afirmativo determine su solución o su conjunto de
todas las soluciones:
Ejemplo 3.14.
⎧3X1 + 2X 2 + X 4 = 0
Las demandas externas de un sistema económico con 3 industrias son 10, 25 y ⎪
20, respectivamente. Se sabe que se requieren 0,2 unidades de la primera 1.1. ⎨X1 + 2X 2 + X 3 = 1
industria para producir una unidad de dicha industria, mientras que se ⎪5X + 6X + 2X + X = 2
⎩ 1 2 3 4
requieren 0,4 unidades de la segunda industria y 0,25 unidades de la tercera
industria para producir una unidad de la primera industria. También se conoce ⎧2X1 − X 2 + 2X 3 = 1
⎪
que se requieren 0,1 unidades de la segunda industria para producir una unidad 1.2. ⎨X1 + X 2 + X 3 = 2
de dicha industria, mientras que se requieren 0,5 unidades de la primera ⎪2 X − X + X = 5
⎩ 1 2 3
industria y 0,5 unidades de la tercera industria para producir una unidad de la
segunda industria. Por último se sabe que se necesitan 0,15 unidades de la ⎧2X1 − 3X 2 + X 3 = 0
tercera industria para producir una unidad de dicha industria, mientras que se ⎪
⎪X1 + X 2 − X 3 = 0
requieren 0,15 unidades de la primera industria y 0,3 unidades de la segunda 1.3. ⎨
industria para producir una unidad de la tercera industria. Determinemos la ⎪3X1 + 4X 2 = 0
producción de cada industria de manera que la oferta sea exactamente igual a ⎪5X1 + X 2 + X 3 = 0
⎩
la demanda.
⎧X1 + X 2 − 3X 3 = −1
⎪
En este caso, n = 3, A11 = 0,2, A21 = 0,4, A31 = 0,25, A22 = 0,1, A12 = 0,5, A32 = ⎪2X1 + X 2 − 2X 3 = 1
0,5, A33 = 0,15, A13 = 0,15, A23 = 0,3. Luego, 1 – A11 = 0,8, 1 – A22 = 0,9 y 1.4. ⎨
1 – A33 = 0,85. Luego, el SEL del modelo es: ⎪X1 + X 2 + X 3 = 3
⎪X1 + 2X 2 − 3X 3 = 1
⎩
⎧ 0,8X1 − 0,5X 2 − 0,15X 3 = 10
⎪ 2. Discutir el sistema según los valores de k.
⎨ − 0,4X1 + 0,9X 2 − 0,3X 3 = 25
⎪− 0,25X − 0,5X + 0,85X = 20
⎩ 1 2 3 ⎧
⎪2X1 + kX 2 − kX 3 = 2k
⎪
Se resuelve el SEL y la solución es X1 = 110,30, X2 = 118,74 y X3 = 125,82. 2.1. ⎨2kX1 + X 2 − 2X 3 = − k
En consecuencia, la producción necesaria para que la oferta sea ⎪ 15
aproximadamente igual a la demanda es X1 = 110, X2 = 119 y X3 = 126. ⎪X1 + 3kX 2 + 2kX 3 = 16k +
⎩ 2
⎧
⎪2X1 + kX 2 + X 3 = 2k
⎪
2.2. ⎨kX1 + X 2 + 3kX 3 = 4
⎪ 11
⎪X1 + X 3 = k
⎩ 2
⎧X1 + 2X 2 − 3X 3 = 4
⎪
2.3. ⎨3X1 − X 2 + 5X 3 = 2
⎪4X + X + (k 2 − 14)X = k + 2
⎩ 1 2 3
⎧2X1 − kX 2 + X 3 = −2k + 5
⎪
2.4. ⎨X1 + X 2 − kX 3 = 1
⎪4X + X − kX = k
⎩ 1 2 3
122 123
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎧2X1 + X 2 − X 3 = 4
4. Determine si el sistema AX = Y es consistente. En caso afirmativo ⎪
determine su solución o su conjunto de todas las soluciones: 6.4. ⎨X1 + X 3 = 2
⎪− X + 5X = 1
⎩ 2 3
⎡1 1 1 1⎤
⎢ ⎥ ⎧X1 − X 4 = 7
1 5 3 3⎥ ⎪
A=⎢ ⎪2X 2 + X 3 = 2
⎢1 3 10 5⎥ 6.5. ⎨
⎢ ⎥ ⎪4X1 − X 2 = −3
⎢⎣1 3 5 15⎥⎦ ⎪3X 3 − 5X 4 = 2
⎩
⎡1 ⎤
⎢ ⎥ Encuentre las condiciones sobre a, b y c para que el SEL sea
0
4.4. Y=⎢ ⎥ inconsistente.
⎢ 2⎥
⎢ ⎥
⎣⎢0⎦⎥ 9. Suponga que las demandas externas en un sistema económico con 3
1
industrias son 10, 15 y 30, respectivamente. Suponga que a 11 = ,
5. Para cada una de las matrices del ejercicio 6 del capítulo 2, verifique para 3
cada valor de λ que el sistema de ecuaciones lineales homogéneo 1 1 1 1 1 1 1
(A–λIn)X = θnx1 tiene soluciones distintas de la solución trivial y a12 = , a13 = , a 21 = , a 22 = , a 23 = , a 31 = , a 32 = y
2 6 4 4 8 12 3
determine además el conjunto de todas las soluciones para cada valor de
λ. 1
a 33 = . Encuentre la producción de cada industria tal que la oferta sea
6
6. Resuelva los siguientes sistemas de ecuaciones lineales utilizando la igual a la demanda.
Regla de Cramer:
10. Suponga que las demandas externas en un sistema económico con 3
⎧ 2X1 + 3X 2 = −1 industrias son 10, 25 y 20, respectivamente. Suponga que a11 = 0,30 ,
6.1. ⎨
⎩− 7 X1 + 4X 2 = 47 a12 = 0,40 , a13 = 0,50 , a 21 = 0,25 , a 22 = 0,25 , a 23 = 0,20 , a 31 = 0,10 ,
124 125
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
11. En cierta región existen 3 industrias A, B y C. Cada mes la industria A 1, 4 unidades de alimento 2 y 5 unidades del alimento 3. Cada pez de la
recibe una demanda de 20 unidades de las demás regiones del país y para especie 3 consume cada semana un promedio de 2 unidades del alimento
producir cada unidad de su producto necesita 0,4 unidades del producto 1, 1 unidad del alimento 2 y 5 unidades del alimento 3. Cada semana se
de la industria B y de 0,25 unidades del producto de la industria C. De proporcionan al lago 15.000 unidades del alimento 1, 10.000 unidades
igual manera la industria B tiene una demanda de 15 unidades de las del alimento 2 y 35.000 unidades del alimento 3. Suponiendo que los 3
demás regiones y para producir cada unidad de su producto necesita 0,5 alimentos se consumen completamente, ¿qué población de cada especie
unidades del producto A y 0,3 unidades del producto C. Finalmente de se encontrará en coexistencia en el lago? ¿Existe una solución única?
las demás regiones se origina una demanda mensual de 30 unidades del Estime la población de la tercera especie.
producto de la industria C, la cual para producir una unidad necesita 0,15
unidades del producto de A y de 0,7 unidades del producto de B. 16. En la caja de cierto banco hay cheques de Bs. 25.000, Bs. 50.000, Bs.
Suponiendo que para cada industria hay equilibrio entre la producción y 100.000 y Bs. 500.000. Todos los cheques suman en total Bs.
la demanda, determinar las cantidades producidas mensualmente por 61.050.000. La cantidad de cheques de Bs. 25.000 es tres veces la
cada industria de la región considerada. cantidad de cheques de Bs. 500.000. Dos veces el número de cheques de
Bs. 500.000 es la cantidad de cheques de Bs. 50.000. Por último se sabe
12. Un inversionista le afirma a un corredor de bolsa que todas sus acciones que la cantidad de cheques de Bs. 25.000 es el doble de la cantidad de
son de 3 empresas A, B y C y que hace 2 días el precio de sus acciones cheques de Bs. 100.000. Determine el número de cheques de cada monto
bajó en $350 pero que subió $600 el día de ayer. El corredor recuerda que hay en la caja del banco.
que hace 2 días el precio por acción de la empresa A bajó $1, que el de la
empresa B bajó $1,5 pero que el precio de la empresa C subió $0,5. 17. Un granjero desea determinar la selección de ganado para su granja.
También recordó el corredor que el día de ayer los precios por acción de Puede comprar ovejas, reses o cabras. Cada oveja cuesta $20 y necesita 1
las 3 empresas se comportaron de la siguiente manera: subió el de la acre de pastura y $15 de alimentación y tratamiento. Para las reses estos
empresa A en $1,5, el de la empresa B bajó en $0,5 y el de la empresa C valores son: $40, 4 acres y $30. Para las cabras estos valores son: $10,
subió en $1. Demuestre que el corredor no posee información suficiente 0,5 acres y $5. La granja tiene 350 acres de pastura y el granjero dispone
para calcular el número de acciones del inversionista. Si el inversionista de $7.500 Por último el granjero ha fijado un límite inferior al número de
dice que tiene 200 acciones de la empresa C, determine cuántas acciones animales que desea adquirir; este límite inferior es de 20 para las ovejas,
tiene de las otras 2 empresas. 45 para las reses y 100 para las cabras. Determine el número de animales
que debe criar el granjero para utilizar completamente sus recursos.
13. Una pequeña constructora ofrece 3 tipos de casas. El primer tipo requiere
3 unidades de concreto, 2 unidades de cerámica y 5 unidades de madera. 18. Se va a demoler un barrio de 15 acres y el gobierno municipal debe
Los tipos segundo y tercero requieren 2, 3, 5 y 4, 2, 6 unidades de decidir sobre un plan de desarrollo habitacional. Dispone de $4.020.000 y
concreto, cerámica y madera, respectivamente. Cada mes la compañía considera 3 tipos de viviendas: tipo A, B y C. Se pueden construir por
dispone de 150 unidades de concreto, 100 unidades de cerámica y 250 acre 20 viviendas de tipo A ó 15 de tipo B ó 12 de tipo C. Los costos de
unidades de madera. ¿Cuántas casas de cada tipo podrá construir construcción son de $12.000 para una vivienda de tipo A, $18.000 para
mensualmente si usa todos los materiales de que dispone? ¿Existe una una vivienda de tipo B y $21.000 para una vivienda de tipo C. Se estima
solución única? Determine el número de casas de tipo 1 y de tipo 2 que que el mercado potencial combinado es de 225 viviendas. ¿Cuántas
se pueden construir mensualmente si usa todos los materiales de que viviendas de cada tipo se deberán construir para utilizar todos los
dispone y construye 5 casas de tipo 3. recursos y satisfacer la demanda?
14. Una empresa compra café en granos a cooperativas agrícolas, lo procesa 19. Un joyero tiene 4 láminas de plata para fabricar 3 tipos de dijes. Con una
y lo vende. Utiliza dos tipos de granos: tipo A y tipo B. En el proceso de lámina de plata puede obtener 20 dijes de tipo 1 ó 15 de tipo 2 ó 25 de
torrefacción y molienda se pierde el 5% del café de tipo A y el 7% del tipo 3. Los dijes de tipo 1 llevan una piedra azul, los de tipo 3 una piedra
tipo B. Luego, se mezclan los granos molidos para producir el café verde y los de tipo 2 pueden llevar una piedra azul o una piedra verde. El
superior que contiene 30% de granos de tipo A y 70% de granos de tipo joyero dispone de 40 piedras azules y 20 piedras verdes. Para elaborar un
B y el café familiar con un contenido de 60% de granos de tipo A y 40% dije de tipo 1 el joyero necesita 15 minutos, para fabricar un dije de tipo
de granos de tipo B. Actualmente la empresa tiene en existencia 1,2 2 necesita media hora y elaborar un dije de tipo 3 le toma 6 minutos. El
toneladas de granos de tipo A y 1,75 toneladas de granos de tipo B. joyero tiene 30 horas disponibles. Determinar el número de dijes de cada
¿Cuántos kilogramos de café superior y de café familiar puede producir tipo que puede elaborar el joyero si quiere utilizar toda su materia prima
la empresa para utilizar toda su existencia? así como todas las horas de trabajo disponibles.
15. Un departamento de caza y pesca estatal suministra tres tipos de 20. Maira y María están confrontadas. Maira alega haber estado más tiempo
alimentos a un lago que mantiene a tres especies de peces. Cada pez de la en Estados Unidos que María en sus vacaciones del invierno pasado.
especie 1 consume cada semana un promedio de 1 unidad del alimento 1, Ambas llegaron a ese país el mismo día, María a Chicago y Maira a
1 unidad del alimento 2 y 2 unidades del alimento 3. Cada pez de la Boston. En su viaje Maira gastó $1.590 en comida, $4.600 en compras y
especie 2 consume cada semana un promedio de 3 unidades del alimento $1.190 en gastos varios. No gastó nada en alojamiento porque llegó a la
126 127
CAPÍTULO 3: SISTEMAS DE ECUACIONES LINEALES
casa de un amigo en cada ciudad que visitó. Por su parte María gastó
$4.260 en alojamiento, $1.360 en gastos varios, $1.370 en comida y
$2.900 en compras. Se sabe que en Chicago María gastó $100 por día en
comida, $300 por día en alojamiento, $150 por día en compras y $100
por día en gastos varios. En New York, en comida María gastó $75 por
día y Maira $120 por día, en compras María $200 por día y Maira $300
por día, en gastos varios María $150 por día y Maira $100 por día y en
alojamiento María $250 por día. En Boston, en comida María gastó $90
por día y Maira $110 por día, en compras María $50 por día y Maira
$400 por día, en gastos varios María $20 por día y Maira $50 por día y en
alojamiento María $320 por día. En Miami, María gastó en comida $100
por día, en compras $300 por día, en gastos varios $80 por día y en
alojamiento $280 por día. Por último, Maira gastó en Philadelphia en
comida $80 por día, en compras $200 por día y en gastos varios $85 por
día. ¿Quién tiene la razón, Maira o María?
128
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
130
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ X1 ⎤ ⎡0 ⎤ ⎡ cX1 ⎤ ⎡ cY1 ⎤ ⎡ X1 ⎤ ⎡ Y1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X 0 cX cY X Y
3. Si α = ⎢ 2 ⎥ tal que α∈V entonces ∃ θ ∈ V; θ = ⎢ ⎥ , tal que: = ⎢ 2 ⎥ + ⎢ 2 ⎥ = c• ⎢ 2 ⎥ + c• ⎢ 2 ⎥ = c•α + c•β
⎢ M ⎥ ⎢M⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣X n ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣cX n ⎥⎦ ⎢⎣cYn ⎥⎦ ⎢⎣X n ⎥⎦ ⎢⎣Yn ⎥⎦
⎡ X1 ⎤ ⎡0⎤ ⎡ X1 ⎤ ⎡ X1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X 0 X X
α +θ = ⎢ 2⎥ + ⎢ ⎥ = ⎢ 2⎥ = α 7. Si α = ⎢ 2 ⎥ tal que α∈V y c, d∈ℜ entonces:
⎢ M ⎥ ⎢M⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣X n ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣X n ⎥⎦ ⎢⎣X n ⎥⎦
⎡ X1 ⎤ ⎡ − X1 ⎤ ⎡ X1 ⎤ ⎡ (c + d )X1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X − X2 ⎥ X (c + d ) X 2 ⎥
4. Si α = ⎢ 2 ⎥ tal que α∈V entonces ∃ (-α) ∈ V; (−α) = ⎢ , tal (c + d ) • α = (c + d ) • ⎢ 2 ⎥ = ⎢ )
⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣X n ⎥⎦ ⎢⎣− X n ⎥⎦ ⎢⎣X n ⎥⎦ ⎢⎣(c + d )X n ⎥⎦
que: ⎡ cX 1 + dX 1 ⎤ ⎡ cX 1 ⎤ ⎡ dX 1 ⎤
⎡ X1 ⎤ ⎡ − X1 ⎤ ⎡ X1 + (−X1 ) ⎤ ⎡ X1 − X1 ⎤ ⎡0⎤ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
cX + dX 2 ⎥ ⎢cX 2 ⎥ ⎢dX 2 ⎥
⎢ ⎥ ⎢
X
⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
− X 2 ⎥ ⎢ X 2 + ( − X 2 ) ⎥ ⎢ X 2 − X 2 ⎥ ⎢0 ⎥ =⎢ 2 = +
⎢ ⎥ ⎢ M ⎥ ⎢ M ⎥
α + ( −α ) = ⎢ 2 ⎥ + ⎢ = = = =θ ⎢
M
⎥ ⎢ ⎥ ⎢ ⎥
⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢⎣cX n + dX n ⎥⎦ ⎢⎣cX n ⎥⎦ ⎢⎣dX n ⎥⎦
⎣⎢X n ⎦⎥ ⎣⎢− X n ⎦⎥ ⎣⎢X n + (−X n )⎦⎥ ⎣⎢X n − X n ⎦⎥ ⎣⎢0⎦⎥
⎡ X1 ⎤
⎢ ⎥ ⎡ X1 ⎤ ⎡ X1 ⎤
X
5. Si α = ⎢ 2 ⎥ tal que α∈V entonces: ⎢ ⎥
X
⎢ ⎥
X
⎢ M ⎥
⎢ ⎥ = c• ⎢ ⎥ + d • ⎢ 2 ⎥ = c• α + d •β
2
⎢ M ⎥ ⎢ M ⎥
⎣⎢X n ⎦⎥ ⎢ ⎥ ⎢ ⎥
⎣⎢X n ⎦⎥ ⎣⎢X n ⎦⎥
⎡ X1 ⎤ ⎡1.X1 ⎤ ⎡ X1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎡ X1 ⎤
X 1.X X
1•α = 1 • ⎢ 2 ⎥ = ⎢ 2 ⎥ = ⎢ 2 ⎥ = α . ⎢ ⎥
X
⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 8. Si α = ⎢ 2 ⎥ tal que α∈V y c, d∈ℜ entonces:
⎢ M ⎥
⎣⎢X n ⎦⎥ ⎣⎢1.X n ⎦⎥ ⎣⎢X n ⎦⎥ ⎢ ⎥
⎣⎢X n ⎦⎥
⎡ X1 ⎤ ⎡ Y1 ⎤
⎢ ⎥ ⎢ ⎥ ⎡ X1 ⎤ ⎡ (cd)X1 ⎤ ⎡ dX1 ⎤ ⎡ X1 ⎤
X Y
6. Si α = ⎢ 2 ⎥ , β = ⎢ 2 ⎥ tales que α, β∈V y c∈ℜ entonces: ⎢ ⎥ ⎢
X ( cd ) X
⎥ ⎢
dX
⎥ ⎢ ⎥
⎢ M ⎥ ⎢ M ⎥
(cd) • α = (cd ) • ⎢ ⎥ = ⎢
2 2 ⎥ = c•⎢ 2 ⎥ = c • (d • ⎢ X 2 ⎥ ) = c • (d • α )
⎢ ⎥ ⎢ ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎣⎢X n ⎦⎥ ⎣⎢Yn ⎦⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣⎢X n ⎦⎥ ⎣⎢(cd)X n ⎦⎥ ⎣⎢dX n ⎦⎥ ⎣⎢X n ⎦⎥
⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡ X1 + Y1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X Y X + Y2 ⎥
c • (α + β) = c • ( ⎢ 2 ⎥ + ⎢ 2 ⎥ ) = c • ( ⎢ 2 ) Luego, V es un espacio vectorial.
⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Observación:
⎣⎢X n ⎦⎥ ⎣⎢Yn ⎦⎥ ⎣⎢X n + Yn ⎦⎥
⎡ c(X1 + Y1 ) ⎤ ⎡ cX1 + cY1 ⎤ Las operaciones de adición y multiplicación por escalares de ℜn del ejemplo
⎢ ⎥ ⎢ ⎥ anterior son las operaciones usuales. De ahora en adelante, cada vez que se
c(X 2 + Y2 ) ⎥ ⎢ cX 2 + cY2 ⎥
=⎢ = mencione a ℜn como espacio vectorial se supondrá que es con las operaciones
⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ de adición y multiplicación por escalares usuales, salvo que se mencione lo
⎣⎢ c ( X n + Y )
n ⎦ cX
⎥ ⎣⎢ n + cYn⎦⎥ contrario.
131 132
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
= an xn + an−1xn−1 + ...+ a0 + bn xn + bn−1xn−1 + ...+ b0 + cn xn + cn−1xn−1 + ...+ c0 Sea V = {5}. En V no está definida la operación de adición ya que
n n−1 n n−1 n n−1 5+5 = 10∉V. Luego, V no es un espacio vectorial.
= (an x + an−1x +...+ a0 + bn x + bn−1x +...+ b0 ) + cn x + cn−1x +...+ c0
= (α + β) + δ Ejemplo 4.5.
3. Si α = a n x n + a n −1 x n −1 + ... + a 0 tal que α∈V entonces ∃ θ ∈ V;
Sea V el conjunto de matrices en M2x2(ℜ) con la suma y multiplicación por
θ = 0x n + 0x n −1 + ... + 0 = 0, tal que: escalares definidas por:
α + θ = (a n x n + a n −1x n −1 + ... + a 0 ) + 0 = a n x n + a n −1x n −1 + ... + a 0 = α
⎡ X1 X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ X1 + Y1 + 1 X 2 + Y2 + 1⎤
4. Si α = a n x n + a n −1x n −1 + ... + a 0 tal que α∈V entonces ∃ (-α) ∈ V; ⎢ ⎥ + ⎢ ⎥ = ⎢ ⎥ y
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ ⎣X 3 + Y3 + 1 X 4 + Y4 + 1⎦
(−α) = −a n x n − a n −1x n −1 − ... − a 0 , tal que:
⎡X X2 ⎤ ⎡ c + cX1 − 1 c + cX 2 − 1⎤
c•⎢ 1 ⎥ = ⎢ ⎥
α + (−α) = a n x n + a n −1x n −1 + ... + a 0 + (−a n x n − a n −1x n −1 − ... − a 0 )
⎣X 3 X4 ⎦ ⎣c + cX 3 − 1 c + cX 4 − 1⎦
133 134
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ X + Y1 + 1 X 2 + Y2 + 1⎤ ⎡ −1 −1⎤
V es un espacio vectorial ya que definiendo α = ⎢ 1 ⎥,β= ⎢ ⎥ y ⇒ ⎢ 1 ⎥ = ⎢ ⎥
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ X
⎣ 3 + Y3 + 1 X 4 + Y4 + 1⎦ ⎣− 1 − 1⎦
⎡Z Z2 ⎤ ⎧ X1 + Y1 + 1 = −1 ⎧ Y1 = −X1 − 2
δ= ⎢ 1 ⎥ se verifican las siguientes propiedades: ⎪ ⎪
⎣ Z3 Z4 ⎦ ⎪ X + Y + 1 = − 1 ⎪Y = − X 2 − 2
⇒ ⎨ 2 2
⇒ ⎨ 2
X
⎪ 3 + Y3 + 1 = −1 ⎪ Y3 = −X 3 − 2
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ X1 + Y1 + 1 X 2 + Y2 + 1⎤ ⎪X 4 + Y4 + 1 = −1 ⎪Y4 = −X 4 − 2
⎩ ⎩
1. α+β= ⎢ 1 ⎥ + ⎢ ⎥ = ⎢ ⎥
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ ⎣X 3 + Y3 + 1 X 4 + Y4 + 1⎦ ⎡ −X − 2 −X 2 − 2 ⎤ ⎡ − X1 − 1 − 1 − X 2 − 1 − 1⎤
⇒ (-α) = ⎢ 1 ⎥ = ⎢ ⎥
⎡ Y + X1 + 1 Y2 + X 2 + 1⎤ ⎡ Y1 Y2 ⎤ ⎡ X1 X2 ⎤ ⎣ − X 3 − 2 − X 4 − 2 ⎦ ⎣− X 3 − 1 − 1 − X 4 − 1 − 1⎦
= ⎢ 1 ⎥= ⎢ ⎥ + ⎢ ⎥ = β + α.
⎣Y3 + X 3 + 1 Y4 + X 4 + 1⎦ ⎣Y3 Y4 ⎦ ⎣X 3 X4 ⎦ ⎡ −1 − X1 − 1 −1 − X 2 − 1⎤ ⎡ X1 X2 ⎤
= ⎢ ⎥ = (-1)• ⎢ ⎥
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ Z1 Z2 ⎤ ⎣ − 1 − X 3 − 1 − 1 − X 4 − 1⎦ ⎣X 3 X4 ⎦
2. α + (β + δ) = ⎢ 1 ⎥ +( ⎢ ⎥ + ⎢ ⎥)
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ ⎣ Z3 Z4 ⎦ ⎡X X2 ⎤ ⎡1 + X1 − 1 1 + X 2 − 1⎤ ⎡ X1 X2 ⎤
5. (1)•α = (1)• ⎢ 1 ⎥= ⎢ ⎥ = ⎢ ⎥ =α
⎣X 3 X4 ⎦ ⎣1 + X 3 − 1 1 + X 4 − 1⎦ ⎣X 3 X4 ⎦
⎡X X2 ⎤ ⎡ Y1 + Z1 + 1 Y2 + Z 2 + 1⎤
= ⎢ 1 ⎥ + ⎢ ⎥ ⎡X X2 ⎤ ⎡ Y1 Y2 ⎤
⎣X 3 X4 ⎦ ⎣Y3 + Z3 + 1 Y4 + Z 4 + 1⎦ 6. c•(α + β) = c•( ⎢ 1 ⎥ + ⎢ ⎥)
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦
⎡ X + (Y1 + Z1 + 1) + 1 X 2 + (Y2 + Z 2 + 1) + 1⎤
= ⎢ 1 ⎥ ⎡ X + Y1 + 1 X 2 + Y2 + 1⎤
⎣X 3 + (Y3 + Z3 + 1) + 1 X 4 + (Y4 + Z 4 + 1) + 1⎦ = c• ⎢ 1 ⎥
⎣X 3 + Y3 + 1 X 4 + Y4 + 1⎦
⎡ X + Y1 + Z1 + 1 + 1 X 2 + Y2 + Z 2 + 1 + 1⎤
= ⎢ 1 ⎥ ⎡ c + c(X1 + Y1 + 1) − 1 c + c(X 2 + Y2 + 1) − 1⎤
⎣X 3 + Y3 + Z3 + 1 + 1 X 4 + Y4 + Z 4 + 1 + 1⎦ = ⎢ ⎥
⎣c + c(X 3 + Y3 + 1) − 1 c + c(X 4 + Y4 + 1) − 1⎦
⎡ (X + Y1 + 1) + Z1 + 1 (X 2 + Y2 + 1) + Z 2 + 1⎤
= ⎢ 1 ⎥ ⎡ c + cX1 + cY1 + c − 1 c + cX 2 + cY2 + c − 1⎤
⎣(X 3 + Y3 + 1) + Z3 + 1 (X 4 + Y4 + 1) + Z 4 + 1⎦ = ⎢ ⎥
⎣c + cX 3 + cY3 + c − 1 c + cX 4 + cY4 + c − 1⎦
⎡ X + Y1 + 1 X 2 + Y2 + 1⎤ ⎡ Z1 Z2 ⎤
= ⎢ 1 ⎥ + ⎢ ⎥ ⎡ c + cX1 + cY1 + c − 1 + 1 − 1 c + cX 2 + cY2 + c − 1 + 1 − 1⎤
⎣X 3 + Y3 + 1 X 4 + Y4 + 1⎦ ⎣ Z3 Z4 ⎦ = ⎢ ⎥
⎣c + cX 3 + cY3 + c − 1 + 1 − 1 c + cX 4 + cY4 + c − 1 + 1 − 1⎦
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ Z1 Z2 ⎤
=(⎢ 1 ⎥ + ⎢ ⎥)+ ⎢ ⎥ = (α + β) + δ ⎡ (c + cX1 − 1) + (c + cY1 − 1) + 1 (c + cX 2 − 1) + (c + cY2 − 1) + 1⎤
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ ⎣ Z3 Z4 ⎦ = ⎢ ⎥
⎣(c + cX 3 − 1) + (c + cY3 − 1) + 1 (c + cX 4 − 1) + (c + cY4 − 1) + 1⎦
⎡X X2 ⎤ ⎡ θ1 θ2 ⎤ ⎡ X1 X2 ⎤
3. α+θ=α⇒ ⎢ 1 ⎥ + ⎢ ⎥ = ⎢ ⎥ ⎡ c + cX1 − 1 c + cX 2 − 1⎤ ⎡ c + cY1 − 1 c + cY2 − 1⎤
⎣X 3 X4 ⎦ ⎣θ 3 θ4 ⎦ ⎣X 3 X4 ⎦ = ⎢
+ − + −
⎥ + ⎢ ⎥
⎣ c cX 3 1 c cX 4 1⎦ ⎣c + cY3 − 1 c + cY4 − 1⎦
⎡ X + θ + 1 X 2 + θ 2 + 1⎤ ⎡ X1 X2 ⎤
⇒ ⎢ 1 1 ⎥ = ⎢ ⎥ ⎡X X2 ⎤ ⎡ Y1 Y2 ⎤
⎣X 3 + θ3 + 1 X 4 + θ 4 + 1⎦ ⎣X 3 X4 ⎦ = c• ⎢ 1 ⎥ + c• ⎢ ⎥ = c•α + c•β
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦
⎧ X1 + θ1 + 1 = X1 ⎧ θ1 + 1 = 0 ⎧ θ1 = −1
⎪ ⎪ ⎪ ⎡X X2 ⎤
⎪X 2 + θ 2 + 1 = X 2 ⎪θ2 + 1 = 0 ⎪θ = −1 7. (c+d)•α = (c+d)• ⎢ 1 ⎥
⇒ ⎨ ⇒ ⎨ ⇒ ⎨ 2 ⎣X 3 X4 ⎦
⎪ X 3 + θ3 + 1 = X 3 ⎪ θ3 + 1 = 0 ⎪θ3 = −1
⎪X 4 + θ 4 + 1 = X 4 ⎪θ4 + 1 = 0 ⎪θ 4 = −1 ⎡ c + d + (c + d )X1 − 1 c + d + (c + d )X 2 − 1⎤
⎩ ⎩ ⎩ = ⎢ ⎥
⎡ −1 −1⎤ ⎣c + d + (c + d )X 3 − 1 c + d + (c + d )X 4 − 1⎦
⇒ θ=⎢ ⎥
⎣− 1 − 1⎦ ⎡ c + d + cX1 + dX1 − 1 c + d + cX 2 + dX 2 − 1⎤
= ⎢ ⎥
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ ⎡ −1 −1⎤ ⎣c + d + cX 3 + dX 3 − 1 c + d + cX 4 + dX 4 − 1⎦
4. α + (-α) = θ ⇒ ⎢ 1 ⎥ + ⎢ ⎥ = ⎢ ⎥
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ ⎣− 1 − 1⎦
135 136
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
137 138
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
1. W es estable respecto a la adición, es decir, ∀ α, β ∈ W se cumple 1. Sean K un cuerpo y V un espacio vectorial sobre K. Para demostrar
que (α + β) ∈ W. que un subconjunto no vacío W de V es un subespacio de V basta
2. W es estable respecto a la multiplicación por escalares, es decir, ∀ con demostrar que:
α ∈ W, c ∈ K se cumple que (c•α) ∈ W.
1. θ ∈ W.
2. ∀ α, β ∈ W, c ∈ K se cumple que (c•α + β)∈W.
Teorema 4.2.
2. Sean K un cuerpo y V un espacio vectorial sobre K. Los conjuntos
Sean K un cuerpo y V un espacio vectorial sobre K. Si W es un subespacio de V y {θ} son subespacios de V denominados los subespacios
V entonces W es un espacio vectorial sobre K con las operaciones de adición y triviales de V. Los subespacios distintos a V y {θ} se denominan
multiplicación por escalares inducidas sobre W. subespacios propios.
139 140
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
c • α + β = c • (a m x m + a m −1x m −1 + ... + a 0 ) + (b m x m + b m −1x m −1 + ... + b 0 ) α + β ∈ W2. Por consiguiente, α + β ∈ W1 ∩ W2. Igualmente ∃ c ∈ K tal que
m m −1 m m −1
c•α ∈ W1 y tal que c•α ∈ W2. Por consiguiente c•α ∈ W1 ∩ W2. En
= ca m x + ca m−1x + ... + ca 0 + b m x + b m −1x + ... + b 0 consecuencia, W1 ∩ W2 es un subespacio de V.
m m −1
= (ca m + b m ) x + (ca m −1 + b m −1 ) x + ... + (ca 0 + b 0 ) ∈ W
Teorema 4.5.
ya que la suma y el producto de números reales es un número real. Sean K un cuerpo y V un espacio vectorial sobre K. Si W1 y W2 son
subespacios de V entonces W1 ∪ W2 es un subespacio de V si y sólo si
W es un subespacio propio de V = Pn.
W1 ⊆ W2 o W2 ⊆ W1.
Ejemplo 4.8. Demostración
En el ejemplo 4.1., si fijamos n = 1 se obtiene que V = ℜ es un espacio
CN(⇒): Sean K un cuerpo y V un espacio vectorial sobre K y W1 y W2
vectorial. Sea W = {3}. W no es un subespacio vectorial de V=ℜ ya que subespacios de V. Si W1 ∪ W2 es un subespacio de V entonces W1 ⊆ W2 o
0∉W. En general, V = ℜ no tiene subespacios propios.
W2 ⊆ W1.
Ejemplo 4.9.
Si W1 y W2 son subespacios de V y W1 ∪ W2 es un subespacio de V entonces
W1 ∩ W2 ≠ ∅. Utilicemos reducción al absurdo. Supongamos que no se
En el ejemplo 4.5., sea W el conjunto de matrices simétricas en M2x2(ℜ). W es
cumple que W1 ⊆ W2 o W2 ⊆ W1, es decir, W1 ⊄ W2 y W2 ⊄ W1. Esto
un subespacio de V ya que:
significa que W1 ∩ W2 = ∅, lo cual es una contradicción.
⎡ −1 −1⎤ ⎡ −1 −1⎤
1. θ=⎢ ⎥ ∈W ya que θ = ⎢ ⎥ es una matriz simétrica. CS(⇐): Sean K un cuerpo y V un espacio vectorial sobre K y W1 y W2
⎣− 1 − 1⎦ ⎣− 1 − 1⎦ subespacios de V. Si W1 ⊆ W2 o W2 ⊆ W1 entonces W1 ∪ W2 es un subespacio
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ de V.
2. Si α = ⎢ 1 ⎥,β= ⎢ ⎥ y c∈ℜ y α, β∈W entonces:
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦ Si W1 ⊆ W2 o W2 ⊆ W1 entonces W1 ∪ W2 = W1 o W1 ∪ W2 = W2. Luego,
⎡X X2 ⎤ ⎡ Y1 Y2 ⎤ como W1 y W2 son subespacios de V entonces W1 ∪ W2 es un subespacio de
c•α + β = c• ⎢ 1 ⎥ + ⎢ ⎥ V.
⎣X 3 X4 ⎦ ⎣Y3 Y4 ⎦
Teorema 4.4.
Demostración
Figura 4.1.
Como W1 y W2 contienen a θ entonces W1 ∩ W2 ≠ ∅. Sean α, β ∈ W1 ∩ W2.
Luego, como W1 y W2 son subespacios de V entonces α + β ∈ W1 y
141 142
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Observación: Demostración
αi ∈ S, i = 1, 2, …, n, dj ∈ K, βj ∈ S, j = 1, 2, …, m.
Definición 4.5.
En consecuencia,
Sean K un cuerpo y V un espacio vectorial sobre K. Sea S un subconjunto de
V. Se define como subespacio generado por S y se denota por [S] al conjunto: n m n m
(c•α + β) = (c• ∑c i • αi + ∑d j • βj ) = ( ∑ (cc ) • α i i + ∑d j • β j ) ∈ W.
[S] = I W i =1 j=1 i =1 j=1
W∈F (S)
Esto significa que W es un subespacio de V tal que S ⊆ W y por consiguiente
Observaciones: [S] ⊆ W (2).
1. [S] es el menor subespacio o subespacio más pequeño que contiene Finalmente, por (1) y (2) se deduce que W = [S].
a S, es decir, verifica las siguientes condiciones:
1.1. S ⊆ [S] Ejemplo 4.11.
1.2. Si U es un subespacio de V tal que S ⊆ U entonces
[S] ⊆ U. ⎡ 1⎤ ⎡ 2⎤
⎢ ⎥ ⎢ ⎥
2. [∅] = {θ}. Sean V = ℜ3 y S = { α1 = ⎢ 0⎥ , α 2 = ⎢3⎥ }. Determinemos explícitamente
⎢⎣ − 1 ⎥⎦ ⎢⎣5⎥⎦
Teorema 4.6.
[S].
Sean K un cuerpo y V un espacio vectorial sobre K. Si S es un subconjunto no
vacío de V entonces [S] es el conjunto formado por todas las combinaciones ⎡a ⎤
finitas de elementos de S, es decir, α ∈ [S] si y sólo si existen n ∈ ℵ*, vectores ⎢ ⎥
α = ⎢b⎥ ∈ [S] si y sólo si existen escalares c1, c2 ∈ ℜ tales que:
α1, α2, …, αn ∈ S y escalares c1, c2, …, cn ∈ K tales que: ⎢⎣ c ⎥⎦
n α = c1•α1 + c2•α2
α= ∑c • α
i =1
i i
Luego,
143 144
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡a ⎤ ⎡ 1⎤ ⎡ 2⎤ ⎡ c1 ⎤ ⎡ 2c 2 ⎤ ⎡ c1 + 2c 2 ⎤ Demostración
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥b = c1 • ⎢ ⎥ 0 + c2 • 3
⎢ ⎥ = ⎢ 0 ⎥ + 3c
⎢ 2⎥ = ⎢ 3c 2 ⎥ 1. Por el teorema anterior [S2] es el conjunto formado por todas las
⎢⎣ c ⎥⎦ ⎢⎣ −1⎥⎦ ⎢⎣5⎥⎦ ⎢⎣− c1 ⎥⎦ ⎢⎣5c 2 ⎥⎦ ⎢⎣− c1 + 5c 2 ⎥⎦ combinaciones finitas de elementos de S2, es decir, β ∈ [S2] si y
sólo si existen n ∈ ℵ*, vectores β1, β2, …, βn ∈ S2 y escalares c1,
Esto es equivalente a resolver el sistema de ecuaciones lineales: c2, …, cn ∈ K tales que:
n
⎡ 1 2 a⎤ ⎡1 2 a ⎤
⎧ c1 + 2c 2 = a
⎪ ⎢ ⎥ ⎢ ⎥
β= ∑c • β i i
⎨ 3c 2 = b ⎢ 0 3 b ⎥3r → r3 + r1 ⎢0 3 b ⎥ i =1
⎪− c + 5c = c ⎢− 1 5 c ⎥ ⎢0 7 a + c ⎥
⎩ 1 2 ⎣ ⎦ ⎣ ⎦ A su vez, [S1] es el conjunto formado por todas las combinaciones
⎡ 3a − 2b ⎤ finitas de elementos de S1. Luego, como S1 ⊆ S2 entonces δ ∈ [S1]
⎡1 2 a ⎤ ⎢ 3 ⎥ si y sólo si δ se puede expresar como combinación lineal de los
⎢1 0 ⎥
1 ⎢ b ⎥ r1 → r1 − 2r2 ⎢ b ⎥
vectores β1, β2, …, βm ∈ S2, m < n, es decir,
r2 → r2 ⎢0 1 ⎥ r → r − 7r 0 1
3 ⎢ 3 ⎥ 3 3 2⎢ 3 ⎥
0 7a+c ⎢0 0 3a + 3c − 7 b ⎥ m
⎣ ⎦
⎢
⎣ 3
⎥
⎦
δ= ∑c
i =1
i • βi
3a + 3c − 7b
Este sistema es consistente si y sólo si = 0, es decir,
3 Y además se cumple que:
3a + 3c – 7b = 0. Luego,
m n n
⎡a ⎤
δ= ∑c
i =1
i • βi + ∑0 • β = ∑c
i = m +1
i
i =1
i • βi ; con cm+1 = cm+2 = … = cn = 0
⎢ ⎥ Por consiguiente, δ ∈ [S2] y se cumple que [S1] ⊆ [S2].
[S] = { ⎢b⎥ ∈ ℜ3: 3a + 3c – 7b = 0}
⎢⎣ c ⎥⎦
2. S1 – {α} ⊆ S1. Luego, por el apartado anterior [S1 – {α}] ⊆ [S1]
(3). Por hipótesis α ∈ S1 y α ∈ [S1 – {α}]. Luego, α ∈ [S1]. Por lo
3a + 3c – 7b = 0 ⇒ 3a = 7b – 3c ⇒ a = 7 b − c tanto, [S1] ⊆ [S1 – {α}] (4). Por (3) y (4) se cumple que [S1] = [S1
3
– {α}].
Luego,
4.5. INDEPENDENCIA Y DEPENDENCIA LINEAL.
⎡a ⎤ ⎡ 7 3 b − c⎤ ⎡7 ⎤ ⎡− 1⎤
⎢ ⎥ ⎢ ⎥ ⎢ 3⎥ ⎢ ⎥
⎢ ⎥b = ⎢ b ⎥ = b • ⎢ 1 ⎥ + c • ⎢0⎥
Definición 4.6.
⎢ ⎥ ⎢ ⎥
⎣⎢ c ⎦⎥ ⎣⎢ c ⎦⎥ 0
⎣⎢ ⎦⎥ ⎣⎢ 1 ⎦⎥ Sean K un cuerpo y V un espacio vectorial sobre K. Sea S un subconjunto de
V. Se dice que S es linealmente dependiente (L.D.) si existe un subconjunto
De manera que [S] también se puede escribir como: finito {α1, α2, …, αn} de S formado por vectores distintos y escalares c1, c2, …,
cn ∈ K no todos iguales a cero tales que:
⎡a ⎤ ⎡a ⎤ ⎡7 ⎤ ⎡− 1⎤
⎢ ⎥ ⎢ ⎥ ⎢ 3⎥ ⎢ ⎥
n
[S] = { ⎢b⎥ ∈ ℜ3: ⎢ ⎥b = b • ⎢ 1 ⎥ + c • ⎢ 0 ⎥ ; b, c∈ℜ} ∑c i • αi = θ
⎢⎣ c ⎥⎦ ⎢⎣ c ⎥⎦ ⎢0⎥ ⎢⎣ 1 ⎥⎦ i =1
⎣⎢ ⎦⎥
La igualdad anterior se dice que es una relación lineal entre los vectores α1, α2,
Teorema 4.7. …, αn. En este caso se dice también que los vectores α1, α2, …, αn son
linealmente dependientes (L.D.).
Sean K un cuerpo y V un espacio vectorial sobre K. Sean S1 y S2 subconjuntos
de V y α ∈ S1. Se dice que S es linealmente independiente (L.I.) si S no es L.D. En este caso
se dice también que los vectores α1, α2, …, αn son linealmente independientes
1. Si S1 ⊆ S2 entonces [S1] ⊆ [S2]. (L.I.).
2. Si α ∈ [S1 – {α}] entonces [S1] = [S1 – {α}]
145 146
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡1⎤ ⎡ 2⎤ ⎡0⎤ ⎡ c ⎤ ⎡ 2d ⎤ ⎡0⎤ ⎡ c + 2d ⎤ ⎡0⎤ a•p1 + b•p2 + c•p3 = 0 ⇒ a.1+ b.x + c.x2 = 0 ⇒ a + bx + cx2 = 0 ⇒ a = b = c =
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
c • α + d • β = θ ⇒ c • ⎢2⎥ + d • ⎢ 5⎥ = ⎢0⎥ ⇒ ⎢2c⎥ + ⎢ 5d ⎥ = ⎢0⎥ ⇒ ⎢2c + 5d⎥ = ⎢0⎥ 0.
⎢⎣4⎥⎦ ⎢⎣ − 3⎥⎦ ⎢⎣0⎥⎦ ⎢⎣4c⎥⎦ ⎢⎣− 3d⎥⎦ ⎢⎣0⎥⎦ ⎢⎣4c − 3d⎥⎦ ⎢⎣0⎥⎦
Ejemplo 4.16.
Ejemplo 4.14. Verifiquemos que para cualesquiera escalares c1, c2, …, cn ∈ K se tiene que la
igualdad c1•e1 + c2•e2 + … + cn•en = θ implica que c1 = c2 = … = cn = 0.
⎡1⎤ ⎡ −1 ⎤ ⎡ 2⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ En efecto,
Sea V=ℜ3. Los vectores α = ⎢1⎥ , β = ⎢ 2⎥ y δ = ⎢8 ⎥ son L.D., ya que:
⎣⎢3⎦⎥ ⎣⎢ − 2 ⎦⎥ ⎣⎢8 ⎦⎥
147 148
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
=
⎢ ⎥
⎢ 0⎥
⎢ ⎥
c
+ ⎢ 2⎥ + … +
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 0 ⎥ = ⎢ c 2 ⎥ = ⎢0 ⎥
c1, c2, …, cn ∈ K no todos iguales a cero tales que ∑c
i =1
i • αi = θ .
⎢M⎥ ⎢M⎥ ⎢M⎥ ⎢M⎥ ⎢M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Supongamos, sin pérdida de generalidad que los primeros m
⎣⎢ 0 ⎦⎥ ⎣⎢ 0 ⎦⎥ ⎣⎢c n ⎦⎥ ⎢⎣c n ⎥⎦ ⎣⎢0⎦⎥ escalares son no nulos y que los últimos n–m escalares son nulos.
n
m n
Teorema 4.8. puede escribir como ∑c • α + ∑c • α
i =1
i i
i = m +1
i i =θ. Como
Sean K un cuerpo y V un espacio vectorial sobre K. Sean S1 y S2 subconjuntos cm+1 = cm+2 = … = cn = 0 entonces la relación anterior concluye en
de V y α ∈ V. que existen escalares no nulos c1, c2, …, cm tales que
m
1. Si S1 ⊆ S2 y S2 es L.I. entonces S1 es L.I. ∑c i • α i = θ , es decir, el conjunto {α1, α2, …, αm} es L.D. Ahora
2. Si S1 ⊆ S2 y S1 es L.D. entonces S2 es L.D. i =1
3. Si S1 es L.D. entonces existe un subconjunto S3 de V con S3 ⊆ S1 tal bien, un conjunto formado por un vector no nulo es L.I. ya que
que S3 es L.I. c•α = θ implica que c = 0. Al unir cualquiera de estos m vectores,
4. Si θ ∈ S1 entonces S1 es L.D. digamos el vector αm, con los n–m vectores restantes
5. {α} es L.I. si y sólo si α ≠ θ. αm+1, αm+2, …, αn se obtiene el conjunto de n–m+1 vectores
n
1. Supongamos que S2 = {α1, α2, …, αn}, con αi ≠ αj; i ≠ j; i, implica que cm = cm+1 = … = cn = 0. En consecuencia, existe un
j = 1, 2, …, n. Por hipótesis, S2 es L.I., es decir, para escalares subconjunto S3 de V con S3 ⊆ S1 tal que S3 es L.I. Nótese que si a
n S3 se le agrega alguno de los vectores α1, α2, …, αm-1 se obtiene un
c1, c2, …, cn ∈ K se tiene que la relación lineal ∑c i • αi = θ conjunto L.D.
i =1 4. Por hipótesis θ ∈ S1. Sea {θ, α} un subconjunto finito de S1 con α
implica que c1 = c2 = … = cn = 0. Como S1 ⊆ S2 entonces, de S2 ≠ θ. Luego existen escalares c1 = 1 y c2 = 0 tales que
existen sin pérdida de generalidad vectores α1, α2, …, αm, (m < n), 1•θ + 0•α = θ. Por consiguiente S1 es L.D.
tales que S1 = {α1, α2, …, αm}. Consideremos la relación lineal 5. CN(⇒):Si {α} es L.I. entonces α ≠ θ.
m
∑c
i =1
i • αi = θ . Dicha relación se puede escribir como Utilicemos reducción al absurdo. Supongamos que α = θ. Luego
{α} es L.D. ya que {α} = {θ} lo cual es una contradicción ya que
m n n
∑c
i =1
i • αi + ∑0 • α
i = m +1
i = θ , es decir, ∑c
i =1
i • α i = θ la cual implica por hipótesis {α} es L.I.
149 150
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Demostración 1
− 2•α = β− •δ
2
CN(⇒): Si S es L.D. entonces existe j ∈ ℵ, 1 ≤ j ≤ n tal que αj ∈ [S – {αj}].
1 1
⇒ α = − β+ •δ
Por hipótesis existen escalares c1, c2, …, cn ∈ K no todos iguales a cero tal que: 2 4
Sea j ∈ ℵ, 1 ≤ j ≤ n tal que cj ≠ 0. Luego, Sean el espacio vectorial V = ℜn, A∈Mnxn(ℜ) y B = {A1, A2, …, An}⊆V. B es
L.I. si y sólo si A es no singular.
j−1 n
∑c • α
i =1
i i + cj •αj + ∑c • α
i = j+1
i i =θ Demostración
⎡1⎤ ⎡ −1 ⎤ ⎡2⎤ Si A es no singular entonces el SEL AX = θ nx1 tiene como única solución la
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
En relación al ejemplo 4.12., los vectores α = ⎢1⎥ , β = ⎢ 2⎥ y δ = ⎢8 ⎥ son solución trivial. Luego,
⎢⎣3⎥⎦ ⎢⎣ − 2 ⎥⎦ ⎢⎣8 ⎥⎦ ⎡ c1 ⎤
⎢ ⎥
L.D., ya que existen escalares c1, c2, c3 no todos iguales a cero c
AX = θ nx1 ⇒ X = θ nx1 ; siendo X = ⎢ 2 ⎥ , es decir,
1 ⎢M⎥
(c1 = –2, c2 = –1, c3 = ) tales que c1 • α + c 2 • β + c 3 • δ = θ , es decir, ⎢ ⎥
⎣⎢c n ⎦⎥
2
1
− 2 • α + (−1) • β + • δ = θ . Luego,
2
151 152
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Demostración
c1•A1 + c2•A2 + … + cn•An = θ ⇒ c1 = c2 = … = cn = 0
Sea S = {α1, α2, …, αn} un conjunto de generadores de V, es decir, [S] = V.
Por consiguiente, B es L.I.
Como V ≠ {θ} existe algún j, tal que αj ≠ θ. Si S es L.I. entonces el teorema
esta demostrado. Si S es L.D. entonces existe p tal que αp ∈ [S – {αp}]. Luego,
Observaciones:
[S – {αp}] = V.
1. Sean el espacio vectorial V = ℜn, A∈Mnxn(ℜ) y B = {A1, A2, …, An}⊆V.
Repitiendo este proceso a lo sumo n-1 veces se obtiene un subconjunto B de S
L.I. tal que [B] = V, ya que un conjunto formado por un solo vector no nulo es
1.1. B es L.I. si y sólo si Det(A) ≠ 0.
L.I.
1.2. B es L.I. si y sólo si Rango(A) = n.
Definición 4.8.
2. B es L.D. si y sólo si A no es invertible (singular). Por el teorema 4.8.,
apartado 3, B es L.D., si y sólo si existen r columnas de A A1, A2, …, Ar
Sean K un cuerpo y V un espacio vectorial sobre K. Un subconjunto B de V se
tales que el conjunto C = {A1, A2, …, Ar} es L.I.
dice que es una base de V si B es L.I. y B es un conjunto de generadores de V.
3. Si A es no singular entonces At es no singular y (At)-1 = (A-1)t. Luego, A
Observaciones:
es no singular si y sólo si sus filas son vectores L.I.
1. V es finito dimensional si y sólo si V tiene una base finita.
4. El Rango de A es el número máximo de filas o columnas de A L.I.
2. Sea V un espacio vectorial finito dimensional. Si S es un conjunto
de generadores finito de V entonces existe una base B de V tal que
4.6. BASES.
B ⊆ S.
Definición 4.7.
Ejemplo 4.20.
Sean K un cuerpo y V un espacio vectorial sobre K. Un subconjunto S de V se
dice que es un conjunto de generadores de V si [S] = V. Si V tiene un conjunto Sean V = ℜn y B = {e1, e2, …, en}. B es L.I. y es también un conjunto de
de generadores finito entonces V se dice que es un espacio finito-dimensional generadores de V. Por consiguiente B es una base de V. Este conjunto
o finitamente generado. B = {e1, e2, …, en} se conoce como la base canónica de V = ℜn.
Si V = {θ} entonces V es finito dimensional ya que [∅] = V. Sean K un cuerpo, V un espacio vectorial sobre K, B = {α1, α2,…, αn} un
subconjunto de V y α ∈ V. Si B es una base de V entonces existe un conjunto
n
Ejemplo 4.19.
único de escalares c1, c2, …, cn ∈ K tales que α = ∑c
i =1
i • αi .
Sea V = ℜn. Veamos que B = {e1, e2, …, en} es un conjunto de generadores de
V. Demostración
⎣⎢X n ⎦⎥ ⎣⎢0⎦⎥ ⎣⎢0⎦⎥ ⎣⎢1⎦⎥ distintas como una combinación lineal de los vectores de la base, es decir:
153 154
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional y B1, B2 Consideremos la expresión c1•β1 + c2•β2 + … + cm•βm = θ.
subconjuntos de V. Si B1 y B2 son bases de V entonces B1 y B2 son finitas y
tienen el mismo número de vectores. Luego,
Demostración n n n
c1 • ∑c
j=1
1j • α j + c2 • ∑c j=1
2j • α j + ... + c m • ∑c
j=1
mj •αj = θ
Si V = {θ} entonces el resultado es inmediato ya que la única base es el
conjunto vacío.
Esta ecuación se puede escribir como:
Supongamos que V ≠ {θ}. Sea B1 = {α1, α2,…, αn} una base de V. Veamos
m m m
que B2 es finita y tiene n vectores. Verifiquemos que B2 no puede tener más de
n vectores. Utilicemos reducción al absurdo. Supongamos que B2 contiene mas
( ∑ c c ) • α + (∑ c
i =1
i1 i 1
i =1
i 2ci ) • α 2 + ... + ( ∑c
i =1
in c i ) • α n =θ
de n vectores. Entonces existen β1, β2, …, βn+1 ∈ B2. Ahora bien,
{β1, β2, …, βn+1} ⊆ V = [B1] y por lo tanto B2 es L.D. lo cual es una
Como B = {α1, α2,…, αn} es una base de V entonces B es L.I. Por
contradicción. Sea B2 = {β1, β2, …, βp}, con p ≤ n (5). Por otra parte, consiguiente,
B1 ⊆ V = [B2], lo cual implica que n ≤ p, es decir, p ≥ n (6). Por (5) y (6) se
tiene que n = p.
⎧ c11c1 + c 21c 2 + ... + c m1c m = 0
⎪
Definición 4.9. ⎪c12 c1 + c 22c 2 + ... + c m 2 c m = 0
⎨
⎪ M
Sean K un cuerpo, V un espacio vectorial sobre K y B una base de V. Se ⎪c1n c1 + c 2 n c 2 + ... + c mn c m = 0
define como Dimensión de V y se denota por Dim(V) al número de vectores de ⎩
cualquier base de V.
El SEL anterior es un SEL homogéneo de n ecuaciones con m
Ejemplo 4.21. incógnitas. Como m > n, es decir, n < m entonces el SEL
homogéneo tiene infinitas soluciones. Luego, existen escalares
En el ejemplo 4.16., Dim(V) = n. c1, c2, …, cm ∈ K no todos iguales a cero tales que
c1•β1 + c2•β2 + … + cm•βm = θ, es decir, S es L.D. lo cual es una
Teorema 4.14. contradicción.
Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional con 2. Supongamos que S = {β1, β2,…, βm}. Si S es L.I. entonces forman
Dim(V) = n y S un subconjunto de V. una base de V y Dim(V) = m = n. Si S no es L.I. entonces es L.D. y
por el teorema 4.9. al menos uno de ellos se puede escribir como
1. Si S es un subconjunto L.I. de V y esta formado por m vectores combinación lineal de los vectores restantes. Eliminemos este
entonces m ≤ n. vector y apliquemos este proceso hasta que queden p vectores L.I.
2. Si S es un conjunto de generadores de V y esta formado por m Estos en conjunto deben ser un conjunto de generadores de V por la
vectores entonces m ≥ n. forma como se eligieron. Por consiguiente, Dim(V) = p < m. En
general, Dim(V) ≤ m, es decir, n ≤ m lo cual es lo mismo que decir
m ≥ n.
155 156
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional con Esto implica que c1 = c2 = … = cn = 0 ya que el conjunto formado
Dim(V) = n y S un subconjunto de V. por los vectores α1, α2,…, αn es L.I. Sea W = [S ∪{β}]. Como
α1, α2,…, αn, β están en V, W es un subespacio de V. Como
1. Si S esta formado por m vectores y m > n entonces S es un α1, α2,…, αn, β es un conjunto de vectores L.I. entonces forman una
subconjunto L.D. de V. base de W y además Dim(W) = n+1, lo cual es una contradicción
2. Si S esta formado por m vectores y m < n entonces S no es un ya que por el teorema 4.15. Dim(W) ≤ n.
conjunto de generadores de V.
2. Sean α1, α2,…, αn los n vectores que componen a S. Utilicemos
Teorema 4.15.
reducción al absurdo. Supongamos que S no es una base de V. En
ese caso, S no es L.I. Luego, por el teorema 4.14., apartado 2,
Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional con
Dim(V) < n, lo cual es una contradicción ya que por hipótesis
Dim(V) = n y W un subconjunto de V. Si W es un subespacio de V entonces
Dim(V) = n.
W es finito dimensional y además se cumple que Dim(W) ≤ Dim(V).
Ejemplo 4.22.
Demostración
En el ejemplo 4.15., {p1(x) = 1, p2(x) = x, p3(x) = x2} es una base de P2 ya que
Por el teorema 4.8., apartado 1, cualquier conjunto de vectores L.I. en W es se demostró que es un conjunto de 3 vectores L.I. Esta base se conoce como
también L.I. en V. Por el teorema 4.14., cualquier conjunto L.I. en W puede base canónica de V=P2. En general, {1, x, x2, …, xn} es la base canónica de
contener a lo sumo n vectores. Si W = {θ} entonces Dim(W) = 0. Si W ≠ {θ}, V = Pn.
sea α1 un vector en W y W1 = [W]. Si W1 = W entonces Dim(W) = 1 ≤ n y
el teorema esta demostrado. Si W1 ≠ W sea α2 ∈ W tal que α2 ∉ W1 y sea Teorema 4.17.
W2 = [W]. Así sucesivamente continuamos hasta encontrar un conjunto de
vectores L.I. {α1, α2,…, αp} tales que W = [W]. El proceso tiene que terminar Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional con
porque se pueden encontrar a lo sumo n vectores L.I. en W. Por consiguiente, Dim(V) = n y S es un subconjunto de V formado por m vectores (m<n). Si
Dim(W) = p ≤ n. S = {β1, β2,…, βm} es L.I. entonces existen vectores βm+1, βm+2,…, βn tales que
S ∪ {βm+1, βm+2,…, βn} es una base de V.
Teorema 4.16.
Demostración
Sean K un cuerpo, V un espacio vectorial sobre K finito dimensional con
Dim(V) = n y S un subconjunto de V formado por n vectores. Como Dim(V) = n entonces V tiene por lo menos una base. Sea
B = {α1, α2,…, αn} una base de V. Como B es una base de V cada uno de los
1. Si S es L.I. entonces S es una base de V. vectores de S se pueden expresar como combinación lineal de α1, α2,…, αn, es
2. Si S es un conjunto de generadores entonces S es una base de V. decir:
Demostración
β1 = c11 • α1 + c12 • α 2 + ... + c1n • α n
1. Sean α1, α2,…, αn los n vectores que componen a S. Utilicemos β 2 = c 21 • α1 + c 22 • α 2 + ... + c 2 n • α n
reducción al absurdo. Supongamos que S no es una base de V. M
Entonces existe un vector β ∈ V tal que β ∉ [S]. Esto significa que β m = c m1 • α1 + c m 2 • α 2 + ... + c mn • α n
el conjunto formado por los n+1 vectores α1, α2,…, αn, β es L.I.
Ahora bien, observemos que la ecuación:
⎡ c1i ⎤
c1•α1 + c2•α2 + … + cn•αn +cn+1•β= θ ⎢ ⎥
c
Sea Ci = ⎢ 2i ⎥ ; i = 1, 2, …, m.
⎢ M ⎥
Implica que cn+1 = 0, ya que de lo contrario podríamos escribir a β ⎢ ⎥
como una combinación lineal de α1, α2,…, αn dividiendo la ⎣⎢c ni ⎦⎥
ecuación anterior entre cn+1 y poniendo todos los términos excepto
157 158
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Los Ci forman un conjunto L.I . en ℜn, ya que de otra manera {α1, α2,…, αn} Teorema 4.19.
no sería un conjunto L.I. Agreguemos a Ci n – m vectores que forman un
conjunto L.I. Sean estos vectores Cm+1, Cm+2, …, Cn. Luego, si: Sea A∈Mnxn(K). A es no singular si y sólo si n(A) = 0.
4.7. ESPACIO NULO, NULIDAD, IMAGEN, ESPACIO FILA Y Rango(A) = Dim(IA) = r(A).
ESPACIO COLUMNA DE UNA MATRIZ.
Teorema 4.20.
Definición 4.10.
Sea A∈Mmxn(K). Entonces IA es es un subespacio de Km.
Sea A∈Mmxn(K). Se define como espacio nulo de A y se denota por NA al
conjunto NA = {X∈Kn: AX = θnx1 }. Demostración
Teorema 4.18. Es claro que θmx1∈IA ya que el SEL homogéneo AX = θmx1 tiene al menos la
solución trivial X = θnx1. Sean Y1, Y2∈IA y c∈K. Sólo basta probar que
Sea A∈Mmxn(K). Entonces NA es un subespacio de Kn. (cY1+Y2)∈IA. En efecto, como Y1, Y2∈IA se tiene que ∃ X1, X2∈ Kn tales que
AX1 = Y1 y AX2 = Y2 (9). Luego, cAX1 = cY1 (10). Sumando a ambos lados de
Demostración (9) y (10) se obtiene que cAX1+AX2 = cY1+Y2, es decir,
A(cX1 + X2) = cY1+Y2. Por consiguiente, ∃ X*∈ Kn; X* = cX1 + X2 tal que
Es claro que θnx1∈NA ya que Aθnx1 = θnx1. Sean X1, X2∈NA y c∈K. Sólo basta AX* = cY1+Y2. Luego, (cY1+Y2)∈IA e IA es un subespacio de Km.
probar que que (cX1+X2)∈NA. En efecto, como X1, X2∈NA se tiene que
AX1 = θnx1 y AX2 = θnx1 (7). Luego, cAX1 = cθnx1 , es decir, cAX1 = θnx1 (8). Definición 4.13.
Sumando a ambos lados de (7) y (8) se obtiene que cAX1 + AX2 = θnx1 + θnx1,
es decir, A(cX1 + X2) = θnx1. Por consiguiente, (cX1+X2)∈NA y NA es un Sean A∈Mmxn(K), (A1)t , (A2)t , …, (Am)t ∈M1xn(K) las filas de A y
subespacio de Kn. A1, A2, …, An∈Mmx1(K) las columnas de A. Se definen como espacio fila de A
y espacio columna de A y se denotan por RA y CA, respectivamente, a los
Definición 4.11. conjuntos RA = [{(A1)t , (A2)t , …, (Am)t}] y CA = [{A1, A2, …, An}].
159 160
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Sea A∈Mmxn(K). Entonces CA = IA. Supongamos que Dim(RA) = p. Sea S = {α1, α2, …, αp} una base para RA.
Nótese que αi∈Kn. Luego, cada fila de A se puede expresar como una
Demostración combinación lineal de los vectores de S, es decir, existen escalares cij;
i = 1, 2, …, m; j = 1, 2, …, p tales que:
Supongamos que Y∈IA. Entonces, ∃ X∈Kn: AX = Y. Luego,
(A1 ) t = c11 • α1 + c12 • α 2 + ... + c1p • α p
⎡ X1 ⎤ (A 2 ) t = c 21 • α1 + c 22 • α 2 + ... + c 2 p • α p
⎢ ⎥ (13)
[A1
A 2
L A ]
n ⎢X 2 ⎥
⎢ M ⎥
=Y M
⎢ ⎥ (A m ) t = c m1 • α1 + c m 2 • α 2 + ... + c mp • α p
⎢⎣X n ⎥⎦
⇒ X1 • A1 + X 2 • A 2 + L + X n • A n = Y Ahora bien, la j-ésima componente de (Ai)t es Aij. Por lo tanto, si igualamos las
j-ésimas componentes de ambos lados de (13) y escribimos αi de la forma:
Por lo tanto, Y es combinación lineal de A1, A2, …, An. Por consiguiente,
Y∈[{A1, A2, …, An}], es decir, Y∈ CA. Esto significa que IA⊆CA (11). ⎡ α1i ⎤
⎢ ⎥
α
Supongamos ahora que Y∈CA. Luego, Y se puede expresar como combinación α i = ⎢ 2i ⎥
⎢ M ⎥
lineal de A1, A2, …, An, es decir, existen escalares c1, c2, …, cn∈K tales que: ⎢ ⎥
⎢⎣α ni ⎥⎦
Y = c1 • A1 + c 2 • A 2 + L + c n • A n
Se obtiene que:
Luego,
A1 j = c11α1 j + c12α 2 j + ... + c1p α pj
⎡ c1 ⎤ A 2 j = c 21α1 j + c 22α 2 j + ... + c 2 p α pj
⎢ ⎥ M
[
Y = A1 A 2
c
L An ⎢ 2 ⎥
⎢M⎥
] A mj = c m1α1 j + c m 2 α 2 j + ... + c mpα pj
⎢ ⎥
⎣⎢c n ⎦⎥
Luego,
⎡ c1 ⎤
⎢ ⎥
[
⇒ A1 A 2
c
]
L An ⎢ 2 ⎥ = Y
⎢M⎥
⎡ A1 j ⎤
⎢ ⎥
⎡ c11 ⎤
⎢ ⎥
⎡ c12 ⎤
⎢ ⎥
⎡ c1p ⎤
⎢ ⎥
⎢ ⎥ ⎢ 2 j ⎥ = α • ⎢ 21 ⎥ + α • ⎢ 22 ⎥ + ... + α • ⎢ c 2 p ⎥ (14)
A c c
⎢ M ⎥ 1 j
⎢ M ⎥ 2 j
⎢ M ⎥ pj ⎢ M ⎥
⎣⎢c n ⎦⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A
⎣⎢ mj ⎦⎥ ⎢ c
⎣ m1 ⎦⎥ ⎢ c
⎣ m2 ⎦⎥ ⎣⎢c mp ⎦⎥
⎡ c1 ⎤
⎢ ⎥
c
⇒ AX = Y, con X = ⎢ 2 ⎥ ⎡ c1i ⎤
⎢M⎥
⎢ ⎥ ⎢ ⎥
c
⎣⎢c n ⎦⎥ Sea βi = ⎢ 2i ⎥
⎢ M ⎥
⎢ ⎥
Por tanto, Y∈IA. Por consiguiente, CA⊆IA (12). ⎣⎢c mi ⎦⎥
Por (11) y (12) se tiene que CA = IA. Por consiguiente, como el lado izquierdo de (14) es la j-ésima columna de A se
tiene que cada columna de A se puede escribir como una combinación lineal
Teorema 4.22. de los vectores β1, β2, …, βp, lo cual significa que [{β1, β2, …, βp}] = CA y por
ende Dim(CA) ≤ p = Dim(RA) (15).
Sea A∈Mmxn(K). Entonces Dim(RA) = Dim(CA) = Dim(IA) = r(A).
161 162
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Caso 2: D se obtuvo de A aplicando la operación elemental de filas rp→crp. ⎡ A11 A12 L A1p 0 0 L 0⎤
⎢ ⎥
⎢A 21 A 22 L A 2 p 0 0 L 0⎥
En este caso las filas de D son {D1 = A1, D2 = A2, …, Dp = cAp, …, Dm = Am}. ⎢ M M M M M M⎥
Ahora bien, cAp = c(Ap) y Ap = (1/c)cAp. Luego, cada fila de C es un múltiplo ⎢ ⎥
F = ⎢ A t1 At2 L A tt 0 0 L 0⎥
de una fila de A y viceversa. Esto indica que cada fila de C pertenece al
⎢ 0 0 L 0 0 0 L 0⎥
subespacio generado por las filas de A y viceversa. En consecuencia, RA ⊆ RC ⎢ ⎥
y RC ⊆ RA, por lo cual RC = RA. ⎢ M M M M M M⎥
⎢ ⎥
⎣ 0 0 L 0 0 0 L 0⎦
Caso 3: D se obtuvo de A aplicando la operación elemental de filas rp↔rs.
Donde r(F) = r(A) (17) y n(F) = n(A) (18). Ahora bien, es evidente que si j > t,
En este caso RA = RC porque las filas de A y C son las mismas (sólo que en
diferente orden). entonces Fei = θmx1, de forma tal que S(t) = {et+1, et+2, …, en} es un conjunto
L.I. de n-t vectores en NF. Probaremos ahora que [S(t)] = NF. Sea X∈NF un
Como B es equivalente por filas a A, B se obtiene de A aplicando un número vector de la forma:
finito de operaciones elementales de filas. Por consiguiente, lo demostrado
anteriormente aplicado varias veces demuestra que RA = RB. En consecuencia, ⎡ X1 ⎤
por el teorema 4.22., r(A) = r(B). ⎢ ⎥
⎢X 2 ⎥
⎢ M ⎥
Por último, el conjunto de soluciones de AX = θnx1 no cambia bajo las X=⎢ ⎥
operaciones elementales de fila aplicadas sobre A para obtener a B. De esta ⎢Xt ⎥
forma, NA = NB y por consiguiente n(A) = n(B). ⎢ M ⎥
⎢ ⎥
⎢⎣X n ⎥⎦
Teorema 4.24.
Sea A∈Mmxn(K). Entonces se cumple que r(A) + n(A) = n. Entonces se cumple que:
163 164
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎢ 0 ⎥ 0
⎢ ⎥ 0
⎢ ⎥ ⎢0⎥ ⎢⎣− 6 3 − 9⎥⎦ 3
X=⎢ = X t +1 ⎢ ⎥ + X t + 2 ⎢ ⎥ + ... + X n ⎢ ⎥ = X t +1e t +1 + X t + 2 e t + 2 + ... + X n e n ⎢⎣ ⎦ ⎢
⎣ ⎦
X t +1 ⎥ 1 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢X t + 2 ⎥ ⎢0 ⎥ ⎢1⎥ ⎢0⎥ Se observa que el número de filas no nulas de R es 1 por lo cual
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Rango(A) = r(A) = 1. Luego, cualquier columna de A forma una base para CA,
⎢ M ⎥ ⎢M⎥ ⎢M ⎥ ⎢M ⎥
⎢⎣ X n ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ es decir:
⎡ 2⎤
Esto prueba que [S(t)] = NF de forma tal que n(F) = n – t = n – r(F). Luego, ⎢ ⎥
r(F) + n(F) = n. Por (17) y (18) se tiene que r(A) + n(A) = n. CA = {Y∈ℜ3: Y = c ⎢ 4 ⎥; c ∈ ℜ } = IA
⎢⎣− 6⎥⎦
Ejemplo 4.23.
A su vez, una base para RA consiste en una combinación lineal de las filas no
Sea A∈M3x3(ℜ) definida por: nulas de R, es decir:
⎡ 2 −1 3⎤ ⎡ 1⎤
⎢ ⎥ ⎢ ⎥
A =⎢ 4 −2 6⎥
⎢⎣ − 6 R A = {X ∈ ℜ3 : X = a ⎢ − 1 ⎥; a ∈ ℜ}
3 − 9 ⎥⎦ ⎢ 2 ⎥
⎢⎣ 3 2 ⎥⎦
Determinemos Espacio Nulo (NA), Nulidad (n(A)), Imagen (IA), Rango (r(A)),
Espacio Fila (RA) y Espacio Columna (CA).
NA = {X∈ℜ3: AX = θ3x1 }
⎡ 2 −1 3⎤ ⎡ X1 ⎤ ⎡0⎤ ⎡ 2 − 1 3 0⎤ 1
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ r1 → 2 r1
AX = θ3x1 ⇒ ⎢ 4 − 2 6 ⎥ ⎢ X 2 ⎥ = ⎢0 ⎥ ⇒ ⎢ 4 − 2 6 0⎥ ⎯⎯ ⎯ →
⎢⎣ − 6 3 − 9 ⎥⎦ ⎢⎣ X 3 ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣ − 6 3 − 9 0⎥⎦
⎡ 1 −1 3 0⎤ ⎡1 − 1 3 0⎤
⎢ 2 2 ⎥ ⎯r⎯ ⎯⎯→ ⎢
2 → r2 − 4 r1 2 2 ⎥
⎢ 4 −2 6 0 ⎥ r → r + 6 r ⎢0 0 0 0⎥
⎢− 6 ⎯⎯ ⎯ ⎯ →
− 9 0⎥⎥ ⎢0 0 0⎥⎥
3 3 1
⎢⎣ 3 ⎢⎣ 0
⎦ ⎦
165 166
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
167 168
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡ X1 + Y1 + p ⎤ ⎡ X1 ⎤ ⎡ c + cX1 − p ⎤ 18. Deterrmine cuáles de los siguientes conjuntos de vectores son base de
⎢ ⎥ +⎢ ⎥ = ⎢ ⎥ y c• ⎢ ⎥ = ⎢ ⎥ ℜ3 :
⎣X 2 ⎦ ⎣Y2 ⎦ ⎣X 2 + Y2 + p ⎦ ⎣X 2 ⎦ ⎣c + cX 2 − p ⎦
Determine el valor de p para el cual ℜ2 con las operaciones de suma y ⎡1⎤ ⎡ 2⎤ ⎡3⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
multiplicación por escalares definidas anteriormente es un espacio 18.1. α1 = ⎢0⎥ , α 2 = ⎢2⎥ , α 3 = ⎢3⎥
vectorial. ⎢⎣0⎥⎦ ⎢⎣0⎥⎦ ⎢⎣3⎥⎦
169 170
CAPÍTULO 4: ESPACIOS VECTORIALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
19. Demuestre que los siguientes conjuntos de vectores de ℜ3 generan el 24.3. Determine las coordenadas de p∈P3 tal que p(x) = 3x3 + 2x2 –
mismo subespacio: x – 1 con respecto a la base obtenida en el apartado anterior.
171 172
CAPÍTULO 4: ESPACIOS VECTORIALES
⎡ −1 2 1⎤
⎢ ⎥
31.2. B = ⎢ 2 − 4 − 2⎥
⎢⎣ − 3 6 3⎥⎦
⎡1 −1 2⎤
⎢ ⎥
31.3. C = ⎢3 1 4⎥
⎢⎣5 − 1 8 ⎥⎦
⎡ 1 −1 2 1⎤
⎢ ⎥
−1 0 1 2⎥
31.4. D=⎢
⎢ 1 −2 5 4⎥
⎢ ⎥
⎢⎣ 2 − 1 1 − 1 ⎥⎦
⎡ −1 −1 0 0⎤
⎢ ⎥
0 0 2 3⎥
31.5. E=⎢
⎢ 4 0 −2 1⎥
⎢ ⎥
⎣⎢ 3 −1 0 4⎦⎥
173
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
∑X Y
Capítulo 5 <α, β> =
i =1
i i .
Un espacio euclídeo no siempre tiene un único producto interno, es decir, un <α, β> = ∫ f (x)g(x)dx .
a
espacio vectorial puede ser un espacio euclídeo con diferentes productos
internos. Esta operación es un producto interno sobre V ya que:
Ejemplo 5.1.
∫ (f (x)) dx ≥0 y <α,α> = ∫ (f (x)) dx = 0
b b b
∫
2 2
1. <α, α> = f ( x )f ( x )dx =
a a a
⎡ X1 ⎤ ⎡ Y1 ⎤ ⎡ Z1 ⎤ si y sólo si f(x) = 0, es decir, si y sólo si α = θ.
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X Y Z b b
Sea V = ℜn. Si α = ⎢ 2 ⎥ , β = ⎢ 2 ⎥ , δ = ⎢ 2 ⎥ entonces se define la 2. <α, β> = ∫ f (x)g(x)dx = ∫ g(x)f (x)dx = <β, α>.
⎢ M ⎥ ⎢ M ⎥ ⎢M ⎥ a a
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
∫ (cf (x))g(x)dx
b b
⎢⎣X n ⎥⎦ ⎢⎣Yn ⎥⎦ ⎢⎣ Z n ⎥⎦ 3. <c•α, β> =
a ∫
= c f ( x )g ( x )dx = c<α, β>.
a
siguiente operación entre vectores de V = ℜn :
∫ (f (x) + g(x))h(x)dx = ∫ (f (x)h(x) + g(x)h(x))dx
b b
4. <α + β, δ> =
a a
175
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
b b Demostración
= ∫ f (x)h(x)dx + ∫ g(x)h(x)dx = <α, δ> + <β, δ>
a a
Sean V un espacio euclídeo y α∈V. Se define como Longitud o Norma de α y Si α = θ entonces por la propiedad 1 de producto interno se cumple
se denota por ||α|| a: que < α, α > = 0. Luego, < α, α > = 0 y por consiguiente
||α|| = 0.
||α|| = < α, α >
3. ||cα|| = < c • α, c • α > .
Ejemplo 5.3.
⇒ ||cα|| = c < α, c • α > (Por la propiedad 3 de producto interno)
En relación al ejemplo 5.1.:
⇒ ||cα|| = c < c • α, α > (Por la propiedad 2 de producto interno)
176 177
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
< β, α > = < α, α > + < α, β > + < α, β > + < β, β >
0 ≤ <δ, δ> = <δ, β − α>
|| α ||2
= < α, α > +2 < α, β > + < β, β >
< β, α >
= <β− α , δ>
|| α ||2 Luego,
< β, α >
= <β, δ> – < α , δ>
|| α ||2 ||α+β||2 = ( < α, α > +2 < α, β > + < β, β > )2
< β, α > = < α, α > +2 < α, β > + < β, β >
= <δ, β> – < α , δ>
|| α ||2 = ||α||2 + 2<α, β> + ||β||2
< β, α >
= <δ, β> – <α, δ> Por el apartado anterior |<α, β>| ≤ ||α||.||β||. Luego,
|| α ||2
< β, α > –||α||.||β|| ≤ <α, β> ≤ ||α||.||β||
= <δ, β> – <δ, α>
|| α ||2
⇒ 2<α, β> ≤ 2||α||.||β||
< β, α > ⇒ ||α||2 + ||β||2 + 2<α, β> ≤ ||α||2 + ||β||2 + 2||α||.||β||
= <δ, β> – .0
|| α ||2 ⇒ ||α+β||2 ≤ (||α|| + ||β||)2
= <δ, β> – 0 ⇒ ||α+β|| ≤ ||α||+||β||
= <δ, β>
< β, α > Definición 5.3.
= <β− α , β>
|| α ||2
Sean V un espacio euclídeo y α, β∈V. Se define como Distancia Euclídea
< β, α > entre α y β y se denota por d(α, β) a:
= <β, β> – < α , β>
|| α ||2
d(α, β) = ||α – β||
< β, α >
= <β, β> – .<α, β>
|| α ||2 Observaciones:
< α, β >
= <β, β> – .<α, β> 1. d(α, β) = d(α – β, θ).
|| α ||2
2. La distancia entre 2 vectores en un espacio euclídeo no es única en el
( < α, β > ) 2 sentido de que puede ser calculada a través de diferentes productos
= <β, β> –
|| α ||2 internos que estén definidos sobre dicho espacio euclídeo.
Teorema 5.2.
( < α, β > ) 2 < β, β >|| α ||2 −(< α, β >) 2
Luego, 0 ≤ <β, β> – ⇒0≤
|| α ||2 || α ||2 Sea V un espacio euclídeo. Si α, β∈V entonces:
⇒ 0 ≤ < β, β >|| α || −(< α, β >)
2 2
2 2
d 2 ( α , β) = α + β − 2 < α , β >
⇒ 0 ≤ || β ||2 || α ||2 −(< α, β >) 2
⇒ (< α, β >) 2 ≤ || β ||2 || α ||2 Demostración
⇒ |< α, β >| ≤ || α || . || β ||
Por definición:
5. ||α+β|| = < α + β, α + β) d(α, β) = ||α – β||
= < α, α > + < β, α > + < α, β > + < β, β > ⇒ d2(α, β) = <α, α – β> + <–β, α – β>
178 179
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⇒ d2(α, β) = <α, α – β> – <β, α – β> La base canónica B = {e1, e2, …, en} es un conjunto ortonormal ya que:
⇒ d2(α, β) = <α – β, α> – <α – β, β>
⇒ d (α, β) = <α, α> + <–β, α> – (<α, β> + <–β, β>)
2
||ei|| = 0 2 + 0 2 + ... + 12 + ... + 0 2 = 1 = 1 , ∀ i = 1, 2, …, n.
⇒ d2(α, β) = <α, α> – <β, α> – (<α, β> – <β, β>)
<ei, ej> = 0.0 + 0.0 + … + 1.0 + … + 0.1 + … + 0.0 = 0. ∀ i = 1, 2, …, n,
⇒ d2(α, β) = <α, α> – <β, α> – <α, β> + <β, β>
j = 1, 2, …, n.
⇒ d2(α, β) = <α, α> + <β, β> – <α, β> – <α, β>
⇒ d2(α, β) = ||α||2 + ||β||2 – 2<α, β> Por consiguiente B es una base ortonormal de ℜn.
Ejemplo 5.5. Teorema 5.3.
En relación al ejemplo 5.1.: Sea V un espacio euclídeo.
n
Definición 5.5.
= ∑c
i =1
i < αi , α >
Sea V un espacio euclídeo. Se dice que un vector α∈V es ortogonal a un n
vector β∈V y se escribe α ⊥ β si <α, β> = 0. Un subconjunto S de V se dice
que es un conjunto ortogonal si ∀ α, β∈S con α ≠ β se cumple que α ⊥ β. Un
= ∑c
i =1
i < α, α i >
Ejemplo 5.6. m n
= ∑d ∑c
j=1
j
i =1
i < β j , αi >
Sea V = ℜn.
180 181
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
m n
⎧ n
= ∑∑ c d
j=1 i =1
i j < αi ,β j >
⎪
∑
⎪ A ri A rj = 1 si i = j
= ⎨ rn=1
∑
⎪ A A =0
n m
si i ≠ j
= ∑∑ c d
i =1 j=1
i j < αi ,β j > ⎪⎩ r =1 ri rj
= 0 + cj||αj|| + 0 = cj||αj||2
2
Luego, las columnas de A forman un conjunto ortonormal. Como A es no
singular entonces por el teorema 4.10., sus columnas forman un conjunto L.I.
Como por hipótesis αj ≠ θ entonces ||αj||2 > 0. Por consiguiente, Luego, por el teorema 4.16., las columnas de A forman una base de ℜn. Por
cj = 0, ∀ j = 1, 2, …, p, es decir, S es L.I. consiguiente, las columnas de A forman una base ortonormal de ℜn.
Teorema 5.4. CS(⇐): Si las columnas de A forman una base ortonormal de ℜn entonces A es
ortogonal.
Sea A∈Mnxn(ℜ). A es ortogonal si y sólo si sus columnas forman una base
ortonormal de ℜn. Por hipótesis, las columnas de A forman una base ortonormal de ℜn. Por lo
tanto, las columnas de A forman un conjunto ortonormal. Luego,
Demostración
⎧⎪ || A i || = 1 si i = j
CN(⇒): Si A es ortogonal entonces sus columnas forman una base ortonormal ⎨
de ℜn. ⎪⎩< A i , A j >= 0 si i ≠ j
⎧⎪ || A i ||2 = 1 si i = j
Por hipótesis, A es ortogonal, es decir, AtA = AAt = In. En otras palabras A es ⇒ ⎨
no singular y A-1 = At. ⎪⎩< A i , A j >= 0 si i ≠ j
⎧ n
Luego, ∑
⎪ r =1
2
⎪ (A ri ) = 1 si i = j
⇒ ⎨ n
⎧ n
∑ t
⎪ (A ) ir A rj = 1 si i = j
⎪
∑
A A =0
⎪⎩ r =1 ri rj
si i ≠ j
t ⎪ r =1
(AA )ij = ⎨ n
⎧ n
∑
⎪ (A t ) A = 0
⎪⎩ r =1 ir rj si i ≠ j ∑
⎪ A ri A ri = 1
⎪
si i = j
⇒ ⎨ rn=1
⎪ A A =0
∑
⎪⎩ r =1 ri rj
si i ≠ j
182 183
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎧ n Demostración
⎪
∑
⎪ A ri A rj = 1 si i = j
⇒ ⎨ rn=1 1. Por hipótesis, S = {α1, α2, …, αn} es un subconjunto de V L.I.
∑
⎪ A A =0
⎪⎩ r =1 ri rj
si i ≠ j Veamos que existen vectores no nulos β1, β2, …, βn tales que
{β1, β2, …, βn} es ortogonal y βi ∈ [{α1, α2, …, αi}], 1 ≤ i ≤ n.
⎧ n
∑ t
⎪ (A ) ir A rj = 1
⎪ r =1
si i = j Utilicemos inducción matemática. Veamos que la afirmación se
cumple para n = 2.
⇒ ⎨ n
∑
⎪ (A t ) A = 0
⎪⎩ r =1 ir rj si i ≠ j
En efecto, S = {α1, α2} es L.I.
< α 2 , β1 >
⎧1 si i = j Definamos β1 = α1 y β2 = α2 – β1.
⇒ (AAt)ij = ⎨ || β1 ||2
⎩0 si i ≠ j
⇒ AAt = In. Luego, β2 ≠ θ y además β2 ⊥ β1, ya que:
⇒ A-1 = At.
⇒ A es ortogonal. < α 2 , β1 >
<β2 , β1> = <α2 – β1, β1>
|| β1 ||2
Teorema 5.5.
< α 2 , β1 >
= <α2, β1> –< β1, β1>
1 || β1 ||2
Sean V un espacio euclídeo y α, β∈V. Si α ≠ θ entonces β = α es un
|| α || < α 2 , β1 >
vector normalizado. = <α2, β1> – <β1, β1>
|| β1 ||2
Demostración < α 2 , β1 >
= <α2, β1> – ||β1||2
|| β1 ||2
Demostremos que ||β|| = 1.
= <α2, β1> – < α 2 , β1 > = 0.
En efecto,
Supongamos que la afirmación se cumple para n = p, es decir:
1 1
||β|| = < β, β > = < α, α>
|| α || || α || Sea S = {α1, α2, …, αp} un subconjunto de V L.I. Entonces existen
vectores no nulos β1, β2, …, βp tales que {β1, β2, …, βp} es
1 1 1 1
= < α, α> = . < α, α > ortogonal.
|| α || || α || || α || || α ||
1 1 Demostremos que la afirmación se cumple para n = p+1, es decir:
= < α, α > = || α ||2 = 1 =1
|| α ||2 || α ||2 Sea S = {α1, α2, …, αp, αp+1} un subconjunto de V L.I. Entonces
existen vectores no nulos β1, β2, …, βp, βp+1 tales que
5.3. PROCESO DE ORTONORMALIZACIÓN DE GRAM-SCHMIDT. {β1, β2, …, βp, βp+1} es ortogonal.
Sea V un espacio euclídeo. Si S = {α1, α2, …, αn} es un subconjunto de V L.I. < α p +1 , β1 > < α p +1 , β 2 > < α p +1 , β p >
entonces existen vectores δ1, δ2, …, δn∈V que verifican las siguientes βp+1 = αp+1 – β1 – β2 – … –
|| β1 ||2 || β 2 ||2 || β n ||2
condiciones:
βp
1. {δ1, δ2, …, δn} es ortonormal.
2. ∀ i, 1 ≤ i ≤ n, se cumple que δi∈[{α1, α2, …, αi}] y por p
< α p +1 , β r >
consiguiente [{α1, α2, …, αi}] = [{δ1, δ2, …, δi}], 1 ≤ i ≤ n.
Es decir, β p +1 = α p +1 − ∑
r =1 || β r ||2
βr
184 185
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
βi = c1 • α1 + c 2 • α 2 + ... + ci • α i
En efecto,
Por consiguiente,
p
< α p +1 , β r >
<βp+1, βi> = < α p +1 − ∑
r =1 || β r ||2
β r , βi>
1 1 1 1
βi = c1 • α1 + c 2 • α 2 + ... + ci • α i
p
< α p +1 , β r > || βi || || βi || || βi || || βi ||
= <αp+1, βi> – < ∑ || β r ||2
β r , βi>
1 1 1
r =1
δi = c1 • α1 + c 2 • α 2 + ... + ci • α i
p
< α p +1 , β r > || βi || || βi || || βi ||
= <αp+1, βi> – ∑ r =1 || β r ||2
< β r , βi >
Luego, δi∈[{α1, α2, …, αi}] y además [{α1, α2, …, αi}] =
i −1
< α p +1 , β r > < α p +1 , βi > [{δ1, δ2, …, δi}], 1 ≤ i ≤ n.
= <αp+1, βi> – ∑
r =1 || β r ||2
< β r , βi > –
|| βi ||2
< βi , β i > +
Teorema 5.7.
p
< α p +1 , β r >
– ∑
r =i +1 || β r || 2
< β r , βi >
Sea V un espacio euclídeo. Si V es finito dimensional entonces V tiene una
i −1 < α p +1 , β r > < α p +1 , βi > base ortonormal.
= <αp+1, βi> – ∑
r =1 || β r ||2
.0 –
|| βi ||2
< β i , βi > +
Demostración
p
< α p +1 , β r >
– ∑
r =i +1 || β r ||2
.0 (Por hipótesis de inducción) Sea Dim(V) = n y B = {α1, α2, …, αn} una base de V. Por el teorema anterior
se tiene que a partir de B se puede construir un conjunto {δ1, δ2, …, δn}
< α p +1 , βi > ortonormal y por consiguiente L.I. Luego, {δ1, δ2, …, δn} es una base
= <αp+1, βi> – || βi ||2
|| βi ||2 ortonormal de V.
= <αp+1, βi> – <αp+1, βi> = 0.
Ejemplo 5.7.
Luego, el conjunto S1 = {β1, β2, …, βn} es ortogonal y βi ≠ θ, 1 ≤ i
Construyamos una base ortonormal en ℜ3 comenzando con la base:
β
≤ n. Si definimos los vectores δ1, δ2, …, δn∈V tales que δi = i
|| βi || ⎧ ⎡1⎤ ⎡ 0⎤ ⎡1⎤ ⎫
entonces el conjunto {δ1, δ2, …, δn} es ortogonal y por el teorema ⎪ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎪
⎨α1 = ⎢1⎥, α 2 = ⎢1⎥, α 3 = ⎢0⎥ ⎬
5.4., el conjunto {δ1, δ2, …, δn} es ortonormal. ⎪ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ ⎢⎣1⎥⎦ ⎪
⎩ ⎭
2. Por el apartado anterior se cumple que:
Aplicamos Gram-Schmidt:
β1 = α1
< α 2 , β1 > < α 2 , β1 > < α 2 , β1 > ⎡1⎤
β2 = α2 – β1 = α2 – α1 = – α1 + α2
|| β1 ||2 || β1 ||2 || β1 ||2 ⎢ ⎥
β1 = α1 = ⎢1⎥
< α 3 , β1 > < α3 ,β2 > ⎢⎣0⎥⎦
β3 = α3 – β1 – β2
|| β1 ||2 || β 2 ||2
< α 2 , β1 >
< α 3 , β1 > < α3 ,β2 > < α 2 , β1 > β2 = α2 – β1
β3 = α3 – α1 – (α2 – α1) || β1 ||2
|| β1 ||2 || β 2 ||2 || β1 ||2
⎡0 ⎤ ⎡1⎤ ⎡0⎤ ⎡1⎤ ⎡0⎤ ⎡ 1 2 ⎤ ⎡ − 1 2 ⎤
β3 = α3 –
< α 3 , β1 >
α1 –
< α3 ,β2 >
α2 +
< α 3 , β 2 > < α 2 , β1 >
α1 ⎢ ⎥ (0.1 + 1.1 + 1.0) ⎢ ⎥ ⎢ ⎥ 1 ⎢ ⎥ ⎢ ⎥ ⎢ 1 ⎥ ⎢ 1 ⎥
= ⎢1⎥ − 2 2 1 = 1 − 1 = 1 −⎢ ⎥ = ⎢ ⎥
|| β1 ||2 || β 2 ||2 || β 2 ||2 || β1 ||2 1 + 1 + 02 ⎢ ⎥ ⎢ ⎥ 2 ⎢ ⎥ ⎢ ⎥ ⎢ 2⎥ ⎢ 2⎥
⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ 0 1
< α 3 , β 2 > < α 2 , β1 > < α 3 , β1 > < α 3 , β2 > ⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦
β3 = ( – )α1 – α2 + α3
|| β 2 ||2 || β1 ||2 || β1 ||2 || β 2 ||2 < α 3 , β1 > < α3 ,β2 >
β3 = α3 – β1 – β2
En general, existen escalares c1, c2, …, cn∈K tales que: || β1 ||2 || β 2 ||2
186 187
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Luego, 1
∫
2 1
||β1 ( t ) || =< 1,1 >= dt = t 0 = 1
0
2 2
β1 = 1 + 1 + 0 = 2 2 1 1 2t − 1
⇒ β2(t) = t – .1 = t – =
2 2 2
β2 = (− 1 2 ) + (1 2 ) + 1 =
2 2
2 3
2
= 6
2 β3(t) = α3(t) –
< α 3 ( t ), β1 ( t ) >
β1 ( t ) –
< α 3 ( t ), β 2 ( t ) >
β2 (t )
||β1 ( t ) ||2 ||β 2 ( t ) ||2
β3 = (2 3 ) + (− 2 3 ) + (2 3 )
2 2 2
= 12
9
= 4
3
= 2
3
=2 3
3 1 t3
1
1
< α 3 ( t ), β1 ( t ) >=< t 2 ,1 >= ∫ t dt =
2
=
0 3 0
3
Por consiguiente, 1
2t − 1 1 2t − 1 1 t2 t 4 t3 1 1 3− 2 1
⎡ 2 ⎤
< α 3 ( t ), β 2 ( t ) >=< t 2 ,
2 ∫
>= t 2 (
0 2 0 ∫
)dt = ( t 3 − )dt = −
2 4 6
= − =
4 6 12
=
12
0
⎡1⎤ ⎡1⎤ ⎢ 2 ⎥ 2t − 1 2t − 1 1 2t − 1 1 4t 2 − 4t + 1
1 1 ⎢ ⎥ 2⎢ ⎥ ⎢ 2 ⎥ ||β 2 ( t ) ||2 =< , >= ( ∫) 2 dt = ∫ dt
δ1 = β1 = ⎢1⎥ = 1 =⎢ ⎥ 2 2 2 4
2 ⎢ ⎥ ⎢ 2⎥
0 0
β1 2⎢ ⎥
0
⎣ ⎦ ⎢ 0 ⎥
⎣ ⎦ ⎢ 0 1
⎥ 1 1 t3 t2 t 1 1 1 4−6+3 1
∫ (t
2
⎣⎢ ⎥⎦ = − t + )dt = ( − + ) = − + = =
0 4 3 2 4 0 3 2 4 12 12
⎡− 6 ⎤
⎡− 1 ⎤ ⎡− 1 ⎤ ⎡− 1 ⎤ ⎢ 1
2⎥ 2⎥ 2⎥ ⎢ 6⎥
⎢ ⎢ ⎢ ⎥ 1 2t − 1 1 2t − 1
δ2 =
1
β2 =
1
⎢ 1 ⎥= 2 ⎢ 1 ⎥= 6 ⎢ 1 ⎥=⎢ 6 ⎥ β3(t) = t2 – .1 – 12 ( ) = t2 – – ( )
2⎥ 2⎥ 2⎥ ⎢ 6⎥ 3 1 2 3 2
β2 6 ⎢ 6⎢ 3 ⎢
2 ⎣⎢ 1⎥ ⎢⎣ 1⎥ ⎢⎣ 1⎥ ⎢ 6 ⎥ 12
⎦ ⎦ ⎦ 3 ⎥⎦
⎣⎢ 1 1 6t 2 − 2 − 6t + 3 6t 2 − 6t + 1
= t2 – −t+ = =
⎡ 3 ⎤ 3 2 6 6
⎡ 2 ⎤ ⎡ 2 ⎤ ⎡ 2 ⎤ ⎢ 3 ⎥
3 3 3
1 1 ⎢ 2 ⎥ 3 ⎢ 2 ⎥ 3⎢ 2 ⎥ ⎢ 3 ⎥
δ3 = β3 = ⎢− ⎥ = ⎢− ⎥ = ⎢− ⎥ = ⎢− ⎥ Hallamos ||β3 ( t ) ||2
β3 2 3 ⎢ 2 3⎥ 2 3 ⎢ 2 3⎥ 2 ⎢ 3⎥ ⎢
2
3 ⎥
3 ⎢⎣ 3 ⎥⎦ ⎢⎣ 3 ⎥⎦ ⎢⎣ 3 ⎥⎦ ⎢ 3 ⎥ 6t 2 − 6t + 1 6t 2 − 6t + 1 1 6t 2 − 6t + 1
188 189
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
5.4. PROYECCIÓN ORTOGONAL. Nótese que β = Pr oy Vβ . Esto será demostrado para cualquier vector β∈V en un
próximo teorema.
Definición 5.6.
Ejemplo 5.10.
Sean V un espacio euclídeo, W un subespacio de V finito dimensional,
S = {α1, α2, …, αp} una base ortonormal de W y β∈V. Se define como En relación al ejemplo 5.8., calculemos la proyección ortogonal del vector
proyección ortogonal de β sobre W y se denota por Pr oy Wβ al vector: β(t) = t+2 sobre V = W = P2.
3
p
Pr oyβW( t ) = ∑ < β(t ), δ (t ) > δ (t )
i i
∑
i =1
Pr oy Wβ = < β, α i > α i
1 1
i =1
∫ ∫
⇒ Pr oy βW( t ) = ( ( t + 2).1dt ).1 + ( ( t + 2). 3 (2 t − 1)dt ) 3 (2 t − 1)
0 0
Observación:
1
Pr oy Wβ ∈ W. ∫
+ ( ( t + 2). 5 (6 t 2 − 6t + 1)dt ) 5 (6 t 2 − 6 t + 1)
0
1 1 1
2 t 3 3t 2
Pr oy Wβ =
3
190 191
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
1 1 1 1 1
2.13 3.12 2.0 3 3.0 2 2 3 3
= 3(
3
+
2
− 2.1) − 3 (
3
+
2
− 2.0) = 3 ( + − 2) =
3 2 6 ∫
0
∫
e t . 5 (6 t 2 − 6 t + 1)dt = 5 e t (6 t 2 − 6 t + 1)dt = 6 5 t 2 e t dt − 6 5 te t dt + 5 e t dt
0
∫
0
∫
0
∫
0
1
1 1
6t4
6t 3
11t 2 = 6 5 .(e − 2) − 6 5 .1 + 5 (e − 1) = 6 5 e − 12 5 − 6 5 + 5 e − 5 = (7e − 19) 5
∫ (t + 2).
0
∫
5 (6 t 2 − 6 t + 1)dt = 5 (6 t 3 + 6 t 2 − 11t + 2)dt = 5 (
0
4
+
3
−
2
+ 2t )
⇒ Pr oyβW(t) = (e − 1).1 + (3 − e) 3 . 3 (2t − 1) + (7e − 19) 5 . 5 (6t 2 − 6t + 1)
0
5 3 5 1 1 5
⇒ Pr oy βW( t ) = .1 + . 3 (2t − 1) + 0. 5 (6 t 2 − 6 t + 1) = + (2 t − 1) = t − + = t + 2 Demostración
2 6 2 2 2 2
Como B es una base, por el teorema 4.12. β se puede escribir de manera única
Ejemplo 5.11. como combinación lineal de α1, α2, …, αn, es decir, existen escalares únicos c1,
c2, …, cn ∈ K tales que:
En relación al ejemplo 5.8., calculemos la proyección ortogonal del vector
β(t) = et (β(t)∈V=C[0, 1]) sobre W = P2[0, 1] (W = P2[0, 1] es un subespacio n
de V = C[0, 1] finito dimensional): β= ∑c i =1
i • αi
3
Pr oy βW(t) = ∑ < β(t ), δ (t ) > δ (t )
i =1
i i Luego,
1 1
n n
∫
0
∫
⇒ Pr oyβW(t) = ( e t .1dt ).1 + ( e t . 3 (2t − 1)dt ) 3 (2 t − 1)
0
<β, αj> = < ∑c i • α i , αj > = ∑c i < αi , α j >
i =1 i =1
1 j−1 n
∫
+ ( e t . 5 (6t 2 − 6 t + 1)dt ) 5 (6 t 2 − 6 t + 1) = ∑c
i =1
i < α i , α j > + cj<αj, αj> + ∑c
i = j+1
i < αi , α j >
0
j−1 n
Ahora bien, = ∑ c .0
i =1
i + cj<αj, αj> + ∑ c .0
i = j+1
i = cj<αj, αj> = cj.1 = cj
0 0 0
Definición 5.7.
Luego,
1 Sean V un espacio euclídeo y S un subconjunto no vacío de V. Se define como
∫
0
e t .1dt = e − 1 Complemento Ortogonal de S y se denota por S⊥ al conjunto
S⊥ = {α∈V: α⊥β, ∀ β∈S}
1 1 1
∫e . ∫ ∫
t
3 (2 t − 1)dt = 2 3 te t dt − 3 e t dt = 2 3 .1 − 3 (e − 1) = (3 − e) 3 Observación:
0 0 0
S⊥ ≠ ∅ ya que θ∈S⊥; esto porque θ⊥θ.
192 193
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
<c•α + β, δ> = <c•α, δ> + <β, δ> <α, α1> = 0 ⇒ 1.X1 + 1.X2 = X1 + X2 = 0.
= c<α, δ> + <β, δ> <α, α2> = 0 ⇒ 1.X2 + 1.X3 = X2 + X3 = 0.
= c.0 + 0 = 0. <α, α3> = 0 ⇒ 1.X1 + 1.X3 = X1 + X3 = 0.
Por consiguiente, <c•α + β, δ>∈S⊥ y S⊥ es un subespacio de V. Esto concluye en el siguiente SEL homogéneo:
2. Sea α ∈S∩S⊥. Luego, <α, α> = 0 ⇒ α = θ. Por consiguiente,
S∩S⊥ = {θ}. ⎧ X1 + X 2 = 0
3. Sea {α1, α2, …, αp} una base ortonormal de S. Por el teorema 4.17., ⎪
⎨X 2 + X 3 = 0
se puede expandir esta base a una base B para ℜn ⎪X + X = 0
B = {α1, α2, …, αp, βp+1, βp+2, …, βn}. Por el teorema 5.6., se puede ⎩ 1 3
n Luego,
δ= ∑ < δ, α i > αi
i =1 2X3 = 0 ⇒ X3 = 0.
X2 + X3 = 0 ⇒ X2 + 0 = 0 ⇒ X2 = 0
Pero <δ, αi> = 0, ∀ i = 1, 2, …, p, ya que δ∈S⊥ y αi∈S. Por X1 + X2 = 0 ⇒ X1 + 0 = 0 ⇒ X1 = 0
consiguiente,
Por consiguiente,
n
δ= ∑
i = p +1
< δ, α i > α i
⎡ X1 ⎤ ⎡0⎤
⎢ ⎥ ⎢ ⎥
α = ⎢ X 2 ⎥ = ⎢ 0 ⎥ = θ 3 x1
Luego, {αp+1, αp+2, …, αn} es un conjunto de generadores de S⊥ y ⎣⎢ X 3 ⎦⎥ ⎣⎢0⎦⎥
por ende es una base de S⊥, lo cual significa que
Dim(S⊥) = n – Dim(S).
En consecuencia, S⊥ = {θ3x1}
Ejemplo 5.12.
Nótese que esto ocurre ya que los vectores α1, α2, α3 son L.I.; Dim(S) = 3 y
En relación al ejemplo 5.7., determinemos el complemento ortogonal del Dim(S⊥) = 0.
subconjunto S de V = ℜ3:
194 195
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Ejemplo 5.13. ⎡ 1⎤
⎢ ⎥
En relación al ejemplo 5.7., determinemos el complemento ortogonal del En consecuencia, S⊥ = {X ∈ ℜ3 : X = a ⎢ − 1⎥; a ∈ ℜ}
subconjunto S de V = ℜ3: ⎢⎣ 1⎥⎦
⎧ ⎡1⎤ ⎡0 ⎤ ⎡ 3⎤ ⎫ Nótese que S⊥ ≠ {θ3x1} ya que los vectores α1, α2, α3 son L.D., Dim(S) = 2 y
⎪ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎪ Dim(S⊥) = 1.
S = ⎨α1 = ⎢1⎥, α 2 = ⎢1⎥, α 3 = ⎢3⎥ ⎬
⎪ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎪
⎩ ⎭ Teorema 5.10. (Teorema de Pitágoras)
α∈S⊥ si y sólo si α⊥α1, α⊥α2 y α⊥α3, es decir, <α, α1> = <α, α2> = <α, α3> Sean V un espacio euclídeo y α, β∈V.
= 0.
1. α ⊥ β si y sólo si ||α – β||2 = ||α||2 + ||β||2.
⎡ X1 ⎤ 2. α ⊥ β si y sólo si ||α + β||2 = ||α||2 + ||β||2.
⎢ ⎥
Supongamos que α = ⎢X 2 ⎥ . Luego, Demostración
⎢⎣ X 3 ⎥⎦
1. CN(⇒): Si α ⊥ β entonces ||α – β||2 = ||α||2 + ||β||2.
<α, α1> = 0 ⇒ 1.X1 + 1.X2 = X1 + X2 = 0.
<α, α2> = 0 ⇒ 1.X2 + 1.X3 = X2 + X3 = 0. Por hipótesis, α ⊥ β, es decir, <α, β> = 0.
<α, α3> = 0 ⇒ 3.X1 + 3.X2 = 3X1 + 3X2 = 0.
Por el teorema 5.2., se cumple que
Esto concluye en el siguiente SEL homogéneo: 2 2 2
d 2 (α, β) = α − β = α + β − 2 < α, β > .
⎧ X1 + X 2 = 0
⎪ Luego, ||α – β||2 = ||α||2 + ||β||2 – 2.0 = ||α||2 + ||β||2.
⎨ X 2 + X3 = 0
⎪3X + 3X = 0
⎩ 1 2
CS(⇐): Si ||α – β||2 = ||α||2 + ||β||2 entonces α ⊥ β.
Lo resolvemos: Por hipótesis, ||α – β||2 = ||α||2 + ||β||2 y por el teorema 5.2, se cumple
que ||α – β||2 = ||α||2 + ||β||2 – 2<α, β>. Luego,
⎡1 1 0 0⎤ ⎡1 1 0 0⎤
⎢ ⎥ r3 → r3 −3r1 ⎢ ⎥ ||α||2 + ||β||2 = ||α||2 + ||β||2 – 2<α, β>
⎢ 0 1 1 0 ⎥ ⎯⎯ ⎯ ⎯ → ⎢0 1 1 0 ⎥
⎢ 3 3 0 0⎥ ⎢0 0 0 0 ⎥ ⇒ 2<α, β> = ||α||2 + ||β||2 – ||α||2 – ||β||2
⎣ ⎦ ⎣ ⎦ ⇒ 2<α, β> = 0
⇒ <α, β> = 0
Luego, ⇒α⊥β
196 197
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Por hipótesis, ||α + β||2 = ||α||2 + ||β||2 y por el teorema 5.1, apartado p −1 n
5 se cumple que ||α + β||2 = ||α||2 + ||β||2 + 2<α, β>. Luego, = <β,αp> – ∑ < β, α
i =1
i > .0 – < β, α p > .1 – ∑ < β, α
i = p +1
i > .0
n Pr oyβW
(t)
= (210e − 570) t 2 + (588 − 216e) t + (39e − 105)
<δ, αp> = <β – β W , αp> = <β – ∑ < β, α
i =1
i > α i , αp >
n Igualmente, para calcular Pr oy βW( t⊥) nos valemos del teorema 5.10., apartado 1,
= <β,αp> – < ∑ i =1
< β, α i > α i , αp>
es decir, β(t) = Pr oy βW( t ) + Pr oy βW( t⊥) . Luego,
n
= <β,αp> – ∑ < β, α
i =1
i >< α i , α p >
Pr oy βW( t⊥) =β(t) – Pr oy βW( t )
p −1 n
=<β,αp>– ∑ < β, α
i =1
i >< α i , α p > – < β, α p >< α p , α p > – ∑ < β, α
i = p +1
i >< α i , α p > ⇒ Pr oy βW( t⊥) = et – ( (210e − 570) t 2 + (588 − 216e) t + (39e − 105) )
198 199
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Definición 5.7. p
distancia de β a W, es decir:
= ∑< β,α ><β,α ><α , α >+ < β,α ><β, α ><α , α >
j=1
i j i j i i i i
p
d (β, W ) = min{| d(β, δ); δ ∈ W} + ∑< β,α ><β, α ><α , α >
i j i j
δ
j=i+1
i p
Observación: = ∑< β, α
j=1
i >< β, α j > .0 + (< β, αi >) 2 .1 + ∑< β, α >< β, α
j=i +1
i j > .0
que: p
2. < β, Pr oy Wβ > = < β, ∑ < β, α
i =1
i > αi >
p
d2(β, W) = < β, β > − ∑ (< β, α i >) 2
i =1 Por el teorema 5.3., apartado 3 se tiene que :
Demostración p
< β, Pr oy Wβ > = ∑ < β, α
i =1
i > < β, α i >
d2(β, W) = d2(β, Pr oy Wβ ) p
= ∑ (< β, α i >) 2
Por el teorema 5.2., se cumple que: i =1
2 2 Luego,
d2(β, W) = β + Pr oy Wβ − 2 < β, Proy Wβ >
p p
⇒ d2(β, W) = < β, β > + < Pr oy Wβ , Pr oy Wβ > −2 < β, Proy Wβ > d2(β, W) = < β, β > + ∑ (< β, α
i =1
i >) 2 – 2 ∑ (< β, α
i =1
i >) 2
Ahora bien, p
⇒ d2(β, W) = < β, β > – ∑ (< β, α
i =1
i >) 2
p p
1. < Pr oy Wβ , Pr oy Wβ > = < ∑ < β, α
i =1
i > αi , ∑ < β, α
i =1
i > αi >
p p
= < ∑ < β, α
i =1
i > αi , ∑ < β, α
j=1
j > αj >
p p
< Pr oy Wβ , Pr oy Wβ > = ∑∑ < β, α
i =1 j=1
i >< β, α j >< α i , α j >
200 201
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
5. Sea X∈Mnxp(ℜ) una matriz de datos. Demuestre que: Determine los valores de a y c para que A sea ortogonal.
⎡0 ⎤ ⎡ 3⎤
⎢ ⎥ ⎢ ⎥
11.1. Determine un vector normalizado ortogonal a ⎢2⎥ y ⎢1 ⎥ .
⎢⎣1 ⎥⎦ ⎢⎣2⎥⎦
202 203
CAPÍTULO 5: ESPACIOS EUCLÍDEOS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ 2 ⎤ ⎡1 ⎤ ⎡ 4 ⎤ x
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Determine el elemento de V más cercano a δ = f(x) =Sen( π ), así
11.2. A partir de la base { ⎢1 ⎥ , ⎢2⎥ , ⎢1 ⎥ } construir una base 2
⎢⎣1 ⎥⎦ ⎢⎣4⎥⎦ ⎢⎣2⎥⎦ como también la distancia de f(x) a V.
⎡ 1⎤ ⎡ 0⎤
grado a lo sumo 3 con el producto interno <α, β> = ∫ f (t )g(t )dt , con
0
⎢ ⎥ ⎢ ⎥ α = f(t) y β = g(t). Determine una base del complemento ortogonal del
⎢ − 1⎥ 1
12. Sea W el subespacio generado por y ⎢ ⎥. subespacio generado por p1, p2, siendo p1(x) = 1 y p2(x) = x2.
⎢ 0⎥ ⎢ 2⎥
⎢ ⎥ ⎢ ⎥
⎣⎢ 2⎦⎥ ⎣⎢ −1 ⎦⎥ 18. Sea V = M2x2(ℜ) con el producto interno <A, B> = Traza(ABt).
Consideremos W = {M∈V: Traza(MAt) = Traza(MBt)}, siendo:
12.1. Hallar una base de W⊥.
⎡1 0⎤ ⎡1 1⎤
⎡ 3⎤ A=⎢ ⎥ y B=⎢ ⎥
⎢ ⎥ ⎣0 − 1⎦ ⎣0 1⎦
2
12.2. Expresar ⎢ ⎥ como la suma de un vector de W y de un
⎢ − 1⎥ 18.1. Determine el complemento ortogonal de W.
⎢ ⎥
⎣⎢ 0⎦⎥ ⎡1 1⎤
18.2. Sea C = ⎢ ⎥ . Determine el elemento M∈W tal que d(C,
vector de W⊥. ⎣0 0 ⎦
M) sea mínima.
13. Sean V un espacio euclídeo y α, β∈V tales que ||α|| = ||β||. Demuestre
que α – β es ortogonal a α + β. 19. Sea V = M3x3(ℜ) con el producto interno <A, B> = Traza(ABt) y el
subespacio vectorial H de todas las matrices simétricas. Determine H⊥ y
14. Sean H = {X∈ℜ4: X1 + X2 – 2X3 + 2X4 = 0, X1 + 2X2 – X3 = 0} e su dimensión.
⎡ 2⎤
⎢ ⎥ 20. Sean V el conjunto de funciones polinómicas de grado a lo sumo 3 con
−1
Y= ⎢ ⎥ .
1
⎢ 0⎥ el producto interno <α, β> = ∫
−1
(1 − t 2 )f ( t )g ( t )dt , con α = f(t) y β =g(t)
⎢ ⎥ 2 3
⎣⎢ 1 ⎦⎥ y W = {p∈V: p(x) = ax + bx ; a, b∈ℜ}. Determine el complemento
⊥ ortogonal de W y su dimensión.
14.1. Determine H .
14.2. Determine Pr oy YH . 21. Sea V = M2x2(ℜ).
14.3. Determine Pr oy YH ⊥ . 21.1. Demuestre que <A, B> = Traza(AtB) es un producto interno
Y en V.
14.4. Determine d (Y, Pr oy ) .H
⎡ 1 0⎤ ⎡ −1 0⎤
14.5. Determine d(Y, Pr oy YH ⊥ ) . 21.2. Sean A=⎢ ⎥, B=⎢ ⎥ y
⎣ − 1 0⎦ ⎣ 0 1⎦
15. Sea H = {X∈ℜ4: X1 + X2 – 2X3 + X4 = 0} H = {M∈V: <M, A> = <M, B>}. Demuestre que H es un
subespacio de V.
15.1. Determine una base ortonormal de H. ⎡1 2⎤
15.2. Determine el vector del complemento ortogonal de H más 21.3. Sea C = ⎢ ⎥ . Determine el elemento de H más cercano a
⎣0 1 ⎦
⎡ 2⎤
⎢ ⎥ C y d(C, H).
−1
cercano a β = ⎢ ⎥ . Sea V un espacio euclídeo y H un subespacio vectorial de V.
⎢ 0⎥ 22.
⎢ ⎥ Demuestre que α∈H⊥ si y sólo si d(α, H) = ||α||.
⎢⎣ 3⎥⎦
23. Sea V un espacio euclídeo de dimensión n y E = {α1, α2,…, αp}, con p
16. Sea V el conjunto de funciones polinómicas de grado a lo sumo 2 con < n un conjunto ortonormal de V. Demuestre que ∀β∈V se cumple que
1
∫ f (t )g(t )dt , siendo α = f(t) y β = g(t).
p
el producto interno <α, β> =
0 ∑ < β, α
i =1
i > 2 ≤ || β ||2 .
204 205
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Demostración
Capítulo 6 1. Es claro que θ∈V. Luego,
T(θ) = T(θ+θ) = T(θ)+T(θ).
TRANSFORMACIONES
LINEALES Por otro lado, θ = T(θ) – T(θ). Luego,
condiciones: T( ∑c
i =1
i • αi ) = ∑c
i =1
i • T (α i )
Observación: En efecto,
p +1 p
Una función T: V→W es una T.L. si ∀ α, β∈V, ∀ c∈K se cumple que
T(c•α + β) = c•T(α) + T(β).
T( ∑c
i =1
i • α i ) = T( ∑c
i =1
i • α i + cp+1•α1p+1)
p
Teorema 6.1. = T( ∑c
i =1
i • α i ) + T(cp+1•α1p+1)
n n
∑c ∑c
5. Si U1 es un subespacio de V entonces el conjunto:
T( • αi ) = • T (α i )
T(U1) = {T(α): α∈U1} = {β∈W: β = T(α), para algún α∈U1} i =1
i
i =1
i
es un subespacio de W.
5. Sea U1 un subespacio de V. Veamos que T(U1) así definido es un
6. Si U2 es un subespacio de W entonces el conjunto:
subespacio de W.
T-1(U2) = {α∈V: T(α)∈U2}
es un subespacio de V.
Es claro que θ∈T(U1) ya que θ = T(θ), θ∈U1.
207
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡cX1 ⎤ ⎡X 2 ⎤
6. Sea U2 un subespacio de W. Veamos que T-1(U2) así definido es un ⎢ ⎥ ⎢ ⎥
subespacio de W. = T( ⎢ cY1 ⎥ + ⎢ Y2 ⎥ )
⎢⎣ cZ1 ⎥⎦ ⎢⎣ Z 2 ⎥⎦
Es claro que θ∈T-1(U2) ya que θ∈V y T(θ) = θ∈U2.
⎡cX1 + X 2 ⎤
⎢ ⎥
Sean δ, γ∈T-1(U2) y c∈K. Entonces δ∈V con T(δ)∈U2, γ∈V con = T( ⎢ cY1 + Y2 ⎥ )
T(γ)∈U2. Por lo tanto, (c•δ + γ)∈V, siendo ⎢⎣ cZ1 + Z 2 ⎥⎦
T(c•δ) + T(γ) = T(c•δ + γ)∈U2. Luego, (c•δ + γ)∈T-1(U2) y por
consiguiente, T-1(U2) es un subespacio de V. ⎡ (cX1 + X 2 ) − (cY1 + Y2 ) ⎤
= ⎢ ⎥
⎣(cY1 + Y2 ) + 2(cZ1 + Z 2 )⎦
Ejemplo 6.1.
⎡ cX1 + X 2 − cY1 − Y2 ) ⎤
= ⎢ ⎥
Sean V y W espacios vectoriales sobre K. La función Θ: V→W definida como ⎣cY1 + Y2 + 2cZ1 + 2 Z 2 )⎦
Θ(α) = θ, ∀ α∈V es una T.L., ya que:
⎡ c(X1 − Y1 ) + (X 2 − Y2 ) ⎤
= ⎢ ⎥
Θ(c•α + β) = θ = c•θ + θ = c•Θ(α) + Θ(β) ⎣c(Y1 + 2Z1 ) + (Y2 + 2Z 2 )⎦
Esta T.L. recibe el nombre de Transformación Lineal Nula. ⎡ c(X1 − Y1 ) ⎤ ⎡ X 2 − Y2 ⎤
= ⎢ ⎥+⎢ ⎥
⎣c(Y1 + 2Z1 )⎦ ⎣Y2 + 2 Z 2 ⎦
Ejemplo 6.2.
⎡ X − Y1 ⎤ ⎡ X 2 − Y2 ⎤
= c•⎢ 1 ⎥+⎢ ⎥
Sea V un espacio vectorial sobre K. La función I: V→V definida como ⎣Y1 + 2 Z1 ⎦ ⎣Y2 + 2 Z 2 ⎦
I(α) = α, ∀ α∈V es una T.L., ya que ∀ α,β∈V y c∈K:
= c•T(α) + T(β)
I(c•α+β) = c•α+β = c•I(α)+I(β)
Por tanto, T es una T.L.
Esta T.L. recibe el nombre de Transformación Lineal Identidad.
Teorema 6.2.
Ejemplo 6.3.
Sean V un espacio vectorial finito dimensional con Dim(V) = n y
B = {α1, α2, …, αn} una base de V. Sean W un espacio vectorial y
Sea T: ℜ →ℜ la función definida por:
3 2
β1, β2, …, βn∈W. Supongamos que T1 y T2 son T.L. Tj: V→W; j = 1, 2, tales
que T1(αi) = T2(αi) = βi, ∀ i = 1, 2, …, n. Entonces se cumple que ∀α∈V,
⎡X ⎤ ⎡X ⎤ T1(α) = T2(α).
⎢ ⎥ ⎡ X−Y ⎤ ⎢ ⎥
⎥,∀ ⎢Y ⎥ ∈ℜ .
3
T( ⎢Y ⎥ ) = ⎢
⎢⎣ Z ⎥⎦ ⎣ Y + 2 Z⎦ ⎢⎣ Z ⎥⎦ Demostración
⎡ X − Y2 ⎤
T(β) = ⎢ 2 ⎥
⎣Y2 + 2 Z 2 ⎦ Igualmente,
208 209
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Por (1) y (2) se concluye que Img(T) = [{T(α1), T(α2), …, T(αn)}], es decir,
Luego, ∀α∈V, T1(α) = T2(α). Img(T) es finito dimensional.
6.3. KERNEL, IMAGEN, NULIDAD Y RANGO. Definición 6.4.
Definición 6.2. Sean V y W espacios vectoriales sobre K tales que V es finito dimensional y
T: V→W una T.L. Se define como Nulidad de T y se denota por Nul(T) a la
Sea T: V→W una T.L. Se define como Núcleo o Kernel de T y se denota por dimensión del Kernel de T, es decir, Nul(T) = Dim(Ker(T)).
Ker(T) al conjunto:
Definición 6.5.
Ker(T) = {α∈V: T(α) = θ}
Sean V y W espacios vectoriales sobre K tales que V es finito dimensional y
Definición 6.3. T: V→W una T.L. Se define como Rango de T y se denota por Ran(T) a la
dimensión de la Imagen de T, es decir, Ran(T) = Dim(Img(T)).
Sea T: V→W una T.L. Se define como Imagen de T y se denota por Img(T) al
conjunto: Ejemplo 6.4.
Img(T) = {T(α): α∈V} = {β∈W: β = T(α), para algún α∈V} En el ejemplo 6.3.:
Observación:
⎡X ⎤ ⎡X ⎤
⎢ ⎥ ⎡ X−Y ⎤ ⎢ ⎥
Es sencillo demostrar que Ker(T) e Img(T) son subespacios de V y W, T: ℜ3→ℜ2 definida por T( ⎢Y ⎥ ) = ⎢ ⎥,∀ ⎢Y ⎥ ∈ℜ es una T.L.
3
Demostración ⎡a ⎤ ⎡ X − X2 ⎤ ⎡a ⎤
⇒ ⎢ ⎥ ∈Img(T) si y sólo si ⎢ 1 ⎥ = ⎢ ⎥
⎣ ⎦
b ⎣ 2
X + 2 X 3⎦ ⎣b⎦
Se sabe que Ker(T) e Img(T) son subespacios de V y W, respectivamente.
Supongamos que Dim(V) = n y sea B = {α1, α2, …, αn} una base de V. Como ⎡a ⎤ ⎧ X1 − X 2 = a
⇒ ⎢ ⎥ ∈Img(T) si y sólo si el SEL ⎨ es consistente.
⎩X 2 + 2 X 3 = b
V es finito dimensional entonces por definición Ker(T)⊆B, luego por el
⎣b⎦
teorema 4.14., apartado 1, Dim(Ker(T)) ≤ n. Por consiguiente, Ker(T) es
finito dimensional. Veamos ahora que Img(T) = [{T(α1), T(α2), …, T(αn)}].
⎡1 − 1 0 a ⎤ ⎡1 0 2 a + 2b ⎤
⎢ ⎥ r1 → r1 + r2 ⎢ ⎥
Es claro que por definición de Img(T), [{T(α1), T(α2), …, T(αn)}] ⊆ Img(T) ⎢⎣0 1 2 b ⎥⎦ ⎢⎣0 1 2 b ⎥⎦
(1).
Por lo tanto,
Sea β∈Img(T). Entonces existe α∈V tal que T(α) = β.
Por otra parte como B es una base de V se tiene que existen escalares c1, c2, …,
⎡1 0 2⎤ ⎡1 0 2 a + 2b ⎤
⎥ ) = Rango( ⎢
n
Rango( ⎢ ⎥
cn∈K tales que α = ∑
i =1
c i • α i , ci∈K. Por lo tanto, ⎣ 0 1 2 ⎦ ⎣0 1 2 b ⎦
n n
T(α) = T( ∑c
i =1
i • αi ) = ∑c
i =1
i • T (α i ) = β Independientemente de los valores de a y b. En consecuencia,
210 211
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡a ⎤ Demostración
Img(T) = { ⎢ ⎥ ∈ℜ2: a∈ℜ y b∈ℜ} = ℜ2.
⎣b⎦ Supongamos que Dim(V) = n y sea B = {α1, α2, …, αn} una base de V. Como
B es una base de V se tiene que existen escalares c1, c2, …, cn∈K tales que
⎡a ⎤ ⎡a ⎤ ⎡0⎤ ⎡1⎤ ⎡0 ⎤ n
⇒ ⎢ ⎥ = ⎢ ⎥ + ⎢ ⎥ = a• ⎢ ⎥ + b• ⎢ ⎥
⎣b⎦ ⎣0 ⎦ ⎣b⎦ ⎣0 ⎦ ⎣1⎦
α= ∑c
i =1
i • α i , ci∈K; ∀ i = 1, 2, …, n y α∈V. Por lo tanto,
⇒ Ran(T) = Dim(Img(T)) = 2 n n
⇒ ⎢X 2 ⎥ ∈Ker(T) si y sólo si ⎨
⎢⎣ X 3 ⎥⎦ ⎩X 2 + 2 X 3 = 0 n
=θ+ ∑ c • T (α )
i = p +1
i i
⎡ X1 ⎤
⎢ ⎥ ⎧ X1 = X 2 n
⇒ ⎢X 2 ⎥ ∈Ker(T) si y sólo si ⎨
⎩X 2 = −2X 3
= ∑ c • T (α )i i
⎢⎣ X 3 ⎥⎦ i = p +1
Nótese que Ran(T) + Nul(T) = 2 + 1 = 3 = Dim(ℜ3) Como B = {α1, α2, …, αn} es una base de V por el teorema 4.12., se cumple
n
Teorema 6.4.
que ∀ α∈V, existen escalares únicos c1, c2, …, cn∈K tales que α = ∑c i =1
i • αi .
212 213
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n n n ⇒ a = c1 – c2 y b = c2 ⇒ c1 = a + b y c2 = b.
T(α) = T( ∑c
i =1
i • αi ) = ∑c
i =1
i • T (α i ) = ∑c •β
i =1
i i
⎡a ⎤ ⎡1⎤ ⎡−1⎤
⇒ ⎢ ⎥ = (a+b)• ⎢ ⎥ + b• ⎢ ⎥
Veamos que T es una T.L. ⎣b⎦ ⎣0 ⎦ ⎣ 1⎦
n n
⎡a ⎤ ⎡1 ⎤ ⎡−1⎤
Sean α = ∑c i • αi , δ = ∑d i • α i , con d1, d2, …, dn∈K y c∈K. ⇒ T( ⎢ ⎥ ) = T((a+b)• ⎢ ⎥ + b• ⎢ ⎥ )
i =1 i =1 ⎣b⎦ ⎣0 ⎦ ⎣ 1⎦
⎡1⎤ ⎡−1⎤
Ahora bien, = (a+b)T( ⎢ ⎥ ) + bT( ⎢ ⎥ )
⎣ ⎦
0 ⎣ 1⎦
n n n
⎡ −1 ⎤ ⎡0 ⎤
T(c•α+δ) = T(c• ∑c
i =1
i • αi + ∑d i =1
i • α i ) = T( ∑ (cc + d ) • α
i =1
i i i ⎢ ⎥ ⎢ ⎥
= (a+b)• ⎢ 2⎥ + b• ⎢1⎥
n ⎢⎣ 3⎥⎦ ⎢⎣0⎥⎦
= ∑ (cc + d ) • T(α )
i =1
i i i
⎡ −a − b ⎤ ⎡0⎤
⎢ ⎥ ⎢ ⎥
n
= ⎢ 2a + 2 b ⎥ + ⎢ b ⎥
= ∑ (cc + d ) • β
i =1
i i i
⎢⎣ 3a + 3b ⎥⎦ ⎢⎣0⎥⎦
n n
⎡ −a − b ⎤
= c ∑c •β + ∑d
i =1
i i
i =1
i • βi ⎢
= ⎢ 2a + 3b ⎥
⎥
n n ⎢⎣ 3a + 3b ⎥⎦
= c ∑ c • T (α ) + ∑ d
i =1
i i
i =1
i • T (α i )
= cT(α) + T(δ) Luego, si existe una T.L. T: ℜ2→ℜ3 que cumple con ambas condiciones y
⎡ −a − b ⎤
Veamos ahora que T es única. Sea S: V→W otra T.L. tal que: ⎡a ⎤ ⎢ ⎥
además tiene por regla de correspondencia T( ⎢ ⎥ ) = ⎢ 2a + 3b ⎥ .
⎣ ⎦
b
⎢⎣ 3a + 3b ⎥⎦
S(αj) = βj, j = 1, 2, …, n.
1. Monomorfismo si T es inyectiva.
Ejemplo 6.5. 2. Epimorfismo si T es sobreyectiva.
3. Isomorfismo si T es biyectiva.
⎡ −1 ⎤
⎡1⎤ ⎢ ⎥
Determinemos si existe una T.L. T: ℜ2→ℜ3 tal que T( ⎢ ⎥ ) = ⎢ 2⎥ y Teorema 6.6.
⎣0 ⎦ ⎢⎣ 3⎥⎦
Sea T: V→W una T.L. T es un Monomorfismo si y sólo si Ker(T) = {θ}.
⎡0 ⎤
⎡−1⎤ ⎢ ⎥ ⎡1 ⎤ ⎡−1⎤ Demostración
⎢ ⎥ y ⎢ ⎥ forman una base de ℜ .
2
T( ⎢ ⎥ ) = ⎢1⎥ . Veamos primero que
⎣ 1⎦ ⎢⎣0⎥⎦ ⎣ ⎦
0 ⎣ 1⎦
CN(⇒): Si T es un Monomorfismo entonces Ker(T) = {θ}.
⎡a ⎤ ⎡1 ⎤ ⎡−1⎤ ⎡c1 ⎤ ⎡ −c 2 ⎤ ⎡c1 − c 2 ⎤ Sea α∈Ker(T). Entonces T(α) = θ. Pero también T(θ) = θ. Como T es un
⎢ ⎥ = c1• ⎢ ⎥ + c2• ⎢ ⎥ = ⎢ ⎥ + ⎢ ⎥ = ⎢ ⎥ Monomorfismo entonces T es inyectiva. Luego, α = θ. Por consiguiente,
⎣ ⎦
b ⎣ ⎦
0 ⎣ ⎦
1 ⎣ ⎦
0 ⎣ c 2 ⎦ ⎣ c2 ⎦ Ker(T) = {θ}.
214 215
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Si T es un Monomorfismo entonces Ker(T) = {θ}. Por consiguiente, T(α) = T(c1•α1 + c2•α2 + … + cn•αn)
Nul(T) = 0, lo cual significa que Ran(T) = Dim(V) – 0 = n = Dim(W). Esto = c1•T(α1) + c2•T(α2) + … + cn•T(αn)
significa que Img(T) = W, es decir, que T es sobreyectiva. Por lo tanto, T es un = c1•β1 + c2•β2 + … + cn•βn
Epimorfismo.
Luego, {β1, β2, …, βn} = {T(α1), T(α2), …, T(αn)} es un conjunto de
CS(⇐): Si Dim(V) = Dim(W) = n y T es un Epimorfismo entonces T es un generadores de Img(T). Por el teorema 4.14. apartado 2 se cumple
Monomorfismo.
216 217
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
que n ≥ Dim(Img(T)), es decir, n ≥ Ran(T), osea Ran(T) ≤ n. Como αh∈ℜm, lo cual significa que αh∈Mmx1(ℜ) y además (αh)ij = (AT)ih
m > n entonces Img(T) ≠ W, lo cual es una contradicción.
Ahora bien,
Definición 6.7.
AT∈Mmxn(ℜ)
Sean V y W espacios vectoriales sobre K. Se dice que V y W son isomorfos y eh∈Mnx1(ℜ),∀ h = 1, 2, …, n.
se escribe V ≅ W si existe un Isomorfismo T: V→W.
Por consiguiente,
Observación:
(ATeh)∈Mmx1(ℜ) y además:
Sean V y W espacios vectoriales sobre K finito dimensionales. V ≅ W si y
sólo si Dim(V) = Dim(W). n
(ATeh)ij = ∑ (A
r =1
T ) ir (e
h
) rj
Ejemplo 6.7.
= (A T ) i1 (e h )1 j + L + (A T )ih (e h ) hj + L + (A T )in (e h ) nj
K4 ≅ M2x2(K), ya que se puede verificar fácilmente que la función T:
= (A T )i1.0 + L + (A T )ih .1 + L + (A T )in .0 = (A T )ih
K4→M2x2(K) definida por:
= (αh)ij
⎡a ⎤
⎢ ⎥ Es decir,
b ⎡a b ⎤
T( ⎢ ⎥ ) = ⎢ ⎥
⎢c⎥ ⎣c d⎦ ATeh = αh = T(eh)
⎢ ⎥
⎣⎢d ⎦⎥
Por el teorema 6.2., ∀ α∈ℜn, T(α) = ATα.
es un isomorfismo.
Veamos que AT es única. Supongamos que existen matrices AT∈Mmxn(ℜ) y
En general se cumple que Kmn ≅ Mmxn(K). BT∈Mmxn(ℜ) tales que ∀ α∈ℜn, T(α) = ATα = BTα. Sea CT = AT – BT. Luego,
CTα = (AT – BT)α = ATα – BTα = ATα – ATα = θmx1, ∀ α∈ℜn. En particular,
6.5. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL CTeh = θmx1, ∀ h = 1, 2, …, n. Pero, CTeh es la h-ésima columna de CT. De esta
T: ℜn→ℜm. forma cada una de las n columnas de CT es el vector nulo θmx1 y CT = θmxn. Por
consiguiente, AT – BT = θmxn, es decir, AT = BT.
Teorema 6.9.
Ejemplo 6.8.
Sea T: ℜn→ℜm una T.L. Entonces existe una matriz única AT∈Mmxn(ℜ)
denominada matriz de la transformación T tal que ∀ α∈ℜn se cumple que Como se demostró anteriormente la función T: ℜ3→ℜ2 definida por:
T(α) = ATα.
⎡X ⎤ ⎡X ⎤
Demostración ⎢ ⎥ ⎡ X−Y ⎤ ⎢ ⎥
⎥,∀ ⎢Y ⎥ ∈ℜ .
3
T( ⎢Y ⎥ ) = ⎢
⎢⎣ Z ⎥⎦ ⎣ Y + 2 Z⎦ ⎢⎣ Z ⎥⎦
Como se sabe α∈ℜn en notación matricial es α∈Mnx1(ℜ).
Sea αh = T(eh), ∀ h = 1, 2, …, n, siendo {e1, e2, …, en} la base canónica de ℜn. es una T.L.
Sea AT la matriz cuyas columnas son α1, α2, …, αn. Luego,
Determinemos la matriz AT. Como n = 3 y m = 2 entonces AT∈M2x3(ℜ).
⎡ (A T )1h ⎤ Luego, ∀ α∈ℜn se cumple que T(α) = ATα. Por consiguiente:
⎢ ⎥
(A )
α h = ⎢ T 2 h ⎥ ; ∀ h = 1, 2, …, n ⎡X ⎤
⎢ M ⎥ ⎡ A11 A12 A13 ⎤ ⎢ ⎥ ⎡ X − Y ⎤
⎢ ⎥ ⎢ ⎥ Y =⎢ ⎥
⎣⎢(A T ) mh ⎦⎥ ⎣A 21 A 22 A 23 ⎦ ⎢ ⎥ ⎣Y + 2Z⎦
⎢⎣ Z ⎥⎦
Es decir,
218 219
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ A X + A12 Y + A13 Z ⎤ ⎡ X − Y ⎤ ⎡ c1 ⎤
⇒ ⎢ 11 ⎥=⎢ ⎥ ⎢ ⎥
⎣A 21X + A 22 Y + A 23 Z⎦ ⎣Y + 2Z⎦ c
[α]B = ⎢ 2 ⎥
⎢M⎥
A11X + A12 Y + A13 Z = X − Y ⎢ ⎥
⇒
A 21X + A 22 Y + A 23 Z = Y + 2 Z ⎢⎣c n ⎥⎦
A11 = 1, A12 = −1, A13 = 0
⇒ Observación:
A 21 = 0, A 22 = 1, A 23 = 2
⎡1 −1 0⎤ Nótese que ([α]B)ij = ci.
⇒ AT = ⎢ ⎥
⎣0 1 2 ⎦ Definición 6.9.
Teorema 6.10. Sea V un espacio vectorial sobre K finito dimensional con Dim(V) = n y sean
B1 = {α1, α2, …, αn} y B2 = {β1, β2, …, βn} bases de V. ∀ αj∈B1;
Sea T: ℜ →ℜ una T.L. y AT∈Mmxn(ℜ) su matriz asociada. Entonces se
n m
j = 1, 2, …, n existen escalares únicos c1j, c2j, …, cnj∈K tales que
cumple que: n
αj = ∑c
i =1
ij • βi . Se define como matriz de transición de la base B1 a la base B2
1. Img(T) = I A t = C A T .
y se denota por [α ]B12 a la matriz [α ]B12 ∈Mnxn(K) siguiente:
B B
2. Ran(T) = r(AT).
3. Ker(T) = N AT .
4. Nul(T) = n(AT). ⎡ c11 c12 L c1n ⎤
⎢ ⎥
c 22 L c 2 n ⎥
[α]BB
c
Demostración
2
= ⎢ 21
1 ⎢ M M M ⎥
⎢ ⎥
1. Por definición, Img(T) = {β∈ℜm: β = T(α), para algún α∈ℜn} y a ⎣⎢ n1 n 2
c c L c nn ⎦⎥
su vez T(α) = ATα. Luego,
Observación:
Img(T) = {β∈ℜm: β = ATα, para algún α∈ℜn} = I A t = C A T .
Nótese que ( [α ]B12 )ij = cij.
B
2. Por definición, Ran(T) = Dim(Img(T)) = Dim ( I A t ) = r(AT).
3. Por definición, Ker(T) = {α∈ℜn: T(α) = θmx1} y a su vez
Ejemplo 6.9.
T(α) = ATα. Luego,
⎡2⎤ ⎡ 1⎤ ⎡1 ⎤ ⎡0 ⎤
Ker(T) = {α∈ℜn: ATα = θmx1} = N AT Sea V = ℜ2 y B1 = { α1 = ⎢ ⎥ , α 2 = ⎢ ⎥ } y B2 = { β1 = ⎢ ⎥ , β 2 = ⎢ ⎥ }
⎣ ⎦
1 −
⎣ ⎦1 ⎣ ⎦
2 ⎣1⎦
bases de V. Determinemos la matriz de transición de B1 a B2.
4. Por definición, Nul(T) = Dim(Ker(T)) = Dim( N A T ) = n(AT).
Hallemos los valores de c11, c12, c21, c22 tales que:
6.6. MATRIZ DE UNA TRANSFORMACIÓN LINEAL T: V→W
RELATIVA A BASES DE V Y W. α1 = c11 • β1 + c 21 • β 2 y α 2 = c12 • β1 + c 22 • β 2
Definición 6.8.
⎡ 2⎤ ⎡1 ⎤ ⎡0⎤ ⎡ c11 ⎤ ⎡ 0 ⎤ ⎡ c11 ⎤
⎢ ⎥ = c11 ⎢ ⎥ + c 21 ⎢ ⎥ = ⎢ ⎥+⎢ ⎥=⎢ ⎥
Sea V un espacio vectorial sobre K finito dimensional con Dim(V) = n y sea ⎣1 ⎦ ⎣ 2⎦ ⎣1⎦ ⎣2c11 ⎦ ⎣c 21 ⎦ ⎣2c11 + c 21 ⎦
B = {α1, α2, …, αn} una base de V. ∀ α∈V existen escalares únicos
n
⇒ c11 = 2; 1 = 2c11 + c 21 ⇒ 1 = 2.2 + c 21 ⇒ 1 = 4 + c 21 ⇒ c 21 = −3
c1, c2, …, cn∈K tales que α = ∑ c i • α i . Se define como matriz de ⎡ 1⎤ ⎡1 ⎤ ⎡0⎤ ⎡ c12 ⎤ ⎡ 0 ⎤ ⎡ c12 ⎤
i =1 ⎢ ⎥ = c12 ⎢ ⎥ + c 22 ⎢ ⎥ = ⎢ ⎥+⎢ ⎥ = ⎢ ⎥
coordenadas del vector α relativa a la base B y se denota por [α]B a la matriz ⎣ − 1⎦ ⎣ 2⎦ ⎣1⎦ ⎣2c12 ⎦ ⎣c 22 ⎦ ⎣2c12 + c 22 ⎦
[α]B∈Mnx1(K) siguiente: ⇒ c12 = 1; − 1 = 2c12 + c 22 ⇒ − 1 = 2.1 + c 22 ⇒ − 1 = 2 + c 22 ⇒ c 22 = −3
220 221
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ 2 1⎤
[α]BB 2
=⎢ ⎥
Por el teorema 6.11., se tiene que:
⎣ − 3 − 3⎦
1
[α]B = [α]BB [α ]B 2
1 2 1 1
⇒ [α ]B – [α ]B [α ]B [α ]B = θnx1
2 1 1 B B 1 2
1 2 1 1
α = c1 • α1 + c 2 • α 2 + ... + c n • α n
α 2 = c12 • β1 + c 22 • β 2 + ... + .c n 2 • β n
M Definición 6.10.
α n = c1n • β1 + c 2 n • β 2 + ... + .c nn • β n
Sean V y W espacios vectoriales finito dimensionales sobre K con Dim(V) = n
Sustituyendo en la ecuación anterior se obtiene que: y Dim(W) = m y B1 = {α1, α2, …, αn} y B2 = {β1, β2, …, βm} bases de V y W,
respectivamente. Sea T: V→W una T.L. ∀ j = 1, 2, …, n, T(αj)∈W, por lo cual
α = c1 • (c11 • β1 + c 21 • β 2 + ... + .c n1 • β n ) + c 2 • (c12 • β1 + c 22 • β 2 + ... + .c n 2 • β n ) m
Luego, [T]BB 2
1
= [ [T(α1 )]B2 [T(α 2 )]B 2
L [T(α n )]B 2
]
⎡ d1 ⎤ ⎡ c11c1 + c12c 2 + ... + c1n c n ⎤ ⎡ c11 c12 L c1n ⎤ ⎡ c1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ Observaciones
c c + c c + ... + c 2 n c n ⎥ ⎢c 21 c 22 L c 2 n ⎥ ⎢c 2 ⎥
[α]B = [α ]B12 [α ]B1
d
= ⎢ 2 ⎥ = ⎢ 21 1 22 2 =
B
⎢M⎥ ⎢ M ⎥ ⎢ M M M ⎥⎢ M ⎥
[T]BB
2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ 1. 2
ij = Aij; ∀ i = 1, 2, …, m, j = 1, 2, …, n.
⎣⎢d n ⎦⎥ ⎣⎢c n1c1 + c n 2 c 2 + ... + c nn c n ⎦⎥ ⎣⎢c n1 c n 2 L c nn ⎥⎦ ⎢⎣c n ⎥⎦
1
Ran(T) = r( [T ]B12 )
B
2.
Teorema 6.12.
Nul(T) = n( [T ]B12 )
B
3.
Sea V un espacio vectorial sobre K finito dimensional con Dim(V) = n y sean
B1 = {α1, α2, …, αn} y B2 = {β1, β2, …, βn} bases de V. Entonces se cumple 4. [T(α)]B = [T]BB [α]B
2
2
1 1
que: m
[α]BB 1
= ([α ]B12 ) −1
B
5. T(α) = ∑ ([T(α)]
i =1
B2 ) i β i
2
222 223
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ ⎡0 ⎤ ⎤ ⎡1⎤
⎡X ⎤ [T(α 3 )]B = ⎢⎢ ⎥ ⎥ = ⎢ ⎥
⎢ ⎥ ⎡X − Y ⎤ 2
⎢⎣ ⎣1⎦ ⎥⎦ B2 ⎣1⎦
T( ⎢Y ⎥ ) = ⎢ ⎥
⎢⎣ Z ⎥⎦ ⎣Y + Z⎦ Luego,
⎡3 3 1⎤
Sean: [T]BB 2
= ⎢ ⎥
⎣1 4 1⎦
1
⎡ 1⎤ ⎡0 ⎤ ⎡0 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Nótese que: T(α1) = 3•β1 + 1•β2; T(α2) = 3•β1 + 4•β2 y T(α3) = 1•β1 + 1•β2
B 1 = { α 1 = ⎢ − 1 ⎥ , α 2 = ⎢1 ⎥ , α 3 = ⎢ 0 ⎥ } Ahora bien,
⎢⎣ 2⎥⎦ ⎢⎣3⎥⎦ ⎢⎣1⎥⎦
⎡1 ⎤ ⎡−1⎤ ⎡X ⎤ ⎡ 1⎤ ⎡0 ⎤ ⎡0 ⎤
B2 = { β1 = ⎢ ⎥ , β 2 = ⎢ ⎥ } ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
α = c1 • α1 + c 2 • α 2 + c 3 • α 3 ⇒ ⎢Y ⎥ = c1 • ⎢ − 1 ⎥ + c 2 • ⎢1⎥ + c3 • ⎢0⎥
⎣ ⎦
0 ⎣ 1⎦
⎢⎣ Z ⎥⎦ ⎢⎣ 2⎥⎦ ⎢⎣3⎥⎦ ⎢⎣1⎥⎦
Tales que B1 y B2 son bases de ℜ3 y ℜ2, respectivamente.
⎡ X ⎤ ⎡ c1 ⎤ ⎡ 0 ⎤ ⎡ 0 ⎤ ⎡X ⎤ ⎡ c1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⇒ ⎢ Y ⎥ = ⎢ − c1 ⎥ + ⎢ c 2 ⎥ + ⎢ 0 ⎥ ⇒ ⎢Y ⎥ = ⎢ − c1 + c 2
Determinemos [T ] . ⎥
B2
B1
⎢⎣ Z ⎥⎦ ⎢⎣ 2c1 ⎥⎦ ⎢⎣3c 2 ⎥⎦ ⎢⎣c3 ⎥⎦ ⎢⎣ Z ⎥⎦ ⎢⎣ 2c1 + 3c 2 + c3 ⎥⎦
⇒ c1 = X
⎡a ⎤ ⎡1 ⎤ ⎡−1⎤ ⎡c1 ⎤ ⎡ −c 2 ⎤ ⎡c1 − c 2 ⎤
⎢ ⎥ = c1•β1 + c2•β2 = c1• ⎢ ⎥ + c2• ⎢ ⎥ = ⎢ ⎥ + ⎢ ⎥ = ⎢ ⎥ Y = –c1 + c2 ⇒ Y = –X + c2 ⇒ c2 = X + Y
⎣ ⎦
b ⎣ ⎦
0 ⎣ ⎦
1 ⎣ ⎦
0 ⎣ 2⎦
c ⎣ c2 ⎦ Z = 2c1 + 3c2 + c3 ⇒ Z = 2X + 3(X + Y) + c3 ⇒ Z = 2X + 3X + 3Y + c3
⇒ Z = 5X + 3Y + c3 ⇒ c3 = –5X – 3Y + z
⇒ a = c1 – c2 y b = c2 ⇒ a = c1 – b y c2 = b ⇒ c1 = a + b y c2 = b.
Luego,
⎡ ⎡a ⎤ ⎤ ⎡a + b ⎤
⇒ ⎢⎢ ⎥⎥ = ⎢ ⎥ ⎡ X ⎤
⎣⎢ ⎣ ⎦ ⎦⎥ B2 ⎣ b ⎦
b ⎢ ⎥
[α]B1
=⎢ X+Y ⎥
⎢⎣ − 5X − 3Y + Z⎥⎦
⎡ 1⎤
⎢ ⎥ ⎡ 2⎤
T(α1) = T( ⎢ − 1 ⎥ ) = ⎢ ⎥ Por otra parte,
⎢⎣ 2⎥⎦ ⎣1 ⎦
⎡0 ⎤ ⎡X ⎤
⎡ ⎡a ⎤ ⎤ ⎡a + b ⎤ ⎢ ⎥ ⎡X − Y ⎤
⎢ ⎥ ⎡ −1 ⎤ ⎢⎢ ⎥⎥ = ⎢ ⎥
T(α2) = T( ⎢1⎥ ) = ⎢ ⎥ y además T( ⎢Y ⎥ ) = ⎢ Y + Z ⎥ . Por lo tanto,
⎣ 4⎦ ⎢⎣ ⎣b ⎦ ⎥⎦ B2 ⎣ b ⎦ ⎢⎣ Z ⎥⎦ ⎣ ⎦
⎢⎣3⎥⎦
⎡0 ⎤
⎢ ⎥ ⎡0 ⎤ ⎡ ⎛ X ⎞⎤
T(α3) = T( ⎢0⎥ ) = ⎢ ⎥ ⎢ ⎜ ⎟⎥ ⎡⎛ X − Y ⎞⎤ ⎡ X − Y + Y + Z⎤ ⎡ X + Z⎤
⎣1 ⎦ ⎢T ⎜ Y ⎟ ⎥ = ⎢⎜⎜ ⎟⎟⎥ = ⎢ ⎥=⎢ ⎥
⎢⎣1⎥⎦ + Y+Z
⎢ ⎜ Z ⎟⎥ ⎣⎢⎝ Y Z ⎠⎦⎥ B2 ⎣ ⎦ ⎣ Y + Z⎦
⎣ ⎝ ⎠⎦
⎡ ⎡2⎤ ⎤
B2
⎡3⎤
[T(α1 )]B = ⎢⎢ ⎥ ⎥ = ⎢ ⎥
⎣⎢ ⎣ ⎦ ⎦⎥ B2 ⎣1⎦
1
2
Por consiguiente,
224 225
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ ⎛ X ⎞⎤ ⎡ X ⎤ Teorema 6.13.
⎢ ⎜ ⎟⎥ ⎡X + Z⎤ ⎡3 3 1⎤ ⎢ ⎥
= = + ⎥ = [T ]B1 [α ]B1
B2
⎢ ⎜ ⎟⎥
T Y ⎢
+
⎥ ⎢ ⎥⎢ X Y Sean T: ℜn→ℜm una T.L. y, B1 = {α1, α2, …, αn} y B2 = {β1, β2, …, βm} bases
⎢ ⎜ Z ⎟⎥ ⎣ Y Z ⎦ ⎣1 4 1⎦ ⎢− 5X − 3Y + Z⎥
de ℜn y ℜm, respectivamente. Si A1∈Mnxn(ℜ) definida como una matriz
⎣ ⎝ ⎠ ⎦ B2 ⎣ ⎦
particionada 1xn A1 = [α1 α2 … αn] y A2∈Mnxn(ℜ) definida como una matriz
particionada 1xm A2 = [β1 β2 … βm] entonces se cumple que:
Para hallar la imagen a través de esta matriz de un vector determinado,
⎡1 ⎤ [T]BB1
2
= A −2 1A T A1 .
⎢ ⎥
digamos el vector α = ⎢2⎥ se procede de la siguiente manera:
⎢⎣3⎥⎦ Demostración
Por definición,
⎡1 ⎤ ⎡ ⎡1 ⎤ ⎤ ⎡ ⎡1 ⎤ ⎤ ⎡ ⎡1 ⎤ ⎤
⎢ ⎥
m
⎢ ⎢ ⎥⎥ ⎢ ⎢ ⎥⎥
[ ]B2 ⎢ ⎢ ⎥ ⎥ [T]BB = [ [T(α1 )]B2 [T(α 2 )]B [T(α n )]B
∑ L
2
( ⎢T( ⎢2⎥ )⎥ ) i β i , siendo = ]
T( ⎢ 2⎥ ) = ⎢ ⎢ ⎥⎥
T ( 2 ) T B1 ⎢ ⎢ 2⎥ ⎥
1 2 2
⎢⎣3⎥⎦ i =1 ⎢ ⎢ ⎥⎥ ⎢ ⎢3⎥ ⎥ ⎢ ⎢ 3⎥ ⎥
⎣ ⎣ 3 ⎦ ⎦ B2 ⎣ ⎣ ⎦ ⎦ B2 ⎣ ⎣ ⎦ ⎦ B1 A su vez, existen escalares c1, c2, …, cn tales que:
m
Hallamos: T (α j ) = ∑c
i =1
ij • βi
⎡ ⎡1 ⎤ ⎤ ⎡ 1 ⎤ ⎡ 1⎤
⎢⎢ ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ Luego,
⎢⎢ ⎥ ⎥
2 = ⎢ 1 + 2 ⎥ = ⎢ 3⎥
⎢ ⎢3⎥ ⎥ ⎢ − − + ⎥⎦ ⎢⎣− 8⎥⎦ ⎡ c1 j ⎤
⎣ ⎣ ⎦ ⎦ B1 ⎣ 5 .1 3 . 2 3
⎢ ⎥
[T(α )] j B2
c2 j
=⎢ ⎥
⎢ M ⎥
Luego, ⎢ ⎥
⎣⎢c mj ⎦⎥
⎡ ⎡1 ⎤ ⎤ ⎡ ⎡1 ⎤ ⎤ ⎡ 1⎤
⎢ ⎢ ⎥⎥ B2 ⎢ ⎢ ⎥ ⎥ ⎡3 3 1⎤ ⎢ ⎥ ⎡ 4⎤ Por consiguiente,
⎢ ⎢ ⎥⎥
T ( 2 ) = [T ]B1 ⎢ ⎢ ⎥ ⎥
2 = ⎢ ⎥ ⎢ 3⎥ = ⎢ ⎥
⎢ ⎢3⎥ ⎥ ⎢ ⎢ 3⎥ ⎥ ⎣1 4 1⎦ ⎢⎣ − 8⎥⎦ ⎣5⎦
⎣ ⎣ ⎦ ⎦ B2 ⎣ ⎣ ⎦ ⎦ B1 ⎡ c11 c12 L c1n ⎤
⎢ ⎥
c 22 L c 2 n ⎥
[T]
c
= ⎢ 21
B2
Por consiguiente, B1
⎢ M M M ⎥
⎢ ⎥
⎣⎢c m1 c m 2 L c mn ⎦⎥
⎡1 ⎤ ⎡ ⎡1 ⎤ ⎤
⎢ ⎥ ⎢ ⎥ ⎡1 ⎤ ⎡−1⎤ ⎡−1⎤
∑ (⎢T(⎢⎢2⎥⎥)⎥
m
T( ⎢2⎥ ) = ) i β i = 4. ⎢ ⎥ + 5. ⎢ ⎥ = ⎢ ⎥ Ahora bien,
⎢ ⎥ ⎣ ⎦
0 ⎣ ⎦
1 ⎣ 5⎦
⎢⎣3⎥⎦ ⎣⎢3⎥⎦ ⎦ B2
i =1
⎣ m
T (α j ) = ∑c
i =1
ij • βi = c1 j • β1 + c 2 j • β 2 + ... + c mj • β m
Directamente con la transformación lineal se obtiene que:
⎡ c1 j ⎤
⎡1 ⎤ ⎢ ⎥
c2 j
⎢ ⎥ ⎡1 − 2 ⎤ ⎡−1⎤ ⇒ T(α j ) = [β1 β 2 L β m ]⎢ ⎥
T( ⎢2⎥ ) = ⎢ ⎥=⎢ ⎥ ⎢ M ⎥
⎢⎣3⎥⎦ ⎣2 + 3⎦ ⎣ 5⎦ ⎢ ⎥
⎢⎣c mj ⎥⎦
226 227
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ c1 j ⎤ ⎡ 1⎤ ⎡0 ⎤ ⎡0 ⎤ ⎡ 1 0 0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
c2 j Como B1 = { α1 = ⎢ − 1 ⎥ , α 2 = ⎢1⎥ , α 2 = ⎢0⎥ } entonces A1 = ⎢ − 1 1 0⎥
⇒ T (α j ) = A 2 ⎢ ⎥
⎢ M ⎥ ⎢⎣ 2⎥⎦ ⎢⎣3⎥⎦ ⎢⎣1⎥⎦ ⎢⎣ 2 3 1⎥⎦
⎢ ⎥
⎢⎣c mj ⎥⎦
⎡1⎤ ⎡−1⎤ ⎡1 −1⎤
Como B2 = { β1 = ⎢ ⎥ , β 2 = ⎢ ⎥ } entonces A 2 = ⎢ ⎥
Luego,
⎣ ⎦
0 ⎣ ⎦
1 ⎣0 1⎦
[A T α1 A T α 2 L A T α n ] = A 2 [T ]B12
B
Por consiguiente,
Como B2 = {β1, β2, …, βm} es una base entonces B2 es un conjunto L.I. Luego,
la matriz A2 = [β1 β2 … βm] es no singular. Por lo tanto,
A T A1 = A 2 [T ]B12 ⇒ [T ]B12 = A −2 1A T A1
B B
Ejemplo 6.11.
⎡X ⎤
⎢ ⎥ ⎡X − Y ⎤
T( ⎢Y ⎥ ) = ⎢ ⎥
⎢⎣ Z ⎥⎦ ⎣Y + Z⎦
⎡1 −1 0⎤
AT = ⎢ ⎥
⎣0 1 1⎦
228 229
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
EJERCICIOS PROPUESTOS. ⎡1 ⎤
4. Determine si existe una T.L. T: ℜ2→ℜ tal que T( ⎢ ⎥ ) = 3,
1. Determine cuáles de las siguientes funciones son T.L.: ⎣ 2⎦
1.1. T: ℜ3→ℜ3 definida por: ⎡ ⎤
2 ⎡ ⎤
2 19
T( ⎢ ⎥ ) = –1 y T( ⎢ ⎥ ) = .
⎡ X1 ⎤ ⎡X 2 − X1 ⎤ ⎣ 2⎦ ⎣5 ⎦ 2
⎢ ⎥ ⎢ ⎥
1.1.1. T( ⎢X 2 ⎥ ) = ⎢ X1 ⎥
⎢⎣ X 3 ⎥⎦ ⎢⎣ X 3 ⎥⎦ ⎡ X1 X1 0 ⎤
⎢ ⎥
5. Sea T: ℜ2→M3x3(ℜ) definida por T(X1, X2) = ⎢ − X1 X1 X2 ⎥
⎡ X1 ⎤ ⎡X1 + 1⎤
⎢ ⎥ ⎢ ⎥ ⎢⎣ 0 X2 X1 − X 2 ⎥⎦
1.1.2. T( ⎢X 2 ⎥ ) = ⎢ X2 ⎥
⎢⎣ X 3 ⎥⎦ ⎢⎣ 0 ⎥⎦
5.1. Demuestre que T es una T.L.
⎡ X1 ⎤ ⎡ 0 ⎤ 5.2. Determine Kernel e Imagen de T, así como también bases
⎢ ⎥ ⎢ ⎥ de estos subespacios.
1.1.3. T( ⎢X 2 ⎥ ) = ⎢X1 + X 2 ⎥
⎢⎣ X 3 ⎥⎦ ⎢⎣ 0 ⎥⎦
⎡ X1 + 2 X 2 ⎤
⎡X ⎤ ⎢ ⎥
⎡ X1 ⎤ ⎡X1X 2 ⎤ 6. Sea T: ℜ2→ℜ3 una T.L. definida por T( ⎢ 1 ⎥ ) = ⎢ − X1 ⎥ .
⎢ ⎥ ⎢ ⎥ ⎣X 2 ⎦
1.1.4. T( ⎢X 2 ⎥ ) = ⎢ X3 ⎥ ⎢⎣ 0 ⎥⎦
⎢⎣ X 3 ⎥⎦ ⎢⎣ X1 ⎥⎦
6.1. Determine la matriz asociada con T con respecto a las
1.2. T: ℜ →ℜ definida por:
3 2
⎡1⎤ ⎡2⎤ ⎡3⎤
⎡1⎤ ⎡ −2 ⎤ ⎢⎥ ⎢ ⎥ ⎢ ⎥
⎡ X1 ⎤ bases { ⎢ ⎥ , ⎢ ⎥ } de ℜ2 y { ⎢1⎥ , ⎢2⎥ , ⎢0⎥ } de ℜ3.
⎢ ⎥ ⎡X 2 ⎤ ⎣3⎦ ⎣ 4⎦
1.2.1. T( ⎢X 2 ⎥ ) = ⎢ ⎥ ⎢⎣1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣0⎥⎦
⎢⎣ X 3 ⎥⎦ ⎣ X1 ⎦
⎡8⎤
6.2. Calcular mediante esta matriz T( ⎢ ⎥ ).
⎡ X1 ⎤ ⎣3⎦
⎢ ⎥ ⎡2X − X 2 ⎤
1.2.2. T( ⎢X 2 ⎥ ) = ⎢ 1 ⎥
⎢⎣ X 3 ⎥⎦ ⎣ X3 ⎦ ⎡1⎤ ⎡1⎤ ⎡ 1⎤ ⎡0 ⎤
7. Sea T: ℜ2→ℜ2 una T.L. tal que T( ⎢ ⎥ ) = ⎢ ⎥ y T( ⎢ ⎥ ) = ⎢ ⎥ .
1.3. T: M2x2(ℜ)→M2x2(ℜ) tal que T(A) = A + At. ⎣1⎦ ⎣0 ⎦ ⎣ − 1⎦ ⎣1⎦
1.4. T: M2x2(ℜ)→ℜ tal que T(A) = Det(A). Determine la representación matricial de T con respecto a la base
1.5. T: M2x2(ℜ)→ℜ tal que T(A) = Traza(A). ⎡1⎤ ⎡ 1⎤
{⎢ ⎥ , ⎢ ⎥}
2. Para cada una de las funciones anteriores que sean transformaciones ⎣1⎦ ⎣ − 1⎦
lineales determine Kernel, Imagen, Nulidad y Rango.
8. Determine una T.L. T: ℜ3→ℜ3 tal que:
⎡ −1 ⎤
⎡1 ⎤ ⎢ ⎥
3. La función T: ℜ2→ℜ2 es una T.L. y verifica que T( ⎢ ⎥ ) = ⎢ 0⎥ y
⎣ 2⎦ ⎡ X1 ⎤
⎢⎣ 2⎥⎦ ⎢ ⎥
Ker(T) = { ⎢X 2 ⎥ : 2X1 – X2 + X3 = 0}.
⎡ 0⎤ ⎢⎣ X 3 ⎥⎦
⎡ 2⎤ ⎢ ⎥ ⎡3⎤
T( ⎢ ⎥ ) = ⎢ 2⎥ . Determine las imágenes de los vectores ⎢ ⎥ y
⎣1 ⎦ ⎢⎣ −1 ⎥⎦ ⎣3⎦
⎡ 0⎤ ⎡ X1 ⎤
⎢ ⎥ ⎡ X − 2X 3 ⎤
⎢ ⎥. 9. Sea T: ℜ3→ℜ2 una T.L. definida por T( ⎢X 2 ⎥ ) = ⎢ 1 ⎥.
⎣ −1⎦ ⎣ X 2 + X3 ⎦
⎢⎣ X 3 ⎥⎦
230 231
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Determine la matriz asociada a T con respecto a las bases 15. Sean U, V y W espacios vectoriales y T1: V→W y T2: W→U T.L.,
⎡1⎤ ⎡2⎤ ⎡3⎤ tales que T1 y T2 son monomorfismos. Demuestre que T1°T2 es un
⎢⎥ ⎢ ⎥ ⎢ ⎥ ⎡ 2⎤ ⎡0 ⎤ monomorfismo.
{ ⎢1⎥ , ⎢2⎥ , ⎢0⎥ } de ℜ3 y { ⎢ ⎥ , ⎢ ⎥ } de ℜ .
2
232 233
CAPÍTULO 6: TRANSFORMACIONES LINEALES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
234 235
CAPÍTULO 6: TRANSFORMACIONES LINEALES
27. Sea T: M2x2(ℜ)→P3 una T.L. tal que la matriz asociada con T respecto
a las bases B1 y B2 es:
⎡ 0 1 2 3⎤
⎢ ⎥
⎢ 1 3 −1 0⎥
⎢ 2 0 1 − 1⎥
⎢ ⎥
⎣⎢ − 1 2 0 1⎦⎥
⎡1 1⎤ ⎡−1 1⎤ ⎡0 0⎤ ⎡1 −1⎤
B1 = { ⎢ ⎥, ⎢ ⎥, ⎢ ⎥, ⎢ ⎥}
⎣0 0 ⎦ ⎣ 1 0 ⎦ ⎣0 1 ⎦ ⎣ 0 1⎦
B2 = {x3+x2, x2+x, x+1, 1}
⎡0 2 ⎤
27.1. Determine T( ⎢ ⎥ ).
⎣3 1 ⎦
27.2. Demuestre que T es un isomorfismo.
27.3. Determine T-1.
⎡a ⎤
⎢ ⎥ ⎡a − b a + b ⎤
27.4. Sea T2: ℜ3→M2x2(ℜ) tal que T2( ⎢b⎥ )= ⎢ ⎥.
⎢⎣ c ⎥⎦ ⎣a + c b − c⎦
236
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡2 0 2⎤ ⎡ 1 ⎤ ⎡ 6 ⎤ ⎡1⎤
Capítulo 7 ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥
AX 3 = ⎢0 6 0⎥ ⎢ 5 ⎥ = ⎢10⎥ = 6 ⎢ 5 ⎥ = λ 3X 3 ; siendo λ3 = 6
3
⎢⎣1 3 3⎥⎦ ⎢⎣ 2 ⎥⎦ ⎢⎣12⎥⎦
3
⎢⎣ 2 ⎥⎦
AUTOVALORES
Y AUTOVECTORES Es decir, λ1 = 1, λ2 = 4 y λ3 = 6 son autovalores de A con autovectores
⎡ −2 ⎤ ⎡1⎤ ⎡1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
asociados X1 = ⎢ 0⎥ , X 2 = ⎢0⎥ y X 3 = ⎢ 5 ⎥ , respectivamente.
3
⎢⎣ 1⎥⎦ ⎢⎣1⎥⎦ ⎢⎣ 2 ⎥⎦
7.1. INTRODUCCIÓN.
En este capítulo se presentan dos de los más importantes conceptos del Nótese que A∈M3x3(K) y tiene exactamente 3 autovalores.
Álgebra Lineal que son claves en el Análisis de Datos Multivariante como lo
son los conceptos de Autovalor y Autovector. Se exponen todos sus temas Definición 7.2.
asociados como lo son la relación entre los autovalores y autovectores de una
matriz y su matriz transpuesta, la semejanza de matrices y los autovalores y Sea A∈Mnxn(K). Se define como espectro de A y se denota por E(A) al
autovectores de matrices simétricas. conjunto formado por todos los autovalores de A.
Sean A∈Mnxn(K) y λ∈K. Se dice que λ es autovalor, valor propio, valor Definición 7.3.
característico o eigenvalor de A si:
Sean A∈Mnxn(K) y λ∈K, tales que λ es autovalor de A. Se define como
n autoespacio, espacio propio, espacio característico o eigenespacio de A y se
∃X ∈ K (X ≠ θ nx1 ) : AX = λX denota por Vλ(A) al conjunto:
⎡2 0 2⎤ ⎡1⎤ ⎡4⎤ ⎡1⎤ Nótese que para cada autovalor existen infinitos autovectores, los cuales se
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ generan por un conjunto finito de vectores. En el ejemplo 7.3., los autovectores
AX = ⎢0 6 0⎥ ⎢0⎥ = ⎢0⎥ = 4⎢0⎥ = λ 2 X 2 ; siendo λ2 = 4
2
de cada autovalor se generan cada uno por un solo vector.
⎢⎣1 3 3⎥⎦ ⎢⎣1⎥⎦ ⎢⎣4⎥⎦ ⎢⎣1⎥⎦
238
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Supongamos que X es autovector de A asociado a los autovalores λ y μ. cual significa que ∃X ∈ K n (X ≠ θ nx1 ) : AX = λX , es decir, λ es autovalor de
Luego, A.
AX = λX Definición 7.4.
⇒ AX − AX = λX − μX ⇒ θ nx1 = (λ − μ)X
AX = μX
Sea A∈Mnxn(K). Se define como autopolinomio, polinomio propio, polinomio
característico o eigenpolinomio de A y se denota por PA(λ) a:
Como X∈K -{θnx1} entonces para que (λ − μ)X = θ nx1 debe cumplirse que
n
Utilicemos reducción al absurdo. Supongamos que λ es autovalor de A y que Por el teorema 3.1., apartados 5 y 8 se tiene que:
Det(A-λIn) ≠ 0. Luego, por el teorema 3.1, apartado 13 se tiene que A − λI n es
Det (A − λI n ) = Det([ A1 A 2 − λe 2 L A n − λe n ]) +
no singular. Por lo tanto, por el teorema 4.19., n( A − λI n ) = 0, es decir,
+ Det([ −λe1 A 2 − λe 2 L A n − λe n ])
N ( A − λI n ) = {X ∈ K n : (A − λI n )X = θ nx1} = {θnx1}. Esto significa que
= Det([ A1 A 2 − λe 2 L A n − λe n ]) +
(A − λI n )X = θ nx1 ⇒ X = θ nx1 , es decir, AX − λX = θ nx1 ⇒ X = θ nx1 , lo cual a
+ ( −λ )Det([ e1 A 2 − λe 2 L A n − λe n ])
su vez indica que AX = λX ⇒ X = θ nx1 . Por consiguiente, X es autovector de
= Det([ A1 A 2 L A n − λe n ]) +
A asociado al autovalor λ y X = θnx1 , lo cual es una contradicción.
239 240
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
+ Det([ A1 −λe 2 L A n − λe n ]) + n
⇒ Det (A − λI n ) = ∑ (−1) n− j
SDMPAO( j)λn − j
+ ( −λ )Det([ e1 A 2 L A n − λe n ]) j=0
+ ( −λ )Det([ e1 −λe 2 L A n − λe n ])
Observaciones:
= Det([ A1 A 2 L A n − λe n ]) +
+ ( −λ )Det([ A1 e 2 L A n − λe n ]) + 1. PA(λ) es un polinomio de grado n en λ. Como todo autovalor λ de
A es raíz de PA(λ) demuestra que A tiene exactamente n
+ ( −λ )Det([ e1 A 2 L A n − λe n ]) autovalores.
+ ( −λ ) Det([ e
2 1
e 2 L A n − λe n ]) 2. El término independiente de PA(λ) es Det(A). Esto implica que:
2.1. A tiene al menos 1 autovalor nulo si y sólo si Det(A) = 0.
2.2. A tiene al menos 1 autovalor nulo si y sólo si Rango(A) < n.
Aplicando estas 2 propiedades n–2 veces cada una sobre cada matriz se
2.3. A tiene al menos 1 autovalor nulo si y sólo si A es singular.
obtiene:
2.4. A tiene todos sus autovalores no nulos si y sólo si A es no
singular.
Det (A − λI n ) = (−λ ) n Det([ e1 e 2 L e n ]) + 2.5. Si Rango(A) = r entonces A tiene exactamente n–r
+ (−λ ) n −1 Det([ A1 e 2 L e n ]) + (−λ ) n −1 Det([ e1 A 2 L e n ]) + … autovalores nulos y r autovalores no nulos.
3. Al resolver la ecuación PA(λ)= 0 se obtienen los n autovalores de A.
+ (−λ ) n −1 Det([ e1 e 2 L A n ]) + (−λ) n − 2 Det([ A1 A 2 L e n ]) + 4. Para cada autovalor calculado λ se obtiene el conjunto Vλ(A)
+ (−λ ) n − 2 Det([ A1 e 2 A 3 L A n ]) + … + resolviendo el SEL homogéneo (A − λI n )X = θ nx1 .
+ (−λ) n − 2 Det([ e1 e 2 L A n −1 A n ])+ … +
1 1 2
Definición 7.5.
+ (−λ ) Det([ e A L A ]) + (−λ )1 Det([ A1 e 2 L A n ]) + … +
n
1 1
+ (−1) λ Det(M(A)2) + … + (−1) λ Det(M(A)n) + Det(A)1 1
1. Si λ1, λ2, …, λm son los autovalores de A entonces ∑r = n .
i =1
i
241 242
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Posibles raíces: ±1, ±2, ±3, ±4, ±6, ±8, ±12, ±24 ⎡2 0 2⎤ ⎡1 0 0⎤ ⎡ x1 ⎤ ⎡0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
( A − 4 I 3 ) X = θ 3 x1 ⇒ ( ⎢ 0 6 0 ⎥ − 4 ⎢ 0 1 0 ⎥ ) ⎢ x 2 ⎥ = ⎢ 0 ⎥
−1 11 −34 24 ⎢⎣1 3 3⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦
⎡ −2 0 2⎤ ⎡ x1 ⎤ ⎡0⎤ ⎧ −2x1 + 2x 3 = 0
1 −1 10 − 24 ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎪ ⎧⎪x − x 3 = 0 ⎧x1 = x 3
⇒⎢ 0 2 0 ⎥ ⎢ x 2 ⎥ = ⎢0 ⎥ ⇒ ⎨ 2x 2 = 0 ⇒⎨ 1 ⇒⎨
⎪ x =0 ⎩ x2 = 0
− 1 10 − 24 0 ⎢⎣ 1 3 − 1 ⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎪⎩x1 + 3x 2 − x 3 = 0 ⎩ 2
4 −4 24 Luego,
−1 6 0 ⎡ x1 ⎤ ⎡ x 3 ⎤ ⎡1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X = ⎢ x 2 ⎥ = ⎢ 0 ⎥ = x 3 ⎢0 ⎥
6 −6 ⎢⎣ x 3 ⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣1⎥⎦
−1 0
Por consiguiente,
Luego,
⎧ ⎡1 ⎤ ⎫
E(A) = {1, 4, 6} ⎪ 3 ⎢ ⎥ *⎪
V4 (A) = ⎨X ∈ ℜ : X = b ⎢0⎥; b ∈ ℜ ⎬
⎪ ⎢⎣1⎥⎦ ⎪
Determinemos ahora el autoespacio asociado a cada autovalor: ⎩ ⎭
V1(A): V6(A):
⎡2 0 2⎤ ⎡1 0 0⎤ ⎡ x1 ⎤ ⎡0⎤ ⎡2 0 2⎤ ⎡1 0 0⎤ ⎡ x1 ⎤ ⎡0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
(A − 1I3 )X = θ3 x1 ⇒ ( ⎢0 6 0⎥ − 1⎢0 1 0⎥ ) ⎢ x 2 ⎥ = ⎢0⎥ ( A − 6 I 3 ) X = θ 3 x1 ⇒ ( ⎢ 0 6 0 ⎥ − 6 ⎢ 0 1 0 ⎥ ) ⎢ x 2 ⎥ = ⎢ 0 ⎥
⎢⎣1 3 3⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣1 3 3⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦
⎡1 0 2⎤ ⎡ x1 ⎤ ⎡0⎤ ⎧ x1 + 2x 3 = 0 ⎡ −4 0 2⎤ ⎡ x1 ⎤ ⎡0⎤
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎪ ⎧⎪x + 2x 3 = 0 ⎧x1 = −2x 3 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎧ − 4 x1 + 2 x 3 = 0 ⎧⎪ 2 x 3 = 4 x1 ⎧ x 3 = 2 x1
⇒ ⎢0 5 0 ⎥ ⎢ x 2 ⎥ = ⎢0⎥ ⇒ ⎨ 5x 2 = 0 ⇒⎨ 1 ⇒⎨ ⇒⎢ 0 0 0 ⎥ ⎢ x 2 ⎥ = ⎢0⎥ ⇒ ⎨ ⇒⎨ ⇒⎨
x2 = 0 ⎩ x2 = 0 x + 3x 2 − 3x 3 = 0 ⎪⎩3x 2 = 3x 3 − x1 ⎩3x 2 = 3x 3 − x1
⎢⎣1 3 2⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎪⎩x1 + 3x 2 + 2x 3 = 0 ⎪⎩ ⎢⎣ 1 3 − 3 ⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎩ 1
⎧ x 3 = 2 x1 ⎧ x 3 = 2 x1 ⎧ x = 2 x1 ⎪⎧ x 3 = 2x1
Luego, ⇒⎨ ⇒⎨ ⇒⎨ 3 ⇒⎨ 5
⎩3x 2 = 3(2x1 ) − x1 ⎩3x 2 = 6 x1 − x1 ⎩3x 2 = 5x1 ⎪⎩x 2 = 3 x1
243 244
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Luego, ⎡1 − 18 − 7 0⎤
3 → r3 − r2
⎢ ⎥ ⎧x − 18x 2 − 7 x 3 = 0 ⎧⎪x1 = 18x 2 + 7 x 3
⎯r⎯ ⎯⎯→ ⎢0 7 3 0⎥ ⇒ ⎨ 1 ⇒⎨ 3
⎡ x1 ⎤ ⎡ x1 ⎤ ⎡1⎤
⎢0 ⎥ ⎩ 7 x 2 + 3x 3 = 0 ⎪⎩ x 2 = − 7 x 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣ 0 0 0 ⎦
X = ⎢ x 2 ⎥ = ⎢ 5 x1 ⎥ = x 3 ⎢ 5 ⎥
3 3
⎢⎣ x 3 ⎥⎦ ⎢⎣ 2 x1 ⎥⎦ ⎢⎣ 2 ⎥⎦ ⎧x1 = 18(− 3 x 3 ) + 7 x 3 ⎧x1 = − 54 x 3 + 7 x 3 ⎧ x1 = − 5 x 3
⎪ 7 ⎪ 7 ⎪ 7
⇒⎨ ⇒⎨ ⇒⎨
⎪⎩ x2 = − 3 x3 ⎪ x2 = − 3 x3 ⎪ x2 = − 3 x3
Por consiguiente, 7 ⎩ 7 ⎩ 7
⎧ ⎫ Luego,
⎡1⎤
⎪ ⎢ ⎥ ⎪
V6 (A) = ⎨X ∈ ℜ3 : X = c ⎢ 5 ⎥; c ∈ ℜ* ⎬
⎡ x1 ⎤ ⎡⎢− 7 x 3 ⎤⎥ ⎡− 5 ⎤
3 5
⎪ ⎢⎣ 2 ⎥⎦ ⎪ ⎢ 7⎥
⎩ ⎭ ⎢ ⎥ ⎢ 3
X = ⎢x 2 ⎥ = − x 3 ⎥ = x 3 ⎢− 3 ⎥
⎢ 7 ⎥ ⎢ 7⎥
Ejemplo 7.5. ⎣⎢ x 3 ⎦⎥ ⎢⎣ x 3 ⎥⎦ ⎢ 1⎥
⎣ ⎦
⎡ 0 −18 −7 ⎤ ⎧ ⎡− 5 ⎤ ⎫
⎢ ⎥ ⎪ ⎢ 7⎥ ⎪
A = ⎢ 1 − 12 − 4⎥ ⎪ ⎪
V−1 (A) = ⎨X ∈ ℜ3 : X = a ⎢− 3 ⎥; a ∈ ℜ* ⎬
⎢⎣ − 1 25 9⎥⎦ ⎢ 7 ⎥
⎪ ⎪
⎢ 1⎥
⎩⎪ ⎣ ⎦ ⎭⎪
PA (λ ) = (−1)3 λ3 + (−1) 2 (Det ([0]) + Det ([−12] + Det ([9])λ2 +
Ejemplo 7.6.
⎡ 0 −18 −7 ⎤
⎡0 − 18⎤ ⎡ 0 − 7⎤ ⎡ − 12 − 4⎤ 1 ⎢ ⎥
1
(−1) ( Det ( ⎢ ⎥ ) + Det ( ⎢ ⎥ ) + Det ( ⎢ ⎥ ))λ + Det( ⎢ 1 − 12 − 4⎥ ) Sea A∈Mnxn(ℜ) una matriz diagonal definida por:
⎣1 − 12⎦ ⎣ −1 9⎦ ⎣ 25 9⎦
⎢⎣ − 1 25 9⎦⎥
V-1(A):
⎡A11 0 L 0 ⎤ ⎡1 0 L 0⎤
⎢ ⎥ ⎢ ⎥
−18 −7 ⎤ ⎡1 0 0⎤ ⎡ x1 ⎤ ⎡0⎤ 0 A 22 L 0 ⎥ 0 1 L 0⎥
⎡ 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ PA(λ) = Det (A − λI n ) = Det ( ⎢ − λ⎢ )
(A − (−1)I 3 )X = θ3x1 ⇒ (A + I 3 )X = θ3 x1 ⇒ ( ⎢ 1 − 12 − 4⎥ + ⎢0 1 0⎥ ) ⎢ x 2 ⎥ = ⎢0⎥ ⎢ M M M ⎥ ⎢M M M⎥
⎢ ⎥ ⎢ ⎥
⎢⎣ − 1 25 9⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎣⎢ 0 0 L A nn ⎥⎦ ⎣⎢0 0 L 1⎦⎥
⎡ 1 − 18 − 7 ⎤ ⎡ x1 ⎤ ⎡0⎤ ⎡ 1 − 18 − 7 0⎤ r → r − r ⎡1 − 18 − 7 0⎤ ⎡A11 − λ 0 L 0 ⎤
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎯⎯2
⎯⎯→ ⎢
2 1
⎥ ⎢ ⎥
⇒ ⎢ 1 − 11 − 4⎥ ⎢ x 2 ⎥ = ⎢0⎥ ⇒ ⎢ 1 − 11 − 4 0⎥ r →r + r ⎢0 7 3 0⎥ 0 A − λ L 0
⎯⎯3
⎯⎯
3 1
→ = Det ( ⎢ 22 ⎥)
⎢⎣ − 1 25 10 ⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣− 1 25 10 0⎥⎦ ⎢0
⎣ 7 3 0⎥⎦ ⎢ M M M ⎥
⎢ ⎥
⎣⎢ 0 0 L A nn − λ ⎦⎥
245 246
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Por lo tanto,
Luego, al hacer PA(λ) = 0 se obtiene que los autovalores de A son λ1 = A11,
λ2 = A22, …, λn = Ann, es decir, los autovalores de una matriz diagonal son los
elementos de la diagonal principal. Determinemos el autoespacio asociado al ⎡0 ⎤
i-ésimo autovalor de A: ⎢ ⎥
⎢M⎥
VAii (A) = {X ∈ ℜ : X = a ⎢1⎥; a ∈ ℜ*} = {X ∈ ℜ n : X = aei ; a ∈ ℜ*}
n
(A − λ i I n )X = θ nx1 ⇒ (A − A ii I n )X = θ nx1 ⎢ ⎥
⎢M⎥
⎡A11 L 0 L 0 ⎤ ⎡1 L 0 L 0⎤ ⎢0 ⎥
⎢ ⎥ ⎢ ⎥ ⎣ ⎦
⎢ M M M ⎥ ⎢M M M⎥
⇒ ( ⎢ 0 L A ii L 0 ⎥ − A ii ⎢0 L 1 L 0⎥ )X = θ nx1 Esto indica que los autoespacios asociados a los autovalores de A son
⎢ ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎢M M M⎥ generados por los vectores de la base canónica de ℜn.
⎢ 0 L 0 L A ⎥ ⎢0 L 0 L 1 ⎥
⎣ nn ⎦ ⎣ ⎦
⎡A11 L 0 L 0 ⎤ ⎡A ii L 0 L 0 ⎤ Ejemplo 7.7.
⎢ ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎢ M M M ⎥
Sea A∈Mnxn(ℜ) una matriz triangular superior definida por:
⇒ ( ⎢ 0 L A ii L 0 ⎥ − ⎢ 0 L A ii L 0 ⎥ )X = θ nx1
⎢ ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎢ M M M ⎥
⎡A11 A12 L A1n ⎤
⎢ 0 L 0 L A ⎥ ⎢0 L 0 L A ⎥ ⎢ ⎥
⎣ nn ⎦ ⎣ ii ⎦ 0 A 22 L A 2 n ⎥
A=⎢
⎡A11 − A ii L 0 L 0 ⎤ ⎢ M M M ⎥
⎢ ⎥ ⎢ ⎥
⎢ M M M ⎥ ⎣⎢ 0 0 L A nn ⎦⎥
⇒ (⎢ 0 L A ii − A ii L 0 ⎥ )X = θ nx1
⎢ ⎥
⎢ M M M ⎥ Determinemos los autovalores de A.
⎢ 0 L 0 L A nn − A ii ⎥⎦
⎣
⎡A11 A12 L A1n ⎤ ⎡1 0 L 0⎤
⎡A11 − A ii L 0 L 0 ⎤ ⎡ x 1 ⎤ ⎡0 ⎤ ⎢ ⎥ ⎢ ⎥
0 A 22 L A 2 n ⎥ 0 1 L 0⎥
⎢
M M M
⎥ ⎢ ⎥ ⎢ ⎥ PA(λ) = Det (A − λI n ) = Det ( ⎢ − λ⎢ )
⎢ ⎥ ⎢ M ⎥ ⎢M⎥ ⎢ M M M ⎥ ⎢M M M⎥
⇒ (⎢ 0 L 0 L 0 ⎥ ) ⎢ x i ⎥ = ⎢0 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣⎢ 0 0 L A nn ⎦⎥ ⎣⎢0 0 L 1⎦⎥
⎢ M M M ⎥ ⎢ M ⎥ ⎢M⎥
⎢ ⎡A11 − λ A12 A1n ⎤
L 0 L A nn − A ii ⎥⎦ ⎢⎣ x n ⎥⎦ ⎢⎣0⎥⎦
L
⎣ 0 ⎢ ⎥
0 A − λ L A
= Det ( ⎢ 22 2n ⎥
)
⎢ M M M ⎥
⎡ (A11 − A ii ) x1 ⎤ ⎡0⎤ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎣⎢ 0 0 L A nn − λ ⎦⎥
⎢ M ⎥ ⎢M⎥
⇒) ⎢ 0 ⎥ = ⎢0⎥ ⇒ x i = 0; ∀ i = 1, 2, ..., i - 1, i + 1, ..., n.
⎢ ⎥ ⎢ ⎥ Por el teorema 3.1., apartado 19 se tiene que:
⎢ M ⎥ ⎢M⎥
⎢( A − A ) x ⎥ ⎢0 ⎥ PA (λ) = (A11 − λ )(A 22 − λ)...(A nn − λ )
⎣ nn ii n⎦ ⎣ ⎦
Luego, Luego, al hacer PA(λ) = 0 se obtiene que los autovalores de A son λ1 = A11, λ2
= A22, …, λn = Ann, es decir, los autovalores de una matriz triangular superior
⎡0⎤ ⎡0 ⎤ son los elementos de la diagonal principal. Análogamente se demuestra que los
⎢ ⎥ ⎢ ⎥ autovalores de una matriz triangular inferior son los elementos de la diagonal
⎢M⎥ ⎢M⎥ principal.
X = ⎢ x i ⎥ = x i ⎢1 ⎥ = x i e i
⎢ ⎥ ⎢ ⎥
⎢M⎥ ⎢M⎥
⎢0⎥ ⎢0 ⎥
⎣ ⎦ ⎣ ⎦
247 248
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Sean A∈Mnxn(K), λ1, λ2, …, λm∈K y X1, X2, …, Xm∈Kn-{θnx1}, tales que λ1, c1•X1 + c2•X2 + … + cp•Xp + cp+1•Xp+1 = θnx1 (5)
λ2, …, λm son autovalores de A, con λi ≠ λj, ∀ i ≠ j; i = 1, 2, …, m;
j = 1, 2, …, m. Si X1, X2, …, Xm son autovectores de A asociados a los Premultiplicando a ambos lados de (5) por A se obtiene que:
autovalores λ1, λ2, …, λm de A entonces X1, X2, …, Xm son L.I.
A(c1•X1 + c2•X2 + … + cp•Xp + cp+1•Xp+1) = A(θnx1)
Demostración ⇒ c1•AX1 + c2•AX2 + … + cp•AXp + cp+1•AXp+1 = θnx1 (6)
Utilicemos inducción matemática. Demostremos que la proposición es cierta Como λ1, λ2, …, λp+1 son autovalores de A con autovectores asociados
para m = 2. En efecto, X1, X2, …, Xp+1 respectivamente se tiene que AX1 = λ1X1, AX2 = λ2X2, …,
AXp+1 = λp+1Xp+1. Sustituyendo en (6) se obtiene que:
Consideremos la igualdad c1•X1 + c2•X2 = θnx1 (1). Premultiplicando a ambos
lados de (1) por A se obtiene que: c1λ1•X1 + c2λ2•X2 + … + cpλp•Xp + cp+1λp+1•Xp+1 = θnx1 (7)
A(c1•X1 + c2•X2) = A(θnx1) Ahora, multipliquemos a ambos lados de (5) por λp+1. Luego,
⇒ c1•AX1 + c2•AX2 = θnx1 (2)
λp+1(c1•X1 + c2•X2 + … + cp•Xp + cp+1•Xp+1) = λp+1(θnx1)
Como λ1, λ2 son autovalores de A con autovectores asociados X1, X2, ⇒ c1λp+1•X1 + c2λp+1•X2 + … + cpλp+1•Xp + cp+1λp+1•Xp+1 = θnx1 (8)
respectivamente se tiene que AX1 = λ1X1 y AX2 = λ2X2. Sustituyendo en (2) se
obtiene que: Restando a ambos lados (8) menos (7) se obtiene que :
c1λ1•X1 + c2λ2•X2 = θnx1 (3) (c1λp+1•X1 + c2λp+1•X2 + … + cpλp+1•Xp + cp+1λp+1•Xp+1) – (c1λ1•X1 + c2λ2•X2
+ … + cpλp•Xp + cp+1λp+1•Xp+1) = θnx1 – θnx1
Ahora, multipliquemos a ambos lados de (1) por λ1. Luego,
⇒ (c1λp+1 – c1λ1)•X1 + (c2λp+1 – c2λ2)•X2 + … + (cpλp+1 – cpλp)•Xp +
λ1(c1•X1 + c2•X2) = λ1(θnx1) (cp+1λp+1 – cp+1λp+1)•Xp+1 = θnx1
⇒ c1λ1•X1 + c2λ1•X2 = θnx1 (4)
⇒ c1(λp+1 – λ1)•X1 + c2(λp+1 – λ2)•X2 + … + cp(λp+1 – λp)•Xp = θnx1
Restando a ambos lados (4) menos (3) se obtiene que:
Como por hipótesis de inducción X1, X2, …, Xp son L.I. se tiene que:
(c1λ1•X1 + c2λ1•X2) – (c1λ1•X1 + c2λ2•X2) = θnx1 – θnx1
⇒ (c1λ1•X1 – c1λ1•X1) + (c2λ1•X2 – c2λ2•X2) = θnx1 c1(λp+1 – λ1) = c2(λp+1 – λ2) = … = cp(λp+1 – λp) = 0
⇒ θnx1 + (c2λ1 – c2λ2)•X2 = θnx1
⇒ c2(λ1 – λ2)•X2 = θnx1 Como λi ≠ λj, ∀ i ≠ j; i = 1, 2, …, m; j = 1, 2, …, m, se concluye que
c1 = c2 = … = cp = 0. Sustituyendo este resultado en (5) se obtiene que:
Como X2 es autovector de A entonces X2 ≠ θnx1. Además, λ1 ≠ λ2. Luego,
c2 = 0. Sustituyendo en (1) se obtiene que: 0•X1 + 0•X2 + … + 0 •Xp + cp+1•Xp+1 = θnx1
⇒ cp+1•Xp+1 = θnx1
c1•X1 + c2•X2 = θnx1
⇒ c1•X1 + 0•X2 = θnx1 Como Xp+1 es autovector de A entonces Xp+1 ≠ θnx1. Luego, cp+1 = 0. Por
⇒ c1•X1 = θnx1 consiguiente, c1 = c2 = … = cp = cp+1 = 0 y de esta forma X1, X2, …, Xp, Xp+1
son L.I.
Como X1 ≠ θnx1 se obtiene que c1 = 0. Por consiguiente, c1 = c2 = 0 y en
consecuencia X1 y X2 son L.I. Teorema 7.6.
Supongamos que la proposición se cumple para m = p, es decir, si Sean A∈Mnxn(K), λ∈K y X∈Kn-{θnx1}. Si λ es autovalor de A con autovector
X1, X2, …, Xp son autovectores de A asociados a los autovalores λ1, λ2, …, λp asociado X entonces λm es autovalor de Am con autovector asociado X;
de A entonces X1, X2, …, Xp son L.I. m∈ℵ-{0, 1}.
249 250
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Si λ es autovalor de A con autovector X entonces: Sean A∈Mnxn(K) y λ∈K. λ es autovalor de A si y sólo si λ es autovalor de At.
AX = λX Demostración
⇒ A(AX) = A(λX)
⇒ A2X = λ(AX) CN(⇒): Si λ es autovalor de A entonces λ es autovalor de At.
⇒ A2X = λ(λX)
⇒ A2X = λ2X Como λ es autovalor de A entonces por el teorema 7.3., Det(A–λIn)= 0. Luego,
⇒ λ2 es autovalor de A2 con autovector asociado X. por el teorema 3.1., apartado 2 se tiene que:
Ejemplo 7.9.
En el ejemplo 7.1.,
251 252
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡1 0 0⎤ ⎡λ1 0 L 0 ⎤
⎢ ⎥ ⎢ ⎥
D λ ( A ) = ⎢0 4 0 ⎥ 0 λ2 L 0 ⎥
[ X1 X 2 L Xn ] ⎢ = XDλ(A)
⎢⎣0 0 6⎥⎦ ⎢M M M⎥
⎢ ⎥
⎢⎣ 0 0 L λ n ⎥⎦
Teorema 7.8.
Luego,
Sean A∈Mnxn(K), λ, μ∈K y X, Y∈Kn-{θnx1}. Si λ es autovalor de A con
autovector asociado X y μ es autovalor de At con autovector asociado Y con λ X-1AX = Dλ(A)
≠ μ entonces X ⊥ Y.
7.4. SEMEJANZA DE MATRICES.
Demostración
Definición 7.7.
Por hipótesis,
Sean A, B∈Mnxn(K). Se dice que A es semejante a B si y sólo si:
⎧ AX = λX ⎪⎧ Y AX = Y (λX) ⎧⎪ Y t AX = λY t X ⎧⎪(Y t AX) t = (λY t X) t
t t
⎨ t ⇒⎨ t t ⇒⎨ t t ⇒⎨
⎩A Y = μY ⎪⎩X A Y = X (μY) ⎪⎩X A Y = μX Y ⎪⎩ X A Y = μX Y
t t t t t ∃ P ∈ M nxn (K ) (P no singular) : P -1AP = B
Ejemplo 7.10.
⎧⎪X t A t Y = λX t Y
⇒⎨ t t
⎪⎩X A Y = μX t Y En el ejemplo 7.4., ∃ P∈M3x3(ℜ) (P no singular) definida por:
Como λ ≠ μ se tiene que XtY = 0, es decir, <X, Y> = 0. Luego, X ⊥ Y. tal que P-1AP = Dλ(A). Es decir, A es semejante a Dλ(A).
Sean A∈Mnxn(K), λ1, λ2, …, λn∈K y X1, X2, …, Xn∈Kn-{θnx1}, tales que Sea A∈M3x3(ℜ) definida por:
λ1, λ2, …, λn son los n autovalores de A, con λi ≠ λj, ∀ i ≠ j; i = 1, 2, …, n;
j = 1, 2, …, n, con autovectores asociados X1, X2, …, Xn, respectivamente. ⎡1 0 1⎤
Consideremos la matriz particionada por columnas 1xn siguiente: ⎢ ⎥
A = ⎢2 2 0⎥
⎢⎣3 1 3⎥⎦
X = [ X1 X2 L Xn ]
Como λi ≠ λj, ∀ i ≠ j; i = 1, 2, …, n; j = 1, 2, …, n entonces por el teorema 7.5. Hallaremos una matriz B semejante a la matriz A así como también la matriz P
X1, X2, …, Xn son L.I. Por lo tanto, por el teorema 4.10., la matriz X es no que define la semejanza entre dichas matrices. Apliquemos sobre A y sobre I3
singular. una operación elemental de filas. Digamos r2→r2 – 2r1:
Ahora bien, ⎡1 0 1 1 0 0 ⎤ ⎡1 0 1 1 0 0⎤
[A I ] = ⎢⎢2
3
⎥ 2 →r2 − 2 r1 ⎢
2 0 0 1 0⎥ ⎯r⎯
⎥
⎯⎯→⎢0 2 − 2 − 2 1 0⎥ = C E [ ]
AX = A[ X1 X 2 L X n ] = [ AX1 AX 2 L AX n ] ⎢3 1 3 0 0 1⎥ ⎢3 1
⎣ ⎦ ⎣ 3 0 0 1⎥⎦
= [ λ1 X1 λ 2 X 2 L λ n X n ]
La matriz E es una matriz elemental y se cumple que EA = C. Hallemos E-1
aplicando la operación elemental de filas inversa de r2→r2 – 2r1 sobre I3:
253 254
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Para resolver este mismo problema de una forma más fácil sólo basta definir ⎡1 4 1⎤ ⎡2 0 1⎤
⎢ ⎥ ⎢ ⎥
arbitrariamente una matriz P∈M3x3(ℜ) no singular y al hacer P-1AP se obtiene A = ⎢2 4 0⎥ y B = ⎢0 2 1⎥
la matriz B. En este caso, dicha matriz B se obtendría definiendo la matriz ⎢⎣3 1 3⎥⎦ ⎢⎣3 1 3⎥⎦
P = E-1.
Si sobre B se aplica un procedimiento análogo al aplicado sobre A se obtendrá Determinemos si A y B son semejantes.
una matriz D semejante a B con la correspondiente matriz Q que define la
semejanza entre dichas matrices. El lector podrá comprobar fácilmente que la El teorema 7.9., plantea 5 condiciones necesarias para que A y B sean
matriz A también es semejante a D. semejantes. Aplicando la equivalencia contrarecíproca en cada una de ellas se
obtiene que si alguna de estas 5 condiciones no se cumple entonces eso es
Teorema 7.9. suficiente para decir que A y B no son semejantes.
Sean A, B∈Mnxn(K). Si A es semejante a B entonces: En este caso se aprecia fácilmente que Traza(A) = 1 + 4 + 3 = 8 y
Traza(B) = 2 + 2 + 3 = 7. Luego, Traza(A) ≠ Traza(B) y por consiguiente A no
es semejante a B.
1. PA(λ) = PB(λ).
2. Traza(A) = Traza(B).
3. Det(A) = Det(B). Definición 7.8.
4. Rango(A) = Rango(B).
5. Vλ(A) = {Y∈Kn: Y = PX; X∈Vλ(B)}. Sea A∈Mnxn(K). Se dice que A es diagonalizable si y sólo si A es semejante a
su respectiva matriz de autovalores Dλ(A). En ese caso se dice que dicha
Demostración matriz de autovalores es la forma canónica de Jordan de A. Si A no es
diagonalizable entonces se dice que es una matriz defectuosa.
Por definición, PB(λ) = Det(B – λIn). Por hipótesis, ∃P∈Mnxn(K)
(P no singular): P-1AP = B. Luego, Teorema 7.10.
255 256
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Como X1, X2, …, Xn son L.I. entonces P es no singular. Por consiguiente, Sean A∈Mnxn(K) y λi∈K; ∀ i = 1, 2, …, m tales que son autovalores de A. A
es diagonalizable si y sólo si ri = ki, ∀ i = 1, 2, …, m.
AP = PDλ(A) ⇒ P-1AP = Dλ(A)
Demostración
Esto indica que A es semejante a Dλ(A), es decir, A es diagonalizable.
CN(⇒): Si A es diagonalizable entonces ri = ki, ∀ i = 1, 2, …, m.
Ejemplo 7.13.
Por hipótesis, A es diagonalizable, es decir, A es semejante a su
En el ejemplo 7.10., se observó como la matriz A del ejemplo 7.4., resultó ser correspondiente forma canónica de Jordan Dλ(A). Por consiguiente,
semejante a su correspondiente matriz de autovalores Dλ(A), es decir, resultó
ser diagonalizable. Veamos ahora otra forma de apreciar esta situación. En ese ∃P∈Mnxn(K) (P no singular): P-1AP = Dλ(A)
caso, E(A) = {1, 4, 6}. Como A∈M3x3(ℜ) y tiene 3 autovalores distintos ⇒ ∃P∈Mnxn(K) (P no singular): P-1AP – λiIn = Dλ(A) – λiIn
entonces por el teorema 7.5., A tiene 3 autovectores L.I. Por ello, A es ⇒ ∃P∈Mnxn(K) (P no singular): P-1AP – λiP-1P = Dλ(A) – λiIn
diagonalizable y además la matriz P que la diagonaliza es:
257 258
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⇒ ∃P∈Mnxn(K) (P no singular): P-1(A – λiIn)P = Dλ(A) – λiIn serían L.I., lo cual es imposible debido a que Y1 + Y2 + … Ym = θnx1. En
⇒ Rango(P-1(A – λiIn)P) = Rango(Dλ(A) – λiIn) consecuencia, Yi = θnx1, ∀ i = 1, 2, …, m, es decir:
Ahora bien, ki
Yi = ∑c ij • X ij = θ nx1 ; ∀ i = 1, 2, …, m.
El autovalor λi aparece ri veces en la diagonal principal de Dλ(A) por lo cual la j=1
CS (⇐) : Si ri = ki, ∀ i = 1, 2, …, m, entonces A es diagonalizable. Por consiguiente, los n autovectores de A son L.I. y por el teorema 7.10., A es
diagonalizable.
Si ri = ki, ∀ i = 1, 2, …, m, entonces el autovalor λi de A tiene asociados
m m
Ejemplo 7.14.
exactamente ki autovectores L.I., con ∑k = ∑r = n .
i =1
i
i =1
i Supongamos que
En el ejemplo 7.5.,
dichos autovectores son los siguientes:
⎡ 0 −18 −7 ⎤
{
Para λ1: X11 , X12 , ..., X1k1 } ⎢
A = ⎢ 1 − 12 − 4⎥
⎥
Para λ : {X
2
21
, X 22 , ..., X 2k 2 } ⎢⎣ − 1 25 9⎥⎦
259 260
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Pero, r1 = 3 ≠ k1 = 1. Por consiguiente, A no es diagonalizable. tienen los mismos autovalores por lo cual tienen idénticas formas canónicas de
Jordan. Luego,
La otra forma de hallar k1 es con la dimensión de V-1(A). Como:
∃ P, Q∈Mnxn(ℜ) (P, Q no singulares): P-1AP = Dλ(A), Q-1BQ = Dλ(B) y
⎧ ⎡− 5 ⎤ ⎫ Dλ(A) = Dλ(B)
⎪ ⎢ 7⎥ ⎪
⎪ ⎪
V−1 (A) = ⎨X ∈ ℜ3 : X = a ⎢− 3 ⎥; a ∈ ℜ* ⎬ Por consiguiente,
⎢ 7⎥
⎪ ⎪
⎢ 1⎥
⎩⎪ ⎣ ⎦ ⎭⎪ P-1AP = Q-1BQ
⇒ QP APQ-1 = QQ-1BQQ-1
-1
Ejemplo 7.15. Se puede verificar que los autoespacios asociados a los autovalores de A son:
Ahora bien, A y B tienen 3 autovalores distintos. Luego, tienen 3 autovectores Por lo tanto,
L.I. y por el teorema 4.10., ambas son diagonalizables. Por otra parte, A y B
261 262
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
En consecuencia:
1 → r1 − 6 r2
⎯r⎯ ⎯⎯→⎢0 1
⎢
3 0
⎥
[ ]
1 0⎥ = C E
⎢0 0 1 0 0 1⎥⎦
⎣
⎡1 0 1⎤ ⎡2 1 1⎤ ⎡3 1 1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ Luego,
PQ-1 = ⎢0 1 0⎥ ⎢1 1 0⎥ = ⎢1 1 0⎥ = R
⎢⎣0 0 1⎥⎦ ⎢⎣1 0 0⎥⎦ ⎢⎣1 0 0⎥⎦ EA = C
263 264
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Por hipótesis: ⎡ x ⎤ ⎡ x − 2 y⎤
Sean T: ℜ2→ℜ2 una T.L. definida por T( ⎢ ⎥ ) = ⎢ ⎥,
⎣ y ⎦ ⎣2x + y⎦
[T(α)]B = [T] [α]B B1
B1 (11)
1 1
⎡ 1⎤ ⎡ 2⎤ ⎡2⎤ ⎡0 ⎤
[T(α)]B = [T]BB [α]B 2
2
2 2
(12) B1 = { α1 = ⎢ ⎥ , α 2 = ⎢ ⎥ } y B2 = { β1 = ⎢ ⎥ , β 2 = ⎢ ⎥ }. Determinemos las
−
⎣ ⎦1 1
⎣ ⎦ 0
⎣ ⎦ ⎣ 3⎦
matrices [T ]B11 y [T ]B22 así como también la matriz de transición de B1 a B2
B B
tiene que:
[α]BB1
2
que define la semejanza entre [T ]B11 y [T ]B22 .
B B
[α]B = [α]BB [α ]B 2
(13)
[T ]BB
1
1
:
2 1 1
⎡a ⎤ ⎡ 1⎤ ⎡2⎤ ⎡ c1 ⎤ ⎡2c 2 ⎤ ⎡ c1 + 2c 2 ⎤
Por otra parte, también por el teorema 6.11., se tiene que: ⎢ ⎥ = c1 • α1 + c 2 • α 2 = c1 • ⎢ ⎥ + c 2 ⎢ ⎥ = ⎢ ⎥+⎢ ⎥ = ⎢ ⎥
⎣b⎦ ⎣ − 1⎦ ⎣1 ⎦ ⎣ − c1 ⎦ ⎣ c 2 ⎦ ⎣− c1 + c 2 ⎦
[T(α)]B = [α]BB [T(α)]B 2
2
1 1
(14) ⇒ a = c1 + 2c2 ⇒ c1 = a – 2c2.
⇒ b = –c1 + c2 ⇒ b = –(a – 2c2) + c2 ⇒ b = –a + 2c2 + c2 ⇒ b = –a + 3c2
Sustituyendo (13) y (14) en (12) se obtiene que: ⇒ b + a = 3c2 ⇒ c2 = (a + b)/3
⇒ c1 = a – 2(a + b)/3 ⇒ c1 = (3a – 2a – 2b)/3 ⇒ c1 = (a – 2b)/3
[α]BB [T(α)]B = [T ]B22 [α ]B12 [α ]B1
2 B B
1 1
⎡ ⎡a ⎤ ⎤ ⎡( a − 2 b ) ⎤
⇒ ⎢⎢ ⎥ ⎥ = ⎢ 3⎥
⎢ (a + b ) ⎥
Ahora bien, por el teorema 6.12., la matriz [α ]B12 es no singular. Por lo tanto, ⎣⎢ ⎣b ⎦ ⎦⎥ B1 ⎣⎢
B
3 ⎦⎥
Como [α]B ≠ θnx1 entonces ( [T ]BB – ( [α]BB )-1 [T]BB [α]BB ) = θnxn. Luego,
1
1
1
2
1
2
2
2
1
Luego,
[T ]BB 1
1
= ( [α ]B12 )-1 [T ]B22 [α ]B12
B B B
[T ]BB
1
=⎢ 3 3⎥
5 ⎥
1
⎢4
⎣ 3 3⎦
En consecuencia, [T ]B11 y [T ]B22 son semejantes.
B B
[T]BB 2
2
:
265 266
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡2⎤ ⎡2 − 2.(0)⎤ ⎡2⎤ Sean λ1, λ2, …, λn los autovalores de A y sea X1 el autovector correspondiente
T (β1 ) = T ( ⎢ ⎥ ) = ⎢ ⎥=⎢ ⎥
⎣0⎦ ⎣2.2 + (0)⎦ ⎣4⎦ al autovalor λ1. Luego, se cumple que AX1 = λ1X1.
⎡0⎤ ⎡0 − 2.(3) ⎤ ⎡−6 ⎤
T (β 2 ) = T( ⎢ ⎥ ) = ⎢ ⎥=⎢ ⎥ Procederemos ahora a construir una matriz P1∈Mnxn(K) no singular tal que:
⎣3⎦ ⎣ 2.0 + (3)⎦ ⎣ 3⎦
⎡(2) / 2⎤ ⎡ 1 ⎤ P1 = [ X1 b 2 L b n ] = [ X1 B1 ]
[T(β1 )]B =⎢ ⎥ = ⎢4 ⎥
⎣ (4) / 3⎦ ⎣⎢ 3 ⎦⎥
2
⇒ P1−1X1 = e1 (16)
Luego,
Pero,
⎡1 −3⎤
[T]B2
B2 = ⎢4 ⎥
1⎥ AP1 = [ AX1 AB1 ] = [ λ1X1 AB1 ]
⎣⎢ 3 ⎦
La matriz de transición de B1 a B2 se determina de la siguiente forma: Premultiplicando por P1−1 se obtiene que:
⎢ ⎥
⎡ 1 1⎤ ⎣⎢ 0 ⎦⎥
[α]BB 2
=⎢ 2 ⎥
1
⎢− 1 1 ⎥
⎣ 3 3⎦
Luego, A es semejante a P1−1AP1 . Por lo tanto, tienen los mismos autovalores y
en consecuencia A1 tiene como autovalores λ2, …, λn, es decir, los restantes
Se puede verificar fácilmente que [T ]B11 y [T ]B22 son semejantes y que la
B B
autovalores de A.
matriz no singular que define la semejanza entre dichas matrices es [α ]B12 , es
B
De forma análoga a la matriz P1 procederemos ahora a construir una matriz
decir, se cumple que: P2∈M(n-1)x(n-1)(K) no singular tal que:
267 268
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n
⎡λ 2 C 2 ⎤
⎢ ⎥
2. Det (A) = ∏λ i .
0 i =1
P2−1A1P2 = ⎢ ⎥ ; donde C ∈M
1x(n-2)(K), A2∈M(n-2)x(n-2)(K)
⎢ M A2 ⎥ 2
⎢ ⎥ Demostración
⎣⎢ 0 ⎦⎥
Por el teorema 7.13., A es semejante a la matriz Tλ(A). Luego, por el teorema
Sea Q2∈Mnxn(K) una matriz no singular definida por: 7.9., apartados 2 y 3, la definición 1.19., y el teorema 3.1., apartado 19 se tiene
que:
⎡ 1 θ1x ( n −1) ⎤
Q2 = ⎢ ⎥ n
θ
⎣⎢ ( n −1) x1 P2 ⎦⎥ 1. Traza (A) = Traza (Tλ (A)) = ∑λ
i =1
i .
n
Luego,
2. Det (A ) = Det (Tλ (A )) = ∏λ
i =1
i .
⎡ λ1 0 C3 ⎤
⎢ ⎥
Q 2−1 (P1−1AP1 )Q 2 = ⎢ 0 λ 2 ⎥ ; donde C3∈M2x(n-2)(K), A2∈M(n-2)x(n-2)(K) 7.5. AUTOVALORES Y AUTOVECTORES DE MATRICES
⎢θ ( n − 2 ) x 2 A 2 ⎥ SIMÉTRICAS.
⎣ ⎦
Teorema 7.15.
Al repetir este proceso n–1 veces se obtiene una matriz no singular P∈Mnxn(K)
definida por: Sea A∈Mnxn(ℜ). Si A es simétrica entonces todos sus autovalores son números
reales y sus autoespacios correspondientes están definidos por vectores reales.
⎡ 1 θ1x ( n −1) ⎤ ⎡ I 2 θ 2 x ( n − 2) ⎤ ⎡ I n − 2 θ(n −2) x 2 ⎤
P = P1 ⎢ ⎥⎢ ⎥L⎢ ⎥ Demostración
⎣⎢θ ( n −1) x1 P2 ⎦⎥ ⎣⎢θ ( n − 2) x 2 P3 ⎦⎥ ⎣⎢θ 2 x ( n − 2 ) Pn −1 ⎦⎥
Sea λ autovalor de A con autovector asociado X. Luego,
Donde Pn-1∈M2x2(K) es la matriz no singular obtenida en la (n–1)-ésima etapa,
tal que: AX = λX (17)
269 270
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Ahora bien, A∈Mnxn(ℜ) y λ∈ℜ. Luego, (A–λIn)∈Mnxn(ℜ). Por lo tanto, las Como TSλ(A) es una matriz triangular superior que tiene en la diagonal
soluciones del SEL homogéneo (A–λIn)X = θnx1 serán vectores X∈Mnx1(ℜ). En principal los autovalores de A entonces (TSλ(A))t es una matriz triangular
consecuencia, Vλ(A) está definido por vectores reales. inferior que tiene en la diagonal principal los autovalores de A. Denotemos
dicha matriz por TIλ(A), es decir, TIλ(A) = (TSλ(A))t. Además A es simétrica,
Teorema 7.16. es decir, At = A. Luego,
271 272
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ 1 1 −1 ⎤ β1 = 12 + (−1) 2 + 12 = 3
⎢ ⎥
P = ⎢− 1 1 0⎥
⎢⎣ 1
β2 = (1)2 + (1)2 + 0 2 = 2
0 1⎥⎦
β3 = (− 1 2 ) + (1 2 ) + (1)
2 2 2
= 6
4
= 6
2
Se verifica que P es no singular y cumple que:
Por consiguente,
⎡5 0 0 ⎤
-1 ⎢ ⎥
P AP = Dλ(A) = ⎢0 8 0⎥ ⎡ 3 ⎤
⎢⎣0 0 8⎥⎦
⎡ 1⎤ ⎡ 1⎤ ⎢ 3⎥
1 1 ⎢ ⎥ 3⎢ ⎥ ⎢ 3 ⎥
δ1 =
β1
β1 = ⎢− 1⎥ = 3 ⎢− 1⎥ = ⎢− 3
⎥
Ahora bien, si se desea hallar la matriz ortogonal Q que diagonaliza 3⎢ ⎥
⎣ 1⎦ ⎢⎣ 1⎥⎦ ⎢ 3 ⎥
ortogonalmente a A se procede a buscar una base ortonormal con los 3 ⎢ ⎥
⎢⎣ 3 ⎥⎦
autovectores L.I. de A. Dichos vectores seguirán siendo L.I. y autovectores de
A. ⎡ 2 ⎤
⎡1⎤ ⎡1⎤ ⎢ 2 ⎥
Comenzamos con la base de ℜ : 3
1 1 ⎢ ⎥ 2⎢ ⎥ ⎢ 2 ⎥
δ2 = β2 = ⎢1⎥ = 2 ⎢1⎥ = ⎢ 2 ⎥
β2 2⎢ ⎥
⎣0 ⎦ ⎢⎣0⎥⎦ ⎢ 0 ⎥
⎢ ⎥
⎢⎣ ⎥⎦
273 274
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ 6 ⎤ Rango(A) = Rango(Dλ(A))
⎡− 1 ⎤ ⎡− 1 ⎤ ⎡− 1 ⎤ ⎢− 6⎥ Traza(A) = Traza(Dλ(A))
2⎥ 2⎥ 2⎥ ⎢
1 1 ⎢ ⎢
1 ⎥= 2 ⎢
⎢
1 ⎥= 6 ⎢ 1 ⎥=⎢ 6 ⎥
⎥
δ3 = β3 = ⎢
β3 6 ⎢ 2⎥ 6⎢ 2⎥ 3 ⎢ 2⎥ ⎢ 6⎥ Ahora bien, por el ejemplo 7.8., los valores posibles de los autovalores de una
2 ⎢⎣ 1⎥ ⎢⎣ 1⎥ ⎢⎣ 1⎥ ⎢ 6 ⎥ matriz idempotente son 0 ó 1. En ese caso, Dλ(A) tiene tantas filas no nulas
⎦ ⎦ ⎦ 3 ⎥⎦
⎢⎣ como Traza tiene dicha matriz Dλ(A), es decir, Rango(Dλ(A)) = Traza(Dλ(A)).
Por con siguiente,
En consecuencia, el conjunto {δ1 , δ 2 , δ3 } es una base ortonormal de ℜ3.
Rango(A) = Rango(Dλ(A)) = Traza(Dλ(A)) = Traza(A)
Luego, la matriz Q ortogonal que diagonaliza ortogonalmente a A es: Ejemplo 7.19.
275 276
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
1 Teorema 7.20.
⇒ r1 = Traza( (1n ) t (1n ) )
n
Sea A∈Mnxn(ℜ). Si A es simétrica y no singular entonces:
1
⇒ r1 = Traza(n)
n ∃P∈Mnxn(ℜ) (P ortogonal): A-1 = P(Dλ(A))-1Pt
1
⇒ r1 = n Demostración
n
⇒ r1 = 1
Como A es simétrica entonces A es diagonalizable ortogonalmente, es decir:
Luego, para λ2 = 1 ⇒ r2 = n – r1 ⇒ r2 = n – 1. Finalmente, el autopolinomio de
∃P∈Mnxn(ℜ) (P ortogonal): PtAP = Dλ(A)
P es PP (λ ) = λ(λ − 1) n −1 . ⇒ ∃P∈Mnxn(ℜ) (P ortogonal): PPtAPPt = PDλ(A)Pt
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): A = PDλ(A)Pt
Teorema 7.19. (Teorema Espectral)
Como A es no singular entonces:
Sean A∈Mnxn(ℜ), λ1, λ2, …, λn∈ℜ y X1, X2, …, Xn∈ℜn-{θnx1}, tales que λ1,
λ2, …, λn son los n autovalores de A con autovectores ortonormalizados ∃P∈Mnxn(ℜ) (P ortogonal): A-1 = (PDλ(A)Pt)-1
asociados X1, X2, …, Xn, respectivamente. Si A es simétrica entonces: ⇒ ∃P∈Mnxn(ℜ) (P ortogonal): A-1 = (Pt)-1(Dλ(A))-1(P)-1
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): A-1 = P(Dλ(A))-1Pt
n
A= ∑ λ X (X )
i =1
i
i i t
Teorema 7.21.
Sea X∈Mnxp(ℜ) tal que Rango(X) = r. Entonces las matrices XtX y XXt tienen
Demostración
los mismos autovalores no nulos.
Como A es simétrica entonces A es diagonalizable ortogonalmente, es decir:
Demostración
∃P∈Mnxn(ℜ) (P ortogonal): P AP = Dλ(A) t
Las matrices XtX y XXt son matrices simétricas y tales que
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): PPtAPPt = PDλ(A)Pt Rango(XtX) = Rango(XXt) = Rango(X) = r. Por lo tanto, dichas matrices
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): A = PDλ(A)Pt tienen exactamente r autovalores no nulos. Sea λ un autovalor no nulo de XtX
con autovector asociado V. Luego,
Ahora bien, la matriz P se puede expresar particionada por columnas 1xn de la
siguiente forma: XtXV = λV (24)
⇒ X(XtXV) = X(λV)
P = [ X1 X2 L Xn ] ⇒ (XXt)(XV) = λ(XV)
Luego, Sólo basta probar que el vector XV≠θnx1 para probar que λ es también
autovalor de XXt. Utilicemos reducción al absurdo. Supongamos que XV=θnx1.
⎡λ1 0 L 0 ⎤ ⎡ (X1 ) t ⎤ Sustituyendo en (24) se tiene que:
⎢ ⎥ ⎢ 2 t⎥
0 λ2 L 0 ⎥ ⎢( X ) ⎥
A = [ X1 X2 L Xn ] ⎢ Xt(θnx1) = λV
⎢M M M⎥ ⎢ M ⎥
⎢ ⎥ ⎢ n t⎥ ⇒ θpx1 = λV
⎣⎢ 0 0 L λ n⎥
⎦ ⎣⎢(X ) ⎦⎥
Por hipótesis λ ≠ 0. Por lo tanto, V = θpx1, lo cual es una contradicción ya que
⎡ (X1 ) t ⎤
⎢ 2 t⎥ V es autovector de XtX. De esta forma se termina de demostrar que XtX y XXt
(X ) ⎥ tienen los mismos autovalores no nulos.
⇒ A = [ λ 1 X1 λ 2 X 2 L λnXn ] ⎢
⎢ M ⎥
⎢ n t⎥ Teorema 7.22.
⎣⎢(X ) ⎦⎥
⇒ A = λ1X1(X1)t + λ2X2(X2)t + … + λnXn(Xn)t Sean X∈Mnxp(ℜ) tal que Rango(X) = r, V∈Mpxr(ℜ) y U∈Mnxr(ℜ). Si V y U
n son las matrices cuyas columnas son los autovectores ortonormalizados de las
⇒ A= ∑ λ X (X )
i =1
i
i i t
277 278
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
U i = cXV i ; ∀ i = 1, 2, …, r (27)
λi
Ui = XV i ; ∀ i = 1, 2, …, r
Calculando la norma al cuadrado a ambos lados de (27) se obtiene que: λi
λi
( U i ) t U i = (cXV i ) t (cXV i ) ; ∀ i = 1, 2, …, r ⇒ U i ( λ i (V i ) t ) = XV i ( λ i (V i ) t ) ; ∀ i = 1, 2, …, r
λi
⇒ 1 = c(V ) X (cXV ) ; ∀ i = 1, 2, …, r
i t t i
( λi )2
⇒ 1 = c 2 (V i ) t X t XV i ; ∀ i = 1, 2, …, r ⇒ λ i U i (V i ) t = XV i (V i ) t ; ∀ i = 1, 2, …, r
λi
⇒ 1 = c 2 λ i .1 ; ∀ i = 1, 2, …, r ∑i =1
λ i U i (V i ) t = ∑ XV (V )
i =1
i i t
⇒ 1 = c 2 λ i ; ∀ i = 1, 2, …, r p p
1
⇒ X ∑ V (V ) = ∑i i t
λ i U i (V i ) t
⇒ c2 = ; ∀ i = 1, 2, …, r i =1 i =1
λi
Ahora bien, como V es ortogonal entonces:
1
⇒ c= ; ∀ i = 1, 2, …, r
λi p
1 ∑ V (V ) i i t
= VV t = I p
⇒ c= ; ∀ i = 1, 2, …, r i =1
λi
Además, λr+1 = λr+2 = … = λp = 0. Luego,
λi
⇒ c= ; ∀ i = 1, 2, …, r
λi r r
⇒ XI p = ∑i =1
λ i U i (V i ) t ⇒ X= ∑
i =1
λ i U i (V i ) t
Sustituyendo el valor de c en (27) se obtiene que:
279 280
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
EJERCICIOS PROPUESTOS. 8. Sea A∈Mnxn(ℜ) una matriz involutiva. Demuestre que (I+A)Y e
(I–A)Y son autovectores de A asociados respectivamente a los
1. Determine los autovalores y los correspondientes autoespacios de las autovalores λ1 = 1 y λ2 = –1, siendo Y un vector arbitrario de ℜn.
siguientes matrices:
9. Sea A∈Mmxn(ℜ). Se dice que A es una matriz estocástica, aleatoria o
⎡3 0 0⎤ ⎡3 0 −1⎤ ⎡ 7 1 2⎤ de probabilidad si y sólo si ∀ (i,j)∈JmxJn 0 ≤ Aij ≤ 1 y ∀ i=1, 2, …, m
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ n
A = ⎢0 1 1⎥ B = ⎢0 1 1 ⎥ C = ⎢ −1 7 0⎥
⎢⎣2 0 1⎥⎦ ⎢⎣1 0 1⎥⎦ ⎢⎣ 1 −1 6⎥⎦
se cumple que ∑A
j=1
ij = 1 . Demuestre que si m = n y A es una matriz
6.1. Las matrices B-1A y (Ct)-1AC-1 tienen los mismos autovalores. 16. Sean A, B∈Mnxn(ℜ). Demuestre que si A y B son semejantes
6.2. Los autovectores V de la matriz (Ct)-1AC-1 tienen la forma entonces:
V = CU.
16.1. At y Bt son semejantes.
7. Sean A∈Mnxp(ℜ) y B∈Mpxn(ℜ). Demuestre que: 16.2. Am y Bm son semejantes, con m∈ℵ*.
16.3. Si A y B son no singulares entonces A-1 y B-1 son semejantes.
7.1. AB y BA tienen los mismos autovalores no nulos y además
se cumple que λnPBA(λ) = ±λpPAB(λ).
7.2. Si n = p y B es no singular entonces los autovalores de AB
son los mismos autovalores de BA.
281 282
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
17. Sean A, B, C∈M3x3(ℜ) definidas por: 20. Sea A∈M3x3(ℜ) definida por:
⎡2 0 1⎤ ⎡1 0 −1 ⎤ ⎡1 0 −1 ⎤ ⎡1 0 0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A = ⎢0 6 0 ⎥ B = ⎢0 3 6⎥ C = ⎢0 3 2⎥ A = ⎢a − 2 3⎥
⎢⎣1 3 2⎥⎦ ⎢⎣0 0 3⎥⎦ ⎢⎣0 0 6⎥⎦ ⎢⎣1 − 1 2⎥⎦
Para las siguientes T.L. determine las matrices [T ]B11 y [T ]B22 así Determine si cada una de las matrices dadas en el ejercicio 1 son
B B 21.
18.
diagonalizables. En caso afirmativo, encuentre la matriz diagonal y la
como también la matriz de transición de B1 a B2 [α ]
B2
B1 que define la matriz que la diagonaliza.
semejanza entre [T ] y [T ] :
B1 B2
B1 B2 22. Sea A∈M2x2(ℜ) definida por:
⎡ x ⎤ ⎡3x + 4 y ⎤ ⎡a b ⎤
18.1. T: ℜ2→ℜ2 definida por T( ⎢ ⎥ ) = ⎢ ⎥, A=⎢ ⎥
⎣ y⎦ ⎣ x − 5y ⎦ ⎣c d⎦
⎡ 2⎤ ⎡ 3⎤ ⎡1⎤ ⎡0 ⎤
B1 = { α 1 = ⎢ ⎥ , α 2 = ⎢ ⎥ } y B2 = { β1 = ⎢ ⎥ , β 2 = ⎢ ⎥ }. Demuestre que si (a–d)2+4bc > 0 entonces A es diagonalizable.
−
⎣ ⎦3 ⎣0 ⎦ 1
⎣⎦ ⎣ 2⎦ Determine que ocurre si (a–d)2+4bc < 0 y si (a–d)2+4bc = 0.
⎡x ⎤ ⎡ x + y + z ⎤
⎢ ⎥ ⎢ ⎥ 23. Sea A∈M2x2(ℜ) definida por:
18.2. T: ℜ3→ℜ3 definida por T( ⎢ y ⎥ ) = ⎢ x − 2 y + 3z ⎥ ,
⎢⎣ z ⎥⎦ ⎢⎣ 2 x − y − z ⎥⎦
⎡ b 4a ⎤
A=⎢ ⎥
⎡1⎤ ⎡ 2⎤ ⎡ −1 ⎤ ⎡1⎤ ⎣a b ⎦
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B1 = { α1 = ⎢0⎥ , α 2 = ⎢ − 1⎥ , α 3 = ⎢ 3⎥ } y B2 = { β1 = ⎢0⎥ ,
⎢⎣1⎥⎦ ⎢⎣ 1⎥⎦ ⎢⎣ 0⎥⎦ ⎢⎣0⎥⎦ Demuestre que si la ecuación ax2 + bx + a = 0 tiene raíces imaginarias
entonces A es diagonalizable. Determine que ocurre si dicha ecuación
⎡0 ⎤ ⎡1⎤ tiene raíces reales iguales y si tiene raíces reales distintas.
⎢ ⎥ ⎢ ⎥
β 2 = ⎢1⎥ , β3 = ⎢1⎥ }.
24. Sean X∈Mnxp(ℜ) y A∈Mnxn(ℜ) con rango(X) = p, tales que
⎢⎣1⎥⎦ ⎢⎣0⎥⎦
A = In – X(XtX)-1Xt. Estudie para esta matriz:
18.3. T: P1→P1 definida por T(a + bx ) = (a + b) + (a − b) x ,
24.1. Simetría.
B1 = { α1 = 1 , α 2 = x }, B2 = { β1 = 2 + 3x , β 2 = −4 + 5x }.
24.2. Idempotencia.
24.3. Rango.
19. Sea A∈M3x3(ℜ) definida por: 24.4. Autovalores.
24.5. Traza.
⎡a b b ⎤ 24.6. Autopolinomio.
⎢ ⎥
A = ⎢b a b ⎥
25. Sea A∈Mnxn(ℜ) una matriz simétrica de rango r con autovalores
⎢⎣b b a ⎥⎦ r n n
λ1, λ2, …, λn. Demuestre que ∑ λ = ∑∑ (A )
i =1
2
i
i =1 i =1
ij
2
.
19.1. Demuestre que (a-b) y (a+2b) son autovalores de A.
19.2. Determine el tercer autovalor.
26. Sean A, B ∈Mnxn(ℜ) tales que A y B son simétricas e idempotentes
con AB = θnxn y rango(A) + rango(B) = p, 0 < p < n. Determine la
multiplicidad algebraica de cada uno de los autovalores de la matriz
C = In – (A + B).
283 284
CAPÍTULO 7: AUTOVALORES Y AUTOVECTORES
⎡1 a ⎤
A=⎢ ⎥
⎣2 b⎦
⎡−2⎤
29.1. Determine los valores de a y b para que el vector ⎢ ⎥ sea
⎣ 1⎦
autovector de A asociado al autovalor λ = 5.
29.2. Determine el otro autovalor de A.
30. Sea A∈M3x3(ℜ) definida por:
⎡a 1 0 ⎤
⎢ ⎥
A = ⎢1 a 0⎥
⎢⎣0 0 1⎥⎦
⎡ 1⎤ ⎡1⎤ ⎡ 1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X1 = ⎢− 1⎥ , X 2 = ⎢1⎥ , X 3 = ⎢− 1⎥
⎢⎣ 1⎥⎦ ⎢⎣0⎥⎦ ⎢⎣ 0 ⎥⎦
⎡0 0 1 0⎤
⎢ ⎥
0 0 0 − 1⎥
A=⎢
⎢1 0 0 0⎥
⎢ ⎥
⎣⎢0 −1 0 0⎦⎥
285
CAPÍTULO 8: FORMAS CUADRÁTICAS
⎡1 −2 0⎤
Capítulo 8 ⎢
B = ⎢0
⎢⎣0
2
0
2⎥
⎥
1 ⎥⎦
FORMAS CUADRÁTICAS
es una matriz asociada a la forma cuadrática f.
La única matriz simétrica asociada a la forma cuadrática del ejemplo 8.1., es:
Ejemplo 8.1.
Esta función es una forma cuadrática, ya que su regla de correspondencia es de Definición 8.2.
3 3
la forma ∑∑ B X X
i =1 j=1
ij i j . Luego, B11 = 1, B12 = -2, B13 = 0, B21 = 0, B22 = 2, Sean A, B∈Mnxn(ℜ). Se dice que A es congruente con B si y sólo si:
287
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
Si además A y B son las matrices simétricas asociadas a las formas cuadráticas Apliquemos operaciones elementales de fila sobre A para obtener una matriz
f: ℜn→ℜ y g: ℜn→ℜ, respectivamente, entonces se dice que las formas triangular superior equivalente por filas a A. Dichas operaciones serán
cuadráticas f y g son congruentes. Si además P es ortogonal entonces se dice aplicadas simultáneamente sobre la matriz I3 para obtener a la vez la matriz Pt:
que tanto A y B como f y g son ortogonalmente congruentes.
⎡ 1 −1 0 1 0 0⎤
Observaciones: ⎢ ⎥ 2 → r2 + r1
[A| I3] = ⎢ − 1 2 1 0 1 0⎥ ⎯r⎯ ⎯ ⎯→
Si A es congruente con B entonces: ⎢ 0 1 1 0 0 1⎥⎦
⎣
1. t
Rango(B) = Rango(P AP) = Rango(A). ⎡ 1 −1 0 1 0 0⎤ ⎡ 1 −1 0 1 0 0⎤
⎢ ⎥ 3 → r3 − r2 ⎢ ⎥
⎢ 0 1 1 1 1 0⎥ ⎯r⎯ ⎯ ⎯→ ⎢ 0 1 1 1 1 0⎥ = [T | Pt]
2. Como P es no singular entonces P se puede escribir como un ⎢ 0 1
⎣ 1 0 0 1⎥⎦ ⎢ 0 0
⎣ 0 −1 −1 1⎥⎦
producto de matrices elementales, en este caso como P aparece
postmultiplicando a A dichas matrices elementales son obtenidas
con operaciones elementales de columnas, es decir, P = FsFs-1…F1. Por lo tanto,
Luego, Pt = (FsFs-1…F1)t = (F1)t(F2)t…(Fs)t = E1E2…Es. Luego,
⎡ 1 −1 0⎤
E1E2…EsAFsFs-1…F1 = B ⎢ ⎥
T = PtA = ⎢ 0 1 1⎥
3. Las matrices elementales E1, E2, …, Es se pueden elegir de forma ⎢⎣ 0 0 0⎥⎦
tal que E1E2…EsA sea una matriz triangular, digamos triangular
superior. Luego, ⎡ 1 0 0⎤ ⎡1 1 −1⎤
⎢ ⎥ ⎢ ⎥
P = (Pt)t = ( ⎢ 1 1 0⎥ )t = ⎢0 1 − 1⎥
E1E2…EsA = T; siendo Pt = E1E2…Es ⎢⎣ − 1 − 1 1⎥⎦ ⎢⎣0 0 1⎥⎦
Tomando transpuesta a ambos lados se obtiene que:
Luego,
(E1E2…EsA)t = Tt
At(E1E2…Es)t = Tt ⎡ 1 −1 0⎤ ⎡1 1 −1⎤ ⎡1 0 0⎤
AtFsFs-1…F1 = Tt ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
D = PtAP = ⎢ 0 1 1⎥ ⎢0 1 − 1⎥ = ⎢0 1 0⎥
⎢⎣ 0 0 0⎥⎦ ⎢⎣0 0 1⎥⎦ ⎢⎣0 0 0⎥⎦
Si A es simétrica entonces se tiene que:
288 289
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
n n
∃P∈Mnxn(ℜ) (P ortogonal): PtAP = Dλ(A)
∑ (X ∑X
2
i − X) 2 = 2
i − nX
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): PPtAPPt = PDλ(A)Pt i =1 i =1
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): A = PDλ(A)Pt
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): At = (PDλ(A)Pt)t Luego,
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): At = (Pt)t(Dλ(A))tPt
⇒ ∃P∈Mnxn(ℜ) (P ortogonal): At = P(Dλ(A))tPt n n
n n n ∑X ∑X i i
∑X ∑X ∑X
2
2 i =1 i =1
Como Dλ(A) es una matriz diagonal entonces es simétrica, luego: i − nX = 2
i − n XX = 2
i −n
i =1 i =1 i =1 n n
∃P∈Mnxn(ℜ) (P ortogonal): At = PDλ(A)Pt n
1 n n
1 t
t
∑
= X i2 −
i =1 n
∑X ∑X
i =1
i
i =1
i = XtX −
n
X (1n )(1n ) t X
Por lo tanto, A = A , es decir, A es simétrica.
1
= X (I n − (1n )(1n ) t )X
t
Definición 8.3. n
Hallemos sus autovalores. Se puede demostrar que su autopolinomio es: Sea A∈Mnxn(ℜ) una matriz simétrica. Si Rango(A) = r e Indice(A) = p
entonces A es congruente con la matriz diagonal D´(A) definida por:
PA (λ ) = −λ3 + 4λ2 − 3λ
⎡ Ip θ px ( r − p ) θ px ( n − r ) ⎤
⎢ ⎥
Los autovalores de A son λ1 = 1, λ2 = 3 y λ3 = 0. D′(A) = ⎢θ ( r − p ) xp − I r −p θ( r −p) x ( n −r ) ⎥
⎢θ θ( n −r ) x ( r −p) θ ( n − r ) x ( n − r ) ⎥⎦
⎣ ( n − r ) xp
Por lo tanto, Indice(A) = 2.
Consideremos la Varianza de un grupo de n datos cuantitativos X1, X2, …, Xn: Como A es simétrica entonces por el teorema 8.1., A es ortogonalmente
congruente con su matriz de autovalores o forma canónica de Jordan de A, es
n decir,
2
∑ (X i − X) 2
∃P∈Mnxn(ℜ) (P ortogonal): PtAP = Dλ(A) (1)
S = i =1
n
290 291
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
Es claro que C es una matriz diagonal y no singular. Es decir, CtDλ(A)C = D´(A). Se concluye que A es congruente con la matriz
D´(A).
Premultiplicando y postmultiplicando a ambos lados de (1) por Ct y C,
respectivamente se tiene que: Ejemplo 8.6.
Por lo tanto, A es congruente con la matriz CtDλ(A)C, cuyo elemento genérico Sus autovalores son λ1 = 1, λ2 = 3 y λ3 = 0. La matriz Dλ(A) es:
es:
⎡1 0 0⎤
⎢ ⎥
⎧⎛ ⎞
2 D λ ( A ) = ⎢0 3 0 ⎥
⎪⎜ 1 ⎟ ⎢⎣0 0 0⎥⎦
⎪⎜ ⎟ λi si i = j; i = 1, 2, ..., p
⎪⎜⎝ λ i ⎟⎠
⎪ 2 Se puede verificar que los autoespacios asociados a dichos autovalores son:
⎪
(C t D λ (A)C)ij = ⎨⎛⎜ 1 ⎞⎟
⎪⎜ ⎟ λi si i = j; i = p + 1, ..., r
⎪⎜⎝ λ i ⎟⎠ ⎧ ⎡ 2 ⎤ ⎫
⎪ 2 ⎪ ⎢ 2⎥ ⎪
si i = j; i = r + 1, ..., n ⎪ ⎪
⎪ c .0 V1 (A) = ⎨X ∈ ℜ3 : X = a ⎢ 0 ⎥; a ∈ ℜ* ⎬
⎪ 0 si i ≠ j ⎪ ⎢ ⎥ ⎪
⎩ ⎢ 2 ⎥
⎪ ⎣ 2⎦ ⎪
⎧ λi ⎩ ⎭
⎪λ si i = j; i = 1, 2, ..., p
⎧ ⎡ 6 ⎤ ⎫
⎪ i ⎪ ⎢− ⎪
⎪λ 6 ⎥
=⎨ i si i = j; i = p + 1, ..., r ⎪ ⎢ ⎥ ⎪
⎪ 6 *⎪
⎪ λi V3 (A) = ⎨X ∈ ℜ : X = b ⎢
3
⎥; b ∈ ℜ ⎬
⎢ 3 ⎥
⎪ 0 si i = j; i = r + 1, ..., n ⎪ ⎪
⎪ ⎪ ⎢ 6 ⎥ ⎪
⎩ 0 si i ≠ j ⎪⎩ ⎢⎣ 6⎥ ⎪⎭
⎦
292 293
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
La matriz Q es: r
Nf(Y1, Y2, …, Yn) = ∑λ Y i i
2
⎡ 2 ⎤ i =1
⎢ 2 − 6 − 3 ⎥ ⎡1
6 3 0 0⎤
⎢ ⎥ ⎢ ⎥ Por otro lado, si X = PY entonces:
Q= ⎢ 0 6 − 3 ⎥ ⎢0 1 0⎥
⎢ 3 3 ⎥ ⎢ 3 ⎥
⎢ 2 6 3 ⎥ f(X) = XtAX = (PY)tA(PY) = YtPtAPY = YtDλ(A)Y = Nf(Y)
⎣⎢0 0 c ⎦⎥
⎣⎢ 2 6 3 ⎦⎥
Ejemplo 8.7.
⎡ 2 ⎤
⎢ 2 − 2 − 3c
6 3 ⎥ La representación normal de la forma cuadrática f del ejemplo 8.1., es:
⎢ ⎥
= ⎢ 0 2 − 3c ⎥
⎢ 3 3 ⎥
Nf (Y1 , Y2 , Y3 ) = Y12 + 3Y22
⎢ 2 2 3c ⎥
⎣⎢ 2 6 3 ⎦⎥
Teorema 8.4. (Representación Canónica de una Forma Cuadrática)
La matriz D´(A) es:
Sean A∈Mnxn(ℜ) una matriz simétrica y f: ℜn→ℜ una forma cuadrática con
matriz simétrica asociada A. Si Indice(A) = p y Rango(A) = r
⎡1 0 0⎤
⎢ ⎥ entonces existe una forma cuadrática Cf: ℜn→ℜ definida por
D′(A) = ⎢0 1 0⎥ p r
⎢⎣0 0 0⎥⎦ Cf(Y1, Y2, …, Yn) = ∑Y
i =1
i
2
− ∑Y
i = p +1
i
2
congruente con f y tal que f = Cf
294 295
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
Teorema 8.5. Sean A∈Mnxn(ℜ) una matriz simétrica y f: ℜn→ℜ una forma cuadrática con
matriz simétrica asociada A. Se dice que f es:
Sean A, B∈Mnxn(ℜ) matrices simétricas y f, g: ℜn→ℜ formas cuadráticas con
matrices simétricas asociadas A y B, respectivamente. La forma cuadrática f es 1. Definida Positiva si y sólo si ∀ X∈ℜn (X ≠ θnx1): f(X) > 0.
congruente con g si y sólo si f y g tienen la misma representación canónica. 2. Semidefinida Positiva si y sólo si ∀ X∈ℜn: f(X) ≥ 0 y
∃ X∈ℜn(X ≠ θnx1): f(X) = 0.
Demostración 3. Definida Negativa si y sólo si ∀ X∈ℜn (X ≠ θnx1): f(X) < 0.
4. Semidefinida Negativa si y sólo si ∀ X∈ℜn: f(X) ≤ 0 y
CN(⇒): Si f es congruente con g entonces f y g tienen la misma representación ∃ X∈ℜn(X ≠ θnx1): f(X) = 0.
canónica. 5. Indefinida si y sólo si ∃ X1, X2∈ℜn (X1 ≠ θnx1, X2 ≠ θnx1):
f(X1) > 0 y f(X2) < 0.
Si f es congruente con g entonces A es congruente con B. Luego:
Igualmente se dice que la matriz simétrica A adopta la clasificación de su
∃P∈Mnxn(ℜ) (P no singular): PtAP = B (2) forma cuadrática f.
Como B es simétrica entonces por el teorema 8.2., es congruente con la matriz Ejemplo 8.9.
D´(B), es decir:
Sean f1, f2, f3, f4, f5: ℜ3→ℜ definidas por:
∃Q∈Mnxn(ℜ) (Q no singular): QtBQ = D´(B)
∃Q∈Mnxn(ℜ) (Q no singular): B = (Qt)-1D´(B)Q-1 (3) f1 (X1 , X 2 , X 3 ) = 2X12 + 2X1X 2 + 2X 22 − 2X 2 X 3 + 2X 32 − 2X1X 3
Sustituyendo (3) en (2) se tiene que: f 2 (X1 , X 2 , X 3 ) = X12 + 4X1X 2 + 4X 22 + 3X 32
∃P, Q∈Mnxn(ℜ) (P, Q no singulares): PtAP = (Qt)-1D´(B)Q-1 f 3 (X1 , X 2 , X 3 ) = −2X12 − 2X1X 2 − 2X 22 + 2X 2 X 3 − 2X 32 + 2X1X 3
∃P, Q∈Mnxn(ℜ) (P, Q no singulares): QtPtAPQ = D´(B) f 4 (X1 , X 2 , X 3 ) = −X12 − 4X1X 2 − 4X 22 − 3X 32
∃P, Q∈Mnxn(ℜ) (P, Q no singulares): (PQ)tA(PQ) = D´(B)
∃R∈Mnxn(ℜ) (R no singular) (R = PQ): RtAR = D´(B) f 5 (X1 , X 2 , X 3 ) = X12 + X 22 − X 32
296 297
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
1. f1 es definida positiva ya que: Como ∀ X∈ℜ3: f2(X) ≥ 0 y ∃ X∈ℜ3(X ≠ θ3x1): f2(X) = 0 entonces
∀ X∈ℜ3: –f2(X) ≤ 0 y ∃ X∈ℜ3(X ≠ θ3x1): –f2(X) = 0, es decir,
f1 (X1 , X 2 , X 3 ) = 2X12 + 2X1X 2 + 2X 22 − 2X 2 X 3 + 2X 32 − 2X1X 3 ∀ X∈ℜ3: f4(X) ≤ 0 y ∃ X∈ℜ3(X ≠ θ3x1): f4(X) = 0.
= X12 + X12 + 2X1X 2 + X 22 + X 22 − 2X 2 X 3 + X 32 + X 32 − 2X1X 3 5. f5 es indefinida ya que:
= (X12 + 2X1X 2 + X 22 ) + (X 22 − 2X 2 X 3 + X 32 ) + (X12 − 2X1X 3 + X 32 )
Para X1 = 1, X2 = 1 y X3 = 1, f 5 (X1 , X 2 , X 3 ) = 1 > 0 y para X1 = 0,
= (X1 + X 2 ) 2 + (X 2 − X 3 ) 2 + (X1 − X 3 ) 2
X2 = 0 y X3 = 1, f 5 (X1 , X 2 , X 3 ) = −1 < 0.
A su vez, f1(X1, X2, X3) = 0 si y sólo si X1+X2= X2–X3 = X1–X3 = 0,
es decir, si y sólo si: Así, ∃ X1, X2∈ℜ3 (X1 ≠ θ3x1, X2 ≠ θ3x1): f5(X1) > 0 y f5(X2) < 0.
298 299
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
Luego, A tiene todos sus autovalores positivos, es decir, Luego, A tiene A tiene al menos un autovalor nulo, al menos un
Indice(A) = Rango(A) = n. autovalor positivo y ningún autovalor negativo, es decir,
Indice(A) = Rango(A) < n.
CS(⇐): Si A tiene todos sus autovalores positivos, es decir,
Indice(A) = Rango(A) = n, entonces A es definida positiva. CS(⇐): Si A tiene al menos un autovalor nulo, al menos un
autovalor positivo y ningún autovalor negativo, es decir,
Consideremos la representación normal de la forma cuadrática f, es Indice(A) = Rango(A) < n, entonces A es semidefinida positiva.
decir,
Consideremos la representación normal de la forma cuadrática f, es
r decir,
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
: siendo r = Rango(A)
r
Nf(Y1, Y2, …, Yn) = ∑λ Y i i
2
; siendo r = Rango(A)
Como A tiene todos sus autovalores positivos, es decir, i =1
Indice(A) = Rango(A) = n, entonces:
Como Indice(A) = Rango(A), es decir, los r primeros autovalores de
n A son positivos entonces Nf(Y1, Y2, …, Yn) ≥ 0, ∀ Y1, Y2, …,
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
>0y Yr∈ℜ, mientras que Nf(Y1, Y2, …, Yn) = 0 si y sólo si Yi = 0,
∀ i = 1, 2, …, r y Yi ≠ 0, para algún i = r+1, r+2, …, n. Por lo tanto,
n
∀ Y∈ℜn: Nf(Y) ≥ 0 y ∃ Y∈ℜn(Y ≠ θnx1): Nf(Y) = 0. Además, por
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
= 0 si y sólo si Y1 =Y2 = … = Yn = 0.
el teorema 8.3., Nf(Y) = f(X) para X = PY, es decir, Y = P-1X.
Luego, ∀ P-1X∈ℜn: f(X) ≥ 0 y ∃ P-1X∈ℜn(P-1X ≠ θnx1): f(X) = 0 y
Por lo tanto, ∀ Y∈ℜn (Y ≠ θnx1): Nf(Y) > 0. Además, por el en virtud de que P es no singular entonces ∀ X∈ℜn: f(X) ≥ 0 y ∃
teorema 8.3., Nf(Y) = f(X) para X = PY, es decir, Y = P-1X. Luego, X∈ℜn(X ≠ θnx1): f(X) = 0, es decir, A es semidefinida positiva.
∀ P-1X ∈ℜn (P-1X ≠ θnx1): f(X) > 0 y en virtud de que P es no
singular entonces ∀ X ∈ℜn (X ≠ θnx1): f(X) > 0, es decir, A es 3. CN(⇒): Si A es definida negativa entonces A tiene todos sus
definida positiva. autovalores negativos, es decir, Indice(A) = 0 y Rango(A) = n.
2. CN(⇒): Si A es semidefinida positiva entonces A tiene al menos Sea λ autovalor de A con autovector asociado X. Luego,
un autovalor nulo, al menos un autovalor positivo y ningún
autovalor negativo, es decir, Indice(A) = Rango(A) < n. AX = λX
⇒ XtAX = Xt(λX)
Sea λ autovalor de A con autovector asociado X. Luego, ⇒ XtAX = λXtX
⇒ XtAX = λXtX
XtX = ∑X
i =1
2
i > 0.
300 301
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
Consideremos la representación normal de la forma cuadrática f, es Consideremos la representación normal de la forma cuadrática f, es
decir, decir,
r r
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
: siendo r = Rango(A) Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
; siendo r = Rango(A)
Como A tiene todos sus autovalores negativos, es decir, Como Indice(A) = 0 y Rango(A) < n, es decir, los r primeros
Indice(A) = 0 y Rango(A) = n, entonces: autovalores de A son negativos entonces Nf(Y1, Y2, …, Yn) ≤ 0,
∀ Y1, Y2, …, Yr∈ℜ, mientras que Nf(Y1, Y2, …, Yn) = 0 si y sólo si
n
Yi = 0, ∀ i = 1, 2, …, r y Yi ≠ 0, para algún i = r+1, r+2, …, n. Por
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
<0y
lo tanto, ∀ Y∈ℜn: Nf(Y) ≤ 0 y ∃ Y∈ℜn(Y ≠ θnx1): Nf(Y) = 0.
Además, por el teorema 8.3., Nf(Y) = f(X) para X = PY, es decir,
n Y = P-1X. Luego, ∀ P-1X∈ℜn: f(X) ≤ 0 y ∃ P-1X∈ℜn(P-1X ≠ θnx1):
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
= 0 si y sólo si Y1= Y2 = … = Yn = 0. f(X) = 0 y en virtud de que P es no singular entonces ∀ X∈ℜn:
f(X) ≤ 0 y ∃ X∈ℜn(X ≠ θnx1): f(X) = 0, es decir, A es semidefinida
negativa.
Por lo tanto, ∀ Y∈ℜn (Y ≠ θnx1): Nf(Y) < 0. Además, por el
teorema 8.3., Nf(Y) = f(X) para X = PY, es decir, Y = P-1X. Luego,
5. CN(⇒): Si A es indefinida entonces A tiene al menos un autovalor
∀ P-1X ∈ℜn (P-1X ≠ θnx1): f(X) < 0 y en virtud de que P es no
positivo y al menos un autovalor negativo, es decir,
singular entonces ∀ X ∈ℜn (X ≠ θnx1): f(X) < 0, es decir, A es
0 < Indice(A) < Rango(A) ≤ n.
definida negativa.
4. CN(⇒): Si A es semidefinida negativa entonces A tiene al menos Sea λ autovalor de A con autovector asociado X. Luego,
un autovalor nulo, al menos un autovalor negativo y ningún
autovalor positivo, es decir, Indice(A) = 0 y Rango(A) < n. AX = λX
⇒ XtAX = Xt(λX)
Sea λ autovalor de A con autovector asociado X. Luego, ⇒ XtAX = λXtX
AX = λX Ahora bien, X es autovector de A, es decir, X ≠ θnx1. Por lo tanto,
⇒ XtAX = Xt(λX) n
⇒ XtAX = λXtX XtX = ∑X
i =1
2
i > 0.
Ahora bien, X es autovector de A, es decir, X ≠ θnx1. Por lo tanto,
n X t AX
⇒ λ=
t
XX = ∑
i =1
X i2 > 0. XtX
Por hipótesis, A es indefinida, es decir, ∃ X1, X2∈ℜn (X1 ≠ θnx1,
X t AX
⇒ λ= X2 ≠ θnx1): f(X1) = (X1)tAX1 > 0 y f(X2) = (X2)tAX2 < 0. En
XtX consecuencia, existen λ1 y λ2 tales que:
Por hipótesis, A es semidefinida negativa, es decir, ∀ X∈ℜn: λ1 > 0 y λ2 < 0
f(X) = XtAX ≤ 0 y ∃ X∈ℜn(X ≠ θnx1): f(X) = XtAX = 0. En
Luego, A tiene A tiene al menos un autovalor positivo y al menos
consecuencia.
un autovalor negativo, es decir, 0 < Indice(A) < Rango(A) ≤ n.
λ=0óλ<0
CS(⇐): Si A tiene al menos un autovalor positivo y al menos un
Luego, A tiene A tiene al menos un autovalor nulo, al menos un autovalor negativo, es decir, 0 < Indice(A) < Rango(A) ≤ n,
autovalor negativo y ningún autovalor positivo, es decir, entonces A es indefinida.
Indice(A) =0 y Rango(A) < n.
Consideremos la representación normal de la forma cuadrática f, es
CS(⇐): Si A tiene al menos un autovalor nulo, al menos un decir,
autovalor negativo y ningún autovalor positivo, es decir, r
Indice(A) = 0 y Rango(A) < n, entonces A es semidefinida
negativa.
Nf(Y1, Y2, …, Yn) = ∑λ Y
i =1
i i
2
; siendo r = Rango(A)
302 303
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
Supongamos que Indice(A) = p. Como 0 <Indice(A)<Rango(A) ≤ n, 2. Si A es definida negativa entonces A tiene todos sus autovalores
es decir, los p primeros autovalores de A son positivos, los r – p negativos. Por otra parte, por el teorema 7.13. (lema de Issai Schur),
subsiguientes son negativos y los n – r restantes son nulos entonces si λ1, λ2, …, λn son los autovalores de A entonces
Nf(Y1, Y2, …, Yn) > 0 si y sólo si Yi = 0, ∀ i = p+1, p+2, …, r y n
1. Definida Positiva entonces Det(A) > 0 y Traza(A) > 0. Si f es definida positiva entonces A tiene todos sus autovalores
2. Definida Negativa entonces Traza(A) < 0. positivos, es decir, Indice(A) = Rango(A) = n. En consecuencia, por
3. Semidefinida Positiva entonces Det(A) = 0 y Traza(A) > 0. el teorema 8.2., A es congruente con In.
4. Semidefinida Negativa entonces Det(A) = 0 y Traza(A) < 0.
CS(⇐): Si A es congruente con In entonces A es definida positiva.
Demostración
Si A es congruente con In entonces por el teorema 8.5., las formas
1. Si A es definida positiva entonces A tiene todos sus autovalores cuadráticas asociadas a A y In, respectivamente tienen la misma
positivos. Por otra parte, por el teorema 7.13. (lema de Issai Schur), representación canónica. Es claro que la representación canónica de
n la forma cuadrática asociada a In, digamos g(Y) = YtY es Cg(Y1,
si λ1, λ2, …, λn son los autovalores de A entonces Det(A) = ∏λ i n
n
i =1 Y2, …, Yn) = ∑Y
i =1
i
2
. Por lo tanto, esta función es también la
y Traza(A) = ∑λ
i =1
i . Como λi > 0, ∀ i = 1, 2, …, n entonces representación canónica de A. En consecuencia, A tiene todos sus
autovalores positivos, es decir, A es definida positiva.
Det(A) > 0 y Traza(A) > 0. 2. CN(⇒): Si f es definida negativa entonces A es congruente con –In.
304 305
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
Si A es congruente con –In entonces por el teorema 8.5., las formas 1. Sea f: ℜm→ℜ la forma cuadrática cuya matriz simétrica asociada es
cuadráticas asociadas a A y –In, respectivamente tienen la misma AtA. Luego,
representación canónica. Es claro que la representación canónica de
la forma cuadrática asociada a –In, digamos g(Y) = –YtY es n
n f(X) = XtAtAX = (AX)t(AX) = YtY = ∑Y i
2
; con Y = AX
Cg(Y1, Y2, …, Yn) = ∑
i =1
i
2
(−1)Y . Por lo tanto, esta función es i =1
también la representación canónica de A. En consecuencia, A tiene Por lo tanto, f(X) ≥ 0 y es tal que f(X) = 0 si y sólo si Y = θmx1.
todos sus autovalores negativos, es decir, A es definida negativa. Pero, Y = θmx1 implica que AX = θmx1, lo cual es un SEL
homogéneo y por la Eliminación de Gauss-Jordan, como
Teorema 8.9. Rango(A) = n entonces el SEL AX = θmx1 tiene una única solución,
la cual es la solución trivial X = θnx1. Luego, f(X) = θmx1 si y sólo si
Sean A∈Mnxn(ℜ) una matriz simétrica y f: ℜn→ℜ una forma cuadrática con X = θnx1. Por consiguiente, ∀ X∈ℜn (X ≠ θnx1): f(X) > 0, es decir, f
matriz simétrica asociada A. A es definida positiva si y sólo si existe una es definida positiva y en consecuencia AtA es definida positiva.
matriz B∈Mnxn(ℜ) no singular tal que A es una matriz Grammian de la forma
A = BtB. 2. Sea f: ℜn→ℜ la forma cuadrática cuya matriz simétrica asociada es
AAt. Luego,
Demostración
n
CN(⇒): Si A es definida positiva entonces existe una matriz B∈Mnxn(ℜ) no
singular tal que A es una matriz Grammian de la forma A = BtB.
f(X) = XtAAtX = (AtX)t(AtX) = YtY = ∑Y
i =1
i
2
; con Y = AtX
Como A es definida positiva entonces por el teorema 8.8., A es congruente con Por lo tanto, f(X) ≥ 0 y es tal que f(X) = 0 si y sólo si Y = θnx1.
la matriz In, es decir: Pero, Y = θnx1 implica que AtX = θnx1, lo cual es un SEL
homogéneo y por la Eliminación de Gauss-Jordan, como
∃ P∈Mnxn(ℜ) (P no singular): PtAP = In Rango(At) = Rango(A) = n < m entonces el SEL AtX = θnx1 no tiene
⇒ ∃ P∈Mnxn(ℜ) (P no singular): A = (Pt)-1InP-1 una única solución, es decir, existen soluciones distintas de la
⇒ ∃ P∈Mnxn(ℜ) (P no singular): A = (P-1)tP-1 solución trivial X = θmx1. Luego, f(X) ≥ 0 y ∃ X∈ℜn (X ≠ θmx1):
⇒ ∃ P, B∈Mnxn(ℜ) (P, B no singulares) (B = P-1): A = BtB f(X) = 0. Por consiguiente, ∀ X∈ℜn: f(X) ≥ 0 y ∃ X∈ℜn (X ≠ θmx1):
f(X) = 0, es decir, f es semidefinida positiva y en consecuencia AAt
CS(⇐): Si existe una matriz B∈Mnxn(ℜ) no singular tal que A es una matriz es semidefinida positiva.
Grammian de la forma A = BtB entonces A es definida positiva.
8.5. VECTOR DERIVADA O GRADIENTE DE UNA FORMA
Por hipótesis: CUADRÁTICA.
306 307
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
n n
∂f
⎡4X1 + 3X − 5X 3 ⎤
2
2
(∇f (X1 , X 2 ,..., X n ))i =
∂X i
= 2A ii X i + 2 ∑
j=1 ( i ≠ j)
∑
A ijX j = 2 A ijX j
j=1
⎢ ⎥
∇f (X1 , X 2 , X 3 ) = ⎢ 6X1X 2 + 6X 22 ⎥
⎢ − 5X − 10X ⎥ En consecuencia,
⎣ 1 3 ⎦
⎡ n ⎤
Teorema 8.11. (Gradiente de una Función Lineal)
∑
⎢ 2 A1 jX j ⎥
⎢ j=1 ⎥ ⎡ A11 A12 L A1n ⎤ ⎡ X1 ⎤
Sea f: ℜ →ℜ definida por f (X ) = X Y = Y X ; Y∈ℜ . Entonces se cumple
n t t n ⎢ n ⎥ ⎢ ⎥⎢ ⎥
que:
⎢
∇f ( X ) = ⎢ ∑
2 A 2 jX j ⎥ ⎢A 21 A 22 L A 2 n ⎥ ⎢ X 2 ⎥ = 2AX
⎥ = 2⎢ M
j=1 M M ⎥⎢ M ⎥
⎢ M ⎥ ⎢ ⎥⎢ ⎥
∇f ( X ) = Y ⎢ n ⎥ ⎣⎢A n1 A n 2 L A nn ⎦⎥ ⎣⎢X n ⎦⎥
∑
⎢ 2 A njX j ⎥
⎣⎢ j=1 ⎦⎥
Demostración
Ejemplo 8.13.
Por hipótesis, f (X) = X t Y = Y t X , es decir:
La derivada de la forma cuadrática del ejemplo 8.1., es:
n
f(X1, X2, …, Xn) = ∑ Yi Xi ⎡ 2X1 − 2X 2 ⎤ ⎡ X1 − X 2 ⎤ ⎡ 1 −1 0⎤ ⎡ X1 ⎤
i =1 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥
∇f (X1 , X 2 , X 3 ) = ⎢4X 2 − 2X1 + 2X 3 ⎥ = 2⎢− X1 + 2X 2 + X 3 ⎥ = 2 ⎢ − 1 2 1⎥ ⎢X 2 ⎥ = 2AX
⎢⎣ 2X 3 + 2X 2 ⎥⎦ ⎢⎣ X 2 + X3 ⎥
⎦ ⎢⎣ 0 1 1⎥⎦ ⎢⎣ X 3 ⎥⎦
Luego,
Ejemplo 8.14.
∂f
(∇f (X1 , X 2 ,..., X n ))i = = Yi En relación al ejemplo 8.5., el vector gradiente de la forma cuadrática nS2 =
∂X i
f(X) = XtPX es:
Por consiguiente,
∇f (X) = 2PX = 2X̂
∇f ( X ) = Y
Sean A∈Mnxn(ℜ) una matriz simétrica y f: ℜn→ℜ una forma cuadrática con
matriz simétrica asociada A. Entonces se cumple que:
∇f (X) = 2AX
Demostración
Por hipótesis:
n n
f(X) = XtAX, es decir, f(X1, X2, …, Xn) = ∑∑ A X X
i =1 j=1
ij i j
n n n
Como A es simétrica entonces f(X1, X2, …, Xn) = ∑A X
i =1
ii
2
i +2 ∑ ∑A X X
i =1 j=1 (i < j)
ij i j
.
Luego,
308 309
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
6.1. ()
f1(X1, X2, …, Xn) = X .
2
11.1. Si f es semidefinida positiva entonces existe una matriz
f (X , X , …, X ) = n (X ) .
2 P∈Mqxn(ℜ) de rango q tal que A = PtP.
6.2. 2 1 2 n 11.2. Si f es semidefinida negativa entonces existe una matriz
6.3. f3(X1, X2, …, Xn) = S2. Q∈Mqxn(ℜ) de rango q tal que A = –QtQ.
Demuestre que cada una de estas funciones son formas cuadráticas. 12. Sean A∈Mnxn(ℜ) y B∈Mnxp(ℜ) tales que A es definida positiva y
Clasifíquelas y determine además representación normal y canónica en Rango(B) = p. Demuestre que la forma cuadrática f: ℜp→ℜ con
cada caso. matriz simétrica asociada BtA-1B es definida positiva.
310 311
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS CAPÍTULO 8: FORMAS CUADRÁTICAS
13. Sea la forma cuadrática f: ℜn→ℜ, tal que f(X) = XtA1X + XtA2X, ⎡S12 S12 L S1n ⎤
donde A2A1 = θnxn para i = 1,2 Ai es idempotente y rango(Ai) = ki. ⎢ 2 ⎥
S S2 L S2 n ⎥
Clasifique la forma cuadrática f si se sabe que: V = ⎢⎢ 12
M M M ⎥
⎢ ⎥
13.1. k1 + k2 < n. ⎢⎣S1n
2
S2 n L Sn ⎥⎦
13.2. k1 + k2 = n.
Es definida positiva.
14. Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ), tales que Rango(A) = n, ABA = A y
BA es simétrica. Demuestre que si P∈Mnxn(ℜ) es no singular entonces 20. Determine el vector gradiente de todas las formas cuadráticas del
la matriz Pt(BA)P es definida positiva. ejercicio 1.
15. Sean A∈Mpxq(ℜ) y B∈Mqxq(ℜ) tales que Rango(A) = q, B es simétrica 21. Sean X∈Mnxp(ℜ) una matriz de rango columna completo, Y∈ℜn y
y B – AtA es definida positiva. Demuestre que la matriz B es definida
h: ℜp→ℜ definida por h(Z) = (Y–XZ)t(Y–XZ). Determine el vector Z
positiva.
tal que ∇h ( Z) = θ px1 .
16. Sea f la forma cuadrática f: ℜn→ℜ con matriz simétrica asociada A.
Demuestre que:
1 ⎡ X1 2rX1X 2 X 2 ⎤
2 2
f(X1, X2) = 2 ⎢ 2
− + 2⎥
(1 − r ) ⎣⎢ S1 S1S2 S2 ⎦⎥
⎡S 2
S12 ⎤
V=⎢ 1 2⎥
⎣⎢S12 S2 ⎦⎥
Es definida positiva.
19. Sean X1, X2, …, Xn variables aleatorias con varianzas S12, S22, …, Sn2,
respectivamente y Sij la covarianza entre Xi y Xj,i = 1, 2, .., n;
j = 1, 2, …, n. Demuestre que si ∀ Y1, Y2, …, Yn∈ℜ no nulos
simultáneamente, VAR(Y1X1 + Y2X2 + … + YnXn) > 0 entonces la
matriz V definida por:
312 313
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Capítulo 9
INTERPRETACIONES
GEOMÉTRICAS
9.1. INTRODUCCIÓN.
En este capítulo se presenta el tema del Álgebra Lineal que mayor contribución
tiene en el Análisis de Datos Multivariante como lo son las Interpretaciones
Figura 9.1.
Geométricas. Se exponen sus principales tópicos asociados como lo son la
Representación Gráfica de los Vectores Filas y Columnas de una Matriz de
El gráfico obtenido es un gráfico de dispersión. A primera vista se observan 3
Datos, Ángulo entre 2 vectores y Rectas y Planos en ℜn, y los Subespacios de grupos de elementos: {C, B}, {A, F, G} y {E, D}. Sin embargo, no se dispone
Mejor Ajuste Mínimo Cuadrático, herramienta que justamente es la que de mayor información para caracterizar esos grupos. Para ello, consideremos la
permite la reducción de datos. matriz de datos centrada:
9.2. REPRESENTACIÓN GRÁFICA DE LOS VECTORES FILAS Y
VECTORES COLUMNAS DE UNA MATRIZ DE DATOS. ⎡ −0,43 −1,57 ⎤
⎢ ⎥
⎢ − 2,43 − 0,57 ⎥
Sea X∈Mnxp(ℜ) una matriz de datos. Dicha matriz tiene n vectores filas que ⎢ − 4,43 1,43 ⎥
puede representarse gráficamente como puntos en ℜp; estos puntos representan ⎢ ⎥
X̂ = ⎢ 4,57 6,43⎥
a los elementos. Igualmente tiene p vectores columnas que pueden ⎢ 2,57
representarse gráficamente como puntos en ℜn; estos puntos representan a las 0,43⎥
⎢ ⎥
variables. Si p = 1, 2, 3 es posible representar gráficamente a los elementos ⎢ − 0,43 − 2,57⎥
pero si p ≥ 4 esto resulta imposible. De la misma forma, si n = 1, 2, 3 es ⎢ ⎥
⎣ 0,57 − 3,57 ⎦
posible representar gráficamente a las variables pero si n ≥ 4 esto resulta
imposible. De allí que es más factible representar gráficamente a los elementos
La representación gráfica de los 7 vectores filas (elementos) sobre ℜ2 se puede
de una matriz de datos que a las variables siempre y cuando se midan a lo
apreciar en la figura 9.2.:
sumo 3 variables.
⎡12 11⎤
⎢ ⎥
⎢10 12 ⎥
⎢08 14 ⎥
⎢ ⎥
X = ⎢17 19 ⎥
⎢15 13 ⎥
⎢ ⎥
⎢12 10 ⎥
⎢ ⎥
⎣13 09⎦ Figura 9.2.
En este caso se pueden representar gráficamente los 7 vectores filas En este caso el punto (0,0) representa el punto de medias de las 2 columnas de
(elementos) sobre ℜ2 (Figura 9.1.). X̂ , de manera que los 4 cuadrantes del gráfico anterior tienen características
particulares:
315
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Primer Cuadrante: cercanos a D son E y A (aunque lejos), los más cercanos a E son A y F, los
más cercanos a F son A y B y los más cercanos a G son F y A. Esto también
Son los alumnos cuyas notas en el 1er y 2do parcial están por encima de la permite construir grupos internamente homogéneos y externamente
media. En este caso, están los alumnos E y D. heterogéneos.
Segundo Cuadrante: Sin embargo, en la práctica no es común encontrar matrices de datos con sólo
2 columnas. Si tuviesen 3 columnas aún es posible representar gráficamente
Son los alumnos cuya nota en el primer parcial está por debajo de la media los elementos pero todavía se torna complicado analizar los grupos de
pero cuya nota en el segundo parcial está por encima de la media. En este caso, elementos que se originan. Si tuviesen 4 o más columnas entonces es
está solamente el alumno C. imposible representar gráficamente los elementos. El objetivo fundamental de
este capítulo es justamente resolver este problema a través del Álgebra Lineal.
Tercer Cuadrante:
9.3. ÁNGULO ENTRE 2 VECTORES, RECTAS Y PLANOS EN ℜn.
Son los alumnos cuyas notas en el 1er y 2do parcial están por debajo de la
media. En este caso, están los alumnos B, A y F. Teorema 9.1.
Cuarto Cuadrante: Sean X, Y∈ℜn. Entonces el ángulo φ entre los vectores X e Y es tal que:
Son los alumnos cuya nota en el primer parcial está por encima de la media XtY
pero cuya nota en el segundo parcial está por debajo de la media. En este caso, Cos(φ) =
está solamente el alumno G. X Y
En este caso:
φ
||Y||
⎡0,00 2,24 5,00 9,43 3,61 1,00 2,24 ⎤
⎢ ⎥
⎢2,24 0,00 2,83 9,90 5,10 2,83 4,24 ⎥
⎢5,00 2,83 0,00 10,30 7,07 5,66 7,07 ⎥
⎢ ⎥
D = ⎢9,43 9,90 10,30 0,00 6,32 10,30 10,77 ⎥
⎢ 3,61 5,10 7,07 6,32 0,00 4,24 4,47 ⎥ Figura 9.3.
⎢ ⎥
⎢1,00 2,83 5,66 10,30 4,24 0,00 1,41 ⎥
⎢ ⎥ Por la ley del coseno se tiene que:
⎣2,24 4,24 7,07 10,77 4,47 1,41 0,00 ⎦
2 2
d 2 (X, Y) = X + Y − 2 X Y Cos(φ) (2)
Se puede observar claramente que los elementos más cercanos a A son F y B,
los más cercanos a B son A y F, los más cercanos a C son B y A, los más
316 317
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Igualando (1) y (2) se tiene que: El vector (X – Y) se dice que es el vector director de la recta LYX. Si Y = θnx1
entonces la recta LθX es una recta en ℜn que pasa por el origen θnx1. La figura
2 2
X + Y − 2X t Y = X + Y − 2 X Y Cos(φ)
2 2
9.4., muestra una recta LθX en ℜ3.
⇒ 2 X Y Cos(φ) = 2X t Y
⇒ X Y Cos(φ) = X t Y
XtY
⇒ Cos(φ) =
X Y
LθX
Teorema 9.2.
Sea X∈Mnxp(ℜ) una matriz de datos. Entonces el coseno del ángulo φ entre los
vectores X̂ h y X̂ j es:
Cos(φ) = rhj
Figura 9.4.
Siendo rhj el coeficiente de correlación lineal de Pearson entre las variables
h-ésima y j-ésima. Ejemplo 9.1.
318 319
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
La recta que pasa por el origen θ3x1 y el vector X es: En este caso, W = LθX. Es claro que una base de LθX esta formada por un solo
vector y es {X}. Por lo tanto, una base ortonormal de LθX es {V}, siendo
⎡ 1⎤ X X
⎢ ⎥ V= = . Luego,
LθX = {Z∈ℜ3: Z = c ⎢− 2⎥ ; c∈ℜ} X XtX
⎢⎣ 3⎥⎦
Pr oy LYθX = < Y, V > V
Teorema 9.3.
⇒ Pr oy LYθX = (Y t V)V
Sea X∈ℜ . Entonces la Recta LθX es un subespacio de ℜ .
n n
X X
⇒ Pr oy LYθX = (Y t ( ))
Demostración XtX XtX
YtX
Por definición: ⇒ Pr oy LYθX = 2
X
⎛ XtX ⎞
⎜ ⎟
LθX = {Z∈ℜn: Z = cX; c∈ℜ} ⎝ ⎠
YtX
Veamos que LθX es un subespacio de ℜn. ⇒ Pr oy LYθX = X
XtX
1. Es claro que si c = 0 entonces Z = 0X = θnx1. Luego, θnx1∈LθX. (
⇒ Pr oy YLθX = ψ YLθX X )
2. Sean Z1, Z2∈LθX. Luego, existen c1, c2∈ℜ tales que Z1 = c1X y
Z2 = c2X. Luego, dZ1 + Z2 = d(c1X) + c2X, es decir, En la figura 9.5., se puede apreciar gráficamente la proyección ortogonal de un
dZ1 + Z2 = (dc1 + c2)X; d∈ℜ. Por lo tanto, (dZ1 + Z2)∈LθX. vector Y sobre una recta LθX en ℜ3.
Teorema 9.4.
( )
Pr oy YLθX = ψ YLθX X Y Y − Pr oy LYθX LθX
Pr oy LYθX
Siendo ψ ( Y
L θX ) YtX
= t la componente de proyección.
XX
Demostración
Por el teorema 9.3., LθX es un subespacio de ℜn. Es claro que V = ℜn es un Figura 9.5.
espacio euclídeo con el producto interno usual < X, Y > = X t Y , ∀ X, Y∈ℜn.
Se aprecia claramente que (Y − Pr oy YLθX ) ⊥ Pr oy YLθX .
Por definición de proyección ortogonal (definición 5.6.):
Observaciones:
p
Pr oy YW = ∑ < Y, V
j=1
j
> Vj
1. Por el teorema 5.11., d2(Y, LθX) = d2(Y, Pr oy LYθX ), es decir:
YtX
Siendo {V1, V2, …, Vp} una base ortonormal de W. d2(Y, LθX) = d2(Y, X)
XtX
YtX YtX
= (Y – t
X )t(Y – t X )
XX XX
320 321
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
YtX YtX ⎡ 1⎤
= (Yt – ( X )t)(Y – t X ) ⎢ ⎥
t
XX XX 2 1]⎢− 2⎥ [3
YtX t YtX YtX ⎢⎣ 3⎥⎦ 2
= (Yt – ( )X )(Y – t X ) (ψ LYθX ) = t = =
⎡ 1⎤ 14
t
XX XX XX
= YtY – Yt (
YtX YtX YtX YtX
)X – ( t )X t Y + ( t )X t t X
[1 − 2 3]⎢⎢− 2⎥⎥
t
XX XX XX XX ⎢⎣ 3⎥⎦
YtX t YtX YtX YtX
= YtY – ( t
)Y X – ( t ) Y t X + ( t ) t ) X t X
XX XX XX XX Luego,
YtX YtX
= YtY – 2 ( t )Y t X + ( t )Y t X
XX XX ⎡ 1⎤ ⎡ 1 7 ⎤
2 ⎢ ⎥ ⎢ 2 ⎥
YX t t Pr oy Y
L θX = (ψ Y
L θX )X = ⎢− 2⎥ = ⎢ − ⎥
= YtY – ( )Y X 14 ⎢ 7⎥
XtX ⎣⎢ 3⎦⎥ ⎢⎣ 3 7 ⎥⎦
YtX t XtX
= YtY – ( )Y X( t )
XtX XX Además,
YtX
= YtY – ( t ) 2 X t X
XX d2(Y, LθX) = YtY – (ψ LYθX ) 2 X t X
= Y Y – (ψ
t Y 2
L θX ) XX t
⎡3⎤ 2 ⎡ 1⎤
⎢ ⎥ ⎛ 2⎞ ⎢ ⎥
2. 2
d ( Pr oy Y
, θnx1) = || Pr oy Y 2
|| = ( Pr oy Y t
) Pr oy Y = [3 2 1]⎢2⎥ − ⎜ ⎟ [1 − 2 3]⎢− 2⎥
L θX L θX L θX L θX
⎢⎣1 ⎥⎦ ⎝ 14 ⎠
⎢⎣ 3⎥⎦
(( ) ) ( )
= ψ YLθX X ψ YLθX X
t
⎛ 4 ⎞
= (ψ ) X X
Y 2 t = 14 − ⎜ ⎟14
L θX ⎝ 196 ⎠
2
Ejemplo 9.3. = 14 −
7
96
Consideremos la recta LθX del ejemplo 9.2.: =
7
⎡ 1⎤
⎢ ⎥ Finalmente,
LθX = {Z∈ℜ3: Z = c ⎢ − 2⎥ ; c∈ℜ}
⎣⎢ 3⎦⎥
2
⎛ 2 ⎞ 2
d 2 (Pr oy LYθX , θ3 x1 ) = (ψ LYθX ) 2 X t X = ⎜ ⎟ .14 =
⎡ 3⎤ ⎝ 14 ⎠ 7
⎢ ⎥
Calculemos la proyección ortogonal del vector Y = ⎢ 2⎥ sobre la recta LθX:
Definición 9.2.
⎣⎢1 ⎦⎥
Sean X0, X1, X2, …, Xp∈ℜn vectores L.I. Se define como plano de dimensión
Pr oy LYθX = (ψ LYθX )X p+1 en ℜn generado por los vectores X0, X1, X2, …, Xp y se denota por Ppn+1 al
conjunto:
La componente de proyección es:
p
Ppn+1 = {Z ∈ ℜ n : Z = X 0 + ∑ B X ; B ∈ ℜ, ∀j = 1, 2, ..., p}
j=1
j
j
j
322 323
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Si X0 = θnx1 entonces se dice que el plano pasa por el origen, es generado por
los vectores L.I. X1, X2, …, Xp y se denota por Ppn . Es claro que si Z∈ Ppn+1
entonces Z es combinación lineal de los vectores X0, X1, X2, …, Xp.
…
j=1 X1
p
X
⎡1⎤
⎢ ⎥
⎢ B1 ⎥
[
Z = X0 X1 X2
⎢ ⎥
]
L X B2 ⎥ = XB
p ⎢
⎢ M ⎥
⎢B ⎥ Figura 9.6.
⎣ p⎦
Ejemplo 9.4.
⎡1⎤
⎢ ⎥ Sean X1, X2∈ℜ3 los vectores:
⎢ B1 ⎥
Siendo X∈Mnx(p+1)(ℜ) = [X0 X X …. X ] y B∈ℜ = ⎢B 2 ⎥
1 2 p p+1
⎢ ⎥ ⎡ −1 ⎤ ⎡1⎤
⎢ M ⎥ ⎢ ⎥ ⎢ ⎥
⎢B ⎥ X1 = ⎢ 2⎥ , X2 = ⎢0 ⎥
⎣ p⎦ ⎢⎣− 2⎥⎦ ⎢⎣3⎥⎦
De modo que:
El plano de dimensión 2 en ℜ3 que pasa por el origen y es generado por los
vectores X1 y X2 es:
Ppn+1 = {Z ∈ ℜ n : Z = XB; X ∈ M nx(p +1) (ℜ), B ∈ ℜ p +1}
⎡ −1 ⎤ ⎡1⎤
En particular, si p = 1 entonces: ⎢ ⎥ ⎢ ⎥
P23 = {Z ∈ ℜ3 : Z = B1 ⎢ 2⎥ + B2 ⎢0⎥; B1 , B2 ∈ ℜ} = {Z ∈ ℜ3 : Z = XB; B ∈ ℜ 2 }
⎢⎣ − 2 ⎥⎦ ⎢⎣3⎥⎦
P1n+1 = {Z ∈ ℜ n : Z = X 0 + B1X1 ; B1 ∈ ℜ} = L X 0X1
Siendo:
Si además X0 = θnx1 entonces:
⎡ −1 1⎤
Ppn = {Z ∈ ℜ n : Z = XB; X ∈ M nxp (ℜ), B ∈ ℜ p } ⎢ ⎥ ⎡B ⎤
X = ⎢ 2 0⎥ y B = ⎢ 1 ⎥
⎢⎣ − 2 3⎥⎦ ⎣B 2 ⎦
Para p = 1 entonces:
Sean X1, X2, …, Xp∈ℜn tales que los vectores X1, X2, …, Xp son L.I. Entonces
En la figura 9.6., se puede apreciar un plano Pp3 . el plano Ppn que pasa por el origen y es generado por los vectores
X1, X2, …, Xp es un subespacio de ℜn.
Demostración
Por definición:
324 325
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
p
En este caso, W = Ppn . Es claro que como {X1, X2, …, Xp} es L.I., entonces es
Ppn = {Z ∈ ℜ n : Z = ∑ B X ; B ∈ ℜ, ∀j = 1, 2, ..., p}
j=1
j
j
j
una base de Ppn . Por consiguiente, para determinar una base ortonormal
aplicamos el proceso de ortonormalización de Gram-Schmidt sobre
Veamos que Ppn es un subespacio de ℜn. {X1, X2, …, Xp}. Así se obtienen los vectores V1, V2, …, Vp de modo que
existen escalares Cji; i = 1, 2, …, p; j = 1, 2, …, p tales que:
1. Es claro que si B1 = B2 = … = Bp = 0 entonces Z = θnx1. Luego,
p
θnx1∈ Ppn . Vj = ∑Ci =1
ji X
i
2. Sean Z , Z ∈
1 2
Ppn . Luego, existen Bij∈ℜ; i = 1, 2; j = 1, 2, …, p tales
p p Por lo tanto,
que Z1 = ∑B
j=1
1 jX
j
y Z2 = ∑B j=1
2 jX
j
. Luego,
p p p
p p Pr oy YPn = ∑ (< Y, ∑ C ji X
i
>( ∑C ji X
i
))
dZ 1
+ 2
Z = d ∑
j=1
B1 jX + j
∑j=1
B2 jX ,j
es decir, p
j=1 i =1 i =1
p
Ahora bien,
dZ1 + Z2 = ∑ (dB
j=1
1j + B 2 j )X j ; d∈ℜ. Por lo tanto, (dZ1 + Z2)∈ Ppn .
p p p p
< Y, ∑C
i =1
ji X
i
>= ∑C
i =1
ji < Y, X i > = ∑Ci =1
ji ( Y
t
Xi ) = ∑C
i =1
ji ( X ) Y = Dj
i t
Luego,
Teorema 9.6.
p p
Sean Y, X1, X2, …, Xp∈ℜn tales que los vectores X1, X2, …, Xp son L.I. Pr oy YPn =
p
∑ ( D (∑ C
j=1
j
i =1
ji X
i
))
Entonces la Proyección Ortogonal de Y sobre el plano Ppn generado por los
p p
vectores X1, X2, …, Xp es: ⇒ Pr oy YPn =
p
∑∑ D C
j=1 i =1
j ji X
i
Pr oy YPn = HY p p
p
⇒ Pr oy YPn =
p
∑∑ D C
i =1 j=1
j ji X
i
Siendo:
⎡ p ⎤
1. X = [ X1 X2 L Xp ] ⎢ D jC j1 ⎥
⎢ j=1 ⎥
∑
2. H = X (X t X) −1 X t . Esta matriz se denomina Matriz de Proyección. ⎢ p ⎥
⇒ Pr oy YPn = [ X1 X2
⎢ D jC j2 ⎥
L Xp ] ⎢
j=1 ⎥
∑
Demostración p
⎢ M ⎥
⎢ p ⎥
Por el teorema 9.5., Ppn es un subespacio de ℜn. Es claro que V = ℜn es un ⎢ D jC jp ⎥
⎢⎣ j=1 ⎥⎦
∑
espacio euclídeo con el producto interno usual < X, Y > = X Y , ∀ X, Y∈ℜ . t n
⎡ C11 C 21 L C p1 ⎤ ⎡ D1 ⎤
Por definición de proyección ortogonal (definición 5.6.): ⎢ ⎥⎢ ⎥
C12 C 22 L C p 2 ⎥ ⎢D 2 ⎥
⇒ Pr oy YPn = [ X1 X2 L Xp ] ⎢
p ⎢ M M M ⎥⎢ M ⎥
∑ < Y, V
p
Pr oy YW = j
>V j
⎢ ⎥⎢ ⎥
j=1 ⎣⎢C1p C 2 p L C pp ⎦⎥ ⎣⎢D p ⎦⎥
326 327
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ p ⎤
⎡ C11 C 21
∑
⎢ C1i (X ) Y ⎥
L C p1 ⎤ ⎢ i =1
i t
⎥
⎢ ⎥ p
L C p 2 ⎥ ⎢ C (X i ) t Y ⎥
⇒ Pr oy YPn = [ X1 X2 L X ]
C
p ⎢ 12
⎢ M
C 22
⎢ ∑ 2i ⎥ Pp3
p M M ⎥ ⎢ i =1 ⎥
⎢ ⎥⎢ M ⎥
⎣⎢C1p C2p L C pp ⎦⎥ ⎢ p ⎥
∑ i t
⎢ C pi (X ) Y ⎥ X2
Y (Y − Pr oy YP3 )
p
⎣⎢ i =1 ⎦⎥
…
Y
Pr oy
⎡ p ⎤ Pp3
⎡ C11 C 21
∑
L C p1 ⎤ ⎢ i =1
i t
⎢ C1i (X ) ⎥
⎥
Xp X1
⎢ ⎥ p
L C p 2 ⎥ ⎢ C (X i ) t ⎥
⇒ Pr oy YPn =[X1
X 2
L X ]⎢
C12
⎢ M
p
C 22
⎢ ∑ 2i ⎥Y
p M M ⎥ ⎢ i =1 ⎥
⎢ ⎥⎢ M ⎥
⎣⎢C1p C2p L C pp ⎦⎥ ⎢ p ⎥
∑ i t
⎢ C pi (X ) ⎥
⎣⎢ i =1 ⎦⎥ Figura 9.7.
⇒ Pr oy YPn = Luego,
p
⎢ ⎥⎢ ⎥⎢ ⎥ (Y – Pr oy YPn )tXj = 0
C12 C 22 L C p 2 ⎥ ⎢C 21 C 22 L C 2 p ⎥ ⎢(X 2 ) t ⎥ p
[X 1
X 2
L X ]⎢
p
Y
⎢ M M M ⎥⎢ M M M ⎥⎢ M ⎥ ⇒ (Y – Pr oy YPn )tXj = 0
⎢ ⎥⎢ ⎥⎢ p t ⎥ p
⇒ Y X = (Pr oy ) X
p t Y t
Ppn
⎡ p p p
⎤ ⇒ (YtX)t = ( (Pr oy PYn ) t X)t
⎢
⎢ r =1
∑
C 2r1 ∑C
r =1
r1 Cr2 L ∑C
r =1
r1 C rp ⎥
⎥
p
⇒ X Y = X Pr oy YPn
t t
⎢ p p p
⎥
∑ ∑ ∑
p
C=⎢
C r 2 C r1 C 2r 2 L C r 2 C rp ⎥
⎢ r =1 r =1 r =1 ⎥
una matriz de orden pxp ⇒ XtY = XtXCXtY
⎢ M M M ⎥
⎢ p p p ⎥ Como X tiene sus p columnas L.I. entonces Rango(X) = p. En consecuencia,
∑
⎢ C rp C r1 ∑C rp Cr2 L ∑ C 2rp ⎥ por el teorema 8.10., la matriz XtX es definida positiva y por lo tanto no
⎣⎢ r =1 r =1 r =1 ⎦⎥ singular. Luego,
328 329
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n
Pr oy YPn = XCXtY = X(XtX)-1XtY = HY
p = YtY − ∑ (Y X )
j=1
t j 2
Observaciones: n 2
= YtY − ∑ ⎛⎜⎝ ψ
j=1
Y
L j
θX
⎞⎟
⎠
1. Por el teorema 5.11., d2(Y, Ppn ) = d2(Y, Pr oy YPn ), es decir:
p
Siendo Q = In – H. Las matrices Q y H son simétricas e 3. Si los vectores X1, X2, …, Xp forman una base ortonormal de ℜn
idempotentes (ver Ejercicio 23, Capítulo 1). entonces XtX = Ip. Luego, H = XXt y Q = Ip – XXt. En
consecuencia:
Por lo tanto:
3.1. Pr oy YPn = HY = XXtY.
p
d2(Y, Ppn ) = YtQY
3.2. d (Y, Ppn ) = Yt(Ip – XXt)Y.
2
Es decir, el cuadrado de la distancia de un vector Y al plano Ppn es 3.3. d2( Pr oy YPn , θnx1) = YtXXtY.
p
n ⎡ −1 1⎤
⎢ ⎥
= YtY − Yt ∑ X (X ) Y
j=1
j j t
X = ⎢ 2 0⎥
⎢⎣ − 2 3⎥⎦
n
= Y Y−
t
∑ Y X (X ) Y
j=1
t j j t
Luego,
n
= YtY − ∑ (Y X )((X ) Y)
t j j t
⎡ −1 1⎤
j=1 ⎡ − 1 2 − 2⎤ ⎢ ⎥ ⎡ 9 − 7⎤
XtX = ⎢ ⎥ ⎢ 2 0⎥ = ⎢ ⎥
⎣ ⎦ ⎢ − 2 3⎥ ⎣− 7 10 ⎦
n 1 0 3
= YtY − ∑ (Y X )(Y X )
j=1
t j t j
⎣ ⎦
330 331
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
−1
V1, V2, …, Vq que verifica que ∑d 2
(X i , SMA(X) q ) es mínima.
H = X (X X) X
t t i =1
⎡ − 1 1⎤ ⎡10 ⎡ 5 −6 12 ⎤ Observaciones:
7 ⎤ ⎡ − 1 2 − 2⎤ ⎢ 41 41 41⎥
⎢ ⎥ ⎢ 41 41⎥
⇒ H = ⎢ 2 0⎥ ⎥ = ⎢ − 41 2 ⎥
6 40
⎢
⎢ 7 9 ⎥ 1 0 3⎦ ⎢ 41 41 ⎥ d 2 (X i , SMA (X) q ) = d 2 (X i , Pr oySMAX(iX )q )
⎢⎣− 2 3⎥⎦ ⎣ 41 41⎦ ⎣ ⎢⎣ 12 41 2 37 ⎥ 1. Como entonces el
41 41⎦
subespacio de mejor ajuste mínimo cuadrático SMA(X) q es aquel
Por lo tanto, n
que verifica que ∑d
i =1
2
(X i , Pr oy SMAX( Xi ) q ) es mínima.
⎡ 5 −6 12 ⎤ ⎡3⎤ ⎡15 ⎤
⎢ 41 41 41⎥ ⎢ 41⎥
Pr ow Y
= HY = ⎢ − 6 40 2 ⎥ ⎢2⎥ = ⎢64 ⎥ 2. Si X es una matriz de datos entonces independientemente del valor
P23
⎢ 41 41 41 ⎥ ⎢ ⎥ ⎢ 41⎥
⎢⎣ 12 41 2 37 ⎥ ⎢⎣1 ⎥⎦ ⎢77 ⎥ de p es posible representar los vectores filas (elementos) de X sobre
41 41⎦ ⎣ 41⎦ un plano de dimensión q (q = 1, 2, 3).
⎢ 41⎥ 41
⎢⎣77 41⎥⎦
332 333
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
∑ ((V ) X )((X ) V )
n
1 t t 1
= i i
i =1
⎛ n ⎞
∑
= (V1 ) t ⎜⎜ X i (X i ) t ⎟⎟V1
⎝ i =1 ⎠
… d(X1 , L θV1 ) L θV1 ⎛ ⎡ (X1 )t ⎤ ⎞
X1 ⎜ ⎢ ⎥⎟
Xn ⎜ (X )t ⎟
= (V1 ) t ⎜ [X1 X 2 L X n ]⎢⎢ 2 ⎥⎥ ⎟V1
Pr oy LX 21 Pr oy LX11
Pr oy LX n1
θV
d(X 2 , L θV1 )
θV
⎜ ⎢
M ⎟
⎥
⎜ t ⎟
⎣ n ) ⎥⎦ ⎠
⎢ (
θV
X2 ⎝ X
d (X n , L θV1 )
= (V1 ) t X t XV1
Figura 9.8. n 2
Es decir, ∑ ⎛⎜⎝ ψ
i =1
Xi
L
θV1
⎞⎟ es una forma cuadrática con matriz simétrica asociada
⎠
Ahora bien,
XtX. Por lo tanto, el subespacio de mejor ajuste mínimo cuadrático de
d 2 (X i , SMA(X)1 ) = d 2 (X i , LθV1 ) = d 2 (X i , Pr oy LXi 1 ) dimensión 1 es la recta L θV1 que maximiza la forma cuadrática (V1)tXtXV1
θV
con la restricción (V1)tV1 = 1. Para hallar el vector V1 utilizaremos el método
de los multiplicadores de Lagrange:
Por la observación 1 del teorema 9.4.:
Definimos las funciones:
( )
2
d 2 (X i , Pr oy L Xi1 ) = (X i ) t X i − ⎛⎜ ψ L Xi1 ⎞⎟ V1 V1
t
( ) t
Pero V1 V1 = 1 . Luego,
La expresión (V1)tV1 es una forma cuadrática con matriz simétrica asociada Ip.
Luego,
2
d 2 (X i , Pr oy L Xi1 ) = (X i ) t X i − ⎛⎜ ψ L Xi1 ⎞⎟
θV ⎝ θV ⎠ ∇ f ( V1 ) = λ ∇ g ( V1 )
n n n 2
⇒ 2X t XV1 = λ(2I p V1 )
⇒ ∑d 2
(X i , Pr oy LXi 1 ) =
θV
∑ (X ) X i
t
i – ∑ ⎛⎜⎝ ψ Xi
L
θV1
⎞⎟
⎠
i =1 i =1 i =1
⇒ 2X t XV1 = 2λV1
n ⇒ X t XV1 = λV1
El término ∑i =1
(X i ) t X i es constante. Por lo tanto, minimizar ⇒ X t XV1 = λV1
n n
Por lo tanto, el multiplicador de Lagrange λ es autovalor de la matriz XtX con
2
∑ d (X , Pr oy
i =1
2
i
Xi
L
θV1
) equivale a maximizar ∑ ⎛⎜⎝ ψ
i =1
Xi
L
θV1
⎞⎟ , expresión que puede
⎠ autovector asociado V1. Además, si premultiplicamos a ambos lados de la
escribirse de la siguiente manera: igualdad anterior por (V1)t se obtiene que:
∑i =1
⎛⎜ ψ X i ⎞⎟
⎝ L θV1 ⎠
= ∑⎜
⎜ 1 t ⎟
i =1 ⎝ ( V ) V ⎠
⎟ ⇒ f(V1) = λ
∑ ((X ) V )((X ) V )
n
t 1 t 1
matriz XtX.
= i i
i =1
334 335
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
] )
(
⎢ 1 ⎥ J 1 -1 0 0
[ ∑ X (V )
p
L X ip ⎢⎢
V 2⎥ 1 K 1 0 0 1
= X i1 X i 2 =
M ⎥
ij j
⎢ 1 ⎥ j=1
( )
⎢⎣ V p ⎥⎦ Determinemos SMA (X)1 .
Es decir, la componente de proyección de la i-ésima fila de X sobre la recta de En este caso, la matriz de datos es:
mejor ajuste mínimo cuadrático es una combinación lineal de las mediciones
de las p variables sobre el i-ésimo elemento. De tal forma que el coeficiente ⎡1 −1 −1 1⎤
( )
V1 j mide la contribución de la j-ésima variable en la componente. Esto
⎢
⎢1 0 −1 0⎥
⎥
⎢1 0 −1 1⎥
permite caracterizar intervalos de la recta de mejor ajuste mínimo cuadrático ⎢ ⎥
para así caracterizar los grupos de elementos de X cuyas componentes de ⎢1 −1 −1 1⎥
proyección se encuentran en dichos intervalos. ⎢0 0 −1 1⎥
⎢ ⎥
Para obtener el vector de componentes de proyección se hace lo siguiente: X = ⎢1 0 0 0⎥
⎢ ⎥
⎢1 0 −1 1⎥
⎡ψ LX1 ⎤ ⎡ ⎢1 0 −1 1⎥
t 1
⎤ ⎡ t
⎤ ⎢ ⎥
⎢ XθV1 ⎥ ⎢ (X1 ) V ⎥ ⎢ (X1 ) ⎥
⎢ψ L 1 ⎥ ⎢ ( X 2 ) V ⎥ ⎢ ( X 2 ) t ⎥ 1
2 t 1 ⎢1 1 −1 1⎥
ψ LX1 = ⎢ θV ⎥ = = V = XV1 ⎢1 −1 0⎥
M ⎢ M ⎥ ⎢ M ⎥ ⎢
0
⎥
θV
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ψ X n ⎥ ⎢(X ) t V1 ⎥ ⎢(X ) t ⎥ ⎣⎢1 0 0 1⎦⎥
⎣⎢ LθV1 ⎦⎥ ⎣ n ⎦ ⎣ n ⎦
Se puede verificar que:
Ejemplo Aplicado 9.2.
⎡ 10 −2 −7
7⎤
En el período II-2004 se le consultó a un grupo de once (11) alumnos del curso ⎢ ⎥
−2 41 − 1⎥
de Algebra Lineal II su apreciación acerca del nivel de dificultad de las cuatro XtX = ⎢
(4) materias del 4º semestre de la EECA, es decir, Algebra Lineal II, ⎢− 7 18 − 7⎥
⎢ ⎥
Matemática IV, Introducción a la Economía y Teoría de la Probabilidad II.
⎣⎢ 7 −1 − 7 8 ⎦⎥
Para cada respuesta se adoptó la siguiente escala:
1: Nivel de dificultad alto. Igualmente se puede constatar que los autovalores y autovectores
0: Nivel de dificultad medio. ortonormalizados de la matriz XtX son:
-1: Nivel de dificultad bajo.
λ1 = 23 , λ 2 = 4 , λ 3 = 2 y λ 4 = 1
Los resultados de la consulta se muestran a continuación:
⎡ 0,6131⎤ ⎡ −0,2294 ⎤ ⎡ 0,7559⎤ ⎡ 0 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
− 0,1226 0,9177 0,3780 ⎥ y V =⎢ 0 ⎥
V =⎢
1 ⎥, V =⎢
2 ⎥, V =⎢
3 4
⎢ − 0,5518⎥ ⎢ − 0,2294⎥ ⎢ 0,3780⎥ ⎢0,7071⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣⎢ 0,5518⎦⎥ ⎢⎣ 0,2294⎦⎥ ⎣⎢ − 0,3780 ⎦⎥ ⎣⎢0,7071⎦⎥
336 337
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Luego, ⎡1 −1 −1 1⎤ ⎡ 1,8393 ⎤
⎢ ⎥ ⎢ ⎥
⎢1 0 −1 0⎥ ⎢ 1,1649 ⎥
⎡ 0,6131⎤
⎢ ⎥ ⎢1 0 −1 1⎥ ⎢1,7167 ⎥
− 0,1226 ⎥ ⎢ ⎥ ⎢ ⎥
SMA(X)1 = L θV1 = {Z∈ℜ : Z = c ⎢
4
; c∈ℜ} ⎢1 −1 −1 1⎥ ⎢ 1,8393 ⎥
⎢− 0,5518⎥ ⎡ 0,6131⎤
⎢ ⎥ ⎢0 −1 1⎥ ⎢ 1,1036 ⎥
⎢
0
⎥ ⎢ ⎥ ⎢ ⎥
⎣⎢ 0,5518⎦⎥ ψ LX 1 = XV = ⎢1
1
0 0 0⎥ ⎢ − 0,1226 ⎥ = ⎢ 0,6131⎥
Por lo tanto, θV
⎢ ⎥ ⎢− 0,5518⎥ ⎢ ⎥
⎢1 0 −1 1⎥ ⎢ ⎥ ⎢1,7167 ⎥
⎢1 ⎢⎣ 0,5518⎦⎥
ψ LX i 1 = 0,6131Xi1 – 0,1226Xi2 – 0,5518Xi3 + 0,5518Xi4 0 −1 1⎥ ⎢1,7167 ⎥
⎢ ⎥ ⎢ ⎥
θV
⎢1 1 −1 1⎥ ⎢ 1,5941 ⎥
⎢1 −1 0 0⎥ ⎢0,7357 ⎥
Analicemos la estructura de esta componente: ⎢ ⎥ ⎢ ⎥
⎢⎣1 0 0 1⎥⎦ ⎢⎣ 1,1649 ⎥⎦
1. Las mayores contribuciones a ψ LXi 1 son 0,6131 y 0,5518, las
θV
El gráfico de dichas componentes sobre la recta de mejor ajuste mínimo
cuales se corresponden con las materias Álgebra Lineal II y Teoría cuadrático se puede apreciar en la figura 9.9.
de la Probabilidad II.
2. Se puede apreciar que ψ LXi 1 es máxima cuando Xi1 = 1, Xi2 = –1,
θV
SMA(X) 2 = P2p
338 339
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
∑d ∑ (X ) X
t t
2
(X i , Pr oy LXi 1 ) = i
t
i – V1 X t XV1 – V 2 X t XV 2
autovectores ortonormalizados de la matriz XtX asociados con sus 2 mayores i =1
θV
i =1
autovalores.
( )
n n
∑ d (X , Pr oy ∑ (X ) X
t
2
i
Xi
L ) = i
t
i – λ1 – V 2 X t XV 2
θV1
Demostración i =1 i =1
∑
n
d 2 (X i , Pr oy SMAX(iX ) 2 ) es mínima, es decir, es el plano P2p generado por los
Por lo tanto, minimizar ∑d
i =1
2
(X i , Pr oy LXi 1 ) equivale a maximizar la forma
θV
i =1
2 t t 2
n cuadrática (V ) X XV con las restricciones (V2)tV2 = 1 y (V2)tV1 = 0. Para
1 2
vectores V y V que verifica que ∑d
i =1
2 Xi
(X i , Pr oy P p ) es mínima (ver figura
2
hallar el vector V2 utilizaremos el método de los multiplicadores de Lagrange:
Definimos las funciones:
9.11., en ℜ3).
f(V2) = (V2)tXtXV2, g(V2) = (V2)tV2 – 1 y h(V2) = (V2)tV1
P23 Luego,
(V ) 2X XV = (V ) 2λ V + (V ) μ V
2 1
2 t t 2 2 t 2 2 t 1
2 1
340 341
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
2X XV = 2λ 2 V + μ1V ⇒ 2X XV = 2λ 2 V + 0.V
t 2 2 1 t 2 2 1 la materia Matemática IV.
2. Se puede apreciar que ψ LX i 2 es máxima cuando Xi1 = –1, Xi2 = 1,
⇒ 2X t XV 2 = 2λ 2 V 2 + θ px1 θV
342 343
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Siendo D λ
(A) ∈Mrxr(ℜ) la matriz diagonal definida por:
(D λ
)
ij
⎧⎪ λ si i = j
(A) = ⎨ i
⎪⎩0 si i ≠ j
Donde λ1, λ2, …, λr son los autovalores comunes no nulos de XtX y XXt.
Demostración
[λU ] )⎥
( t
Lineal II, Matemática IV y Teoría de la Probabilidad II son materias con alto ⎢V
nivel de dificultad. En el IV cuadrante se encuentran los alumnos cuyas ⇒ X= 1
1
λ2 U2 L λr Ur ⎢ ⎥
componentes son positivas con respecto a V1 y negativas con respecto a V2, es ⎢ M ⎥
decir, los alumnos que en general opinan que Álgebra Lineal II y Teoría de la ( )
⎢⎣ V r
t
⎥⎦
Probabilidad II son materias con alto nivel de dificultad pero Matemática IV
tiene bajo nivel de dificultad. De esta forma se pueden obtener con mayor ⎡
⎢
λ1 0 L 0 ⎤ ⎡ V1
⎥⎢
( ) ⎤⎥
t
M ⎥ ⎢⎢ M ⎥
heterogéneos (figura 9.13.).
⎢ M M ⎥
⎢
⎣ 0 0 L ( )
λ r ⎥⎦ ⎢⎣ V r
t
⎥⎦
⇒ X = UD λ
(A)V t
Definición 9.4.
~
X q = UD λ
(A )V t
X = Traza (X t X)
X = UD λ
(A)V t F
344 345
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Observación: q
∑λ i
Por el teorema 7.13. (lema de Schur), si λ1, λ2, …, λp son los autovalores BSMA(X) q = i =1
p
.100%
∑
p
λi
comunes no nulos de XtX entonces Traza(XtX) = ∑λ
i =1
i . Luego,
i =1
23
Definición 9.6. BSMA (X )1 = .100% = 76,67%
23 + 4 + 2 + 1
Sea X∈Mnxp(ℜ). Se define como Medida de la Bondad del Ajuste del
Subespacio de Mejor Ajuste Mínimo Cuadrático de dimensión q a las filas de y
X y se denota por BSMA(X)q a:
23 + 4
BSMA(X) 2 = .100% = 90,00%
⎛⎜ X
~ ⎞⎟
2 23 + 4 + 2 + 1
BSMA(X) q = ⎝ q
F⎠
( )
2
.100% Se aprecia que el subespacio de mejor ajuste mínimo cuadrático de dimensión
XF
1 tiene una bondad de la aproximación del 76,67%, medida que es
relativamente alta y bastante buena para ser 1 dimensión. Sin embargo, el
Teorema 9.11. subespacio de mejor ajuste mínimo cuadrático de dimensión 2 tiene una
bondad de la aproximación del 90%, medida que es excelente por lo cual
Sean X∈Mnxp(ℜ) y λ1, λ2, …, λp∈ℜ. Si λ1, λ2, …, λp son los autovalores de la resulta el subespacio de mejor ajuste mínimo cuadrático idóneo para analizar el
matriz XtX tales que λ1 ≥ λ2 ≥ … ≥ λp entonces: comportamiento de los vectores filas de X (elementos).
∑λ i =1
i
BSMA(X) q = p
.100%
∑λ i =1
i
Demostración
Por definición:
2
⎛⎜ X
~ ⎞⎟
BSMA(X) q = ⎝
F⎠
q
( )
2
.100%
XF
2 q
⎞⎟ = ⎛ Traza ((X
~ t~ ⎞
2
⎛⎜ X
∑λ
~ ~ t~
1. ⎜ q ) X q ) ⎟ = Traza (( X q ) X q ) = .
⎝ q F⎠ ⎝ ⎠ i =1
i
(X )
2 p
= ⎛⎜ Traza (X t X) ⎞⎟ = Traza (X t X) = ∑λ
2
2. .
⎝ ⎠
F i
i =1
En consecuencia,
346 347
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎪ X̂ i
X̂ j
Cos (β ) si i ≠ j 2
⎩ ij
Cos(φ) =
nY
.
t n
∑Y
2.2. La matriz R = D VD es la matriz de correlaciones asociada a 2
i
la matriz de datos X, siendo la matriz D∈Mpxp la matriz i =1
diagonal definida por:
7.3. d2(Y, L θ1n ) = nS 2Y .
⎡ 1 ⎤
⎢ 0 L 0 ⎥
⎢ X̂ 1 ⎥
D= ⎢ 1 ⎥ 8. En relación al ejercicio 1 tome las notas de 3 alumnos en las materias
⎢ 0 L 0 ⎥
⎢ X̂ 2 ⎥ Matemática I y Estadística I. Llame a estos 2 vectores columnas X e
⎢ ⎥ Y.
⎢ M M M ⎥
⎢ 1 ⎥
⎢ 0 0 L ⎥
⎢ X̂ p ⎥
⎣ ⎦
348 349
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n n n n n n n
((X1 ) t Y) 2 ((X 2 ) t Y) 2
∑ Yi ∑ X i 2 − ∑ Xi ∑ X i Yi n ∑ X i Yi − ∑ X i ∑ Yi d(Y, P2n ) = YtY −
(X1 ) t X1
−
(X 2 ) t X 2
i =1 i =1 i =1 i =1 i =1 i =1 i =1
a= 2
y b= 2
n
⎛ n ⎞ n
⎛ n ⎞
n ∑ X i − ⎜⎜ ∑ X i ⎟⎟ n ∑ X i − ⎜⎜ ∑ X i ⎟⎟
2 2
13. Se le consultó a un grupo de once (11) personas su apreciación acerca
i =1 ⎝ i =1 ⎠ i =1 ⎝ i =1 ⎠
de tres (3) programas de televisión del canal Venevisión: “Cásate y
Verás”, “Que Locura” y “Sábado Sensacional”. Para cada respuesta se
Observación:
adoptó la siguiente escala:
Note que Pr oy YPn define la ecuación de regresión lineal estimada por 1: “Le gusta el programa y lo ve con regularidad”.
2
350 351
CAPÍTULO 9: INTERPRETACIONES GEOMÉTRICAS
352
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ Ir θrx ( n −r ) ⎤ −1
Capítulo 10 A = P −1 ⎢
⎣⎢θ( m−r ) xr
⎥Q
θ( m−r ) x ( n −r ) ⎦⎥
⎡ Ir ⎤
A = P −1 ⎢ [
⎥ Ir ]
θ rx ( n − r ) Q −1
⎣⎢θ ( m − r ) xr ⎦⎥
10.1. INTRODUCCIÓN.
⇒ ∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares): A = BC, siendo:
En este capítulo se presenta el concepto de las Pseudos Inversas, el cual
permite disponer de una matriz que tiene propiedades muy similares a la de la
B∈Mmxr(ℜ) y Q∈Mrxn(ℜ) definidas por:
matriz inversa pero en el caso de una matriz cuadrada que no es invertible o de
una matriz rectangular. Se exponen las 3 pseudos inversas; Inversa
⎡ Ir ⎤
Generalizada, Inversa Condicional y Inversa Mínimo Cuadrática, así como
B = P −1 ⎢ ⎥ y C = Ir [ ]
θ rx ( n −r ) Q −1
también sus aplicaciones para la resolución de Sistemas de Ecuaciones ⎢⎣θ( m−r ) xr ⎥⎦
Lineales Consistentes.
Es claro que si m = n y A es no singular entonces A-1 es inversa generalizada 1. AAg = BCCt(CCt)-1(BtB)-1Bt = B(BtB)-1Bt. Luego, AAg es una
de A. matriz de proyección, la cual es simétrica.
2. AgA = Ct(CCt)-1(BtB)-1BtBC = Ct(CCt)-1C = D(DtD)-1Dt, con D = Ct.
Teorema 10.1. Luego, AgA es una matriz de proyección, la cual es simétrica.
3. AAgA = B(BtB)-1BtBC = BC = A.
Sean A∈Mmxn(ℜ). Siempre existe una inversa generalizada de A y además es 4. AgAAg = Ct(CCt)-1CCt(CCt)-1(BtB)-1Bt = Ct(CCt)-1(BtB)-1Bt = Ag.
única. Se denota por Ag.
En consecuencia, Ag es inversa generalizada de A. Veamos ahora que es única.
Demostración
Supongamos que B∈Mnxm(ℜ) es también inversa generalizada de A. Luego,
Supongamos que Rango(A) = r. Por el teorema 1.30.: AB y BA son simétricas, ABA = A y BAB = B. Por lo tanto,
∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares): 1. AAg = ABAAg = (AB)t(AAg)t = (AAgAB)t = (AB)t = AB.
2. AgA = AgABA = (AgA)t(BA)t = (BAAgA)t = (BA)t = BA.
⎡ Ir θ rx ( n − r ) ⎤ 3. Ag = AgAAg = BAAg = BAB = B.
PAQ = R(A) = ⎢ ⎥
⎢⎣θ ( m − r ) xr θ ( m − r ) x ( n − r ) ⎥⎦
Por consiguiente, la inversa generalizada Ag de A es única.
354
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡1 0 2 3⎤ ⎡1 0 0 0⎤ ⎡ 1 0 0 ⎤ ⎡573 ⎤ ⎡ 5
⎢ ⎥
304 224 − 21 −5 ⎤ ⎡1 3 5 ⎤
⎢ ⎥ ⎢ ⎥ 0⎥ ⎢ 829 829 829⎥ ⎢ 4 2⎥
⎢ ⎥
A = ⎢3 2 1 1⎥ , R (A) = ⎢0 1 0 0⎥ ; = ⎢ 0 1
⎢ 304 468 − 266 ⎥ ⎢− 21 45 5 ⎥
⎢ 0 0 1⎥ ⎢ 829 829 829⎥ 4 8 2⎥ ⎢0 2 4 ⎥
⎢⎣5 4 2 6⎥⎦ ⎢⎣0 0 1 0⎥⎦ ⎢ ⎢⎣2 1 2⎥⎦
⎢ ⎥ ⎢224 − 266 633 ⎥⎦ ⎢⎣ − 5 2 5 3 ⎥
− 19 7
⎢⎣ 2 ⎦⎥ ⎣ 2⎦
4 829 829 829 2
4
⎡ 0 ⎡1 0 0 4 ⎤
2 −1 ⎤ ⎢ ⎥ ⎡ 36 314 − 81 ⎤
⎢ ⎥ 0 1 0 − 19 ⎥ ⎢ 829 829 829 ⎥
P = ⎢− 1 −2 5 ⎥ , Q=⎢ 4
⎢0 ⎢− 250 − 62 148 ⎥
⎢ 4 4⎥ 0 1 −7 ⎥ = ⎢ 829 829 829 ⎥
⎢⎣ 1 2 − 1 1 ⎥ ⎢ 2⎥
⎢ 383 347 − 240
2⎦ ⎢⎣0 0 0 1 ⎥⎦
⎢ 9 829 829 829⎥⎥
⎢⎣ − 336 187
829 829 829 ⎦⎥
Se puede verificar que:
Teorema 10.2.
⎡1 0 0 −4 ⎤
⎡1 0 2⎤ ⎢ 19 ⎥
⎢ ⎥ 0 1 0 Sea A∈Mmxn(ℜ).
P −1 = ⎢3 2 1 ⎥ , Q −1 = ⎢ 4⎥
⎢0 0 1 7 ⎥
⎢⎣5 4 2⎥⎦ ⎢ 2⎥ 1. (At)g = (Ag)t.
⎢⎣0 0 0 1 ⎥⎦ 2. (Ag)g = A.
3. Rango(A) = Rango(Ag) = Rango(AAg) = Rango(AgA).
Asimismo, 4. (AtA)g = Ag(At)g.
5. Si m = n y A es simétrica entonces Ag es simétrica.
⎡1 0 0 − 4 ⎤ 6. Si m = n y A es simétrica entonces AAg = AgA.
⎡1 0 0⎤ ⎡1 0 2⎤ ⎡1 0 0 0 ⎤ Si m = n y A es simétrica e idempotente entonces Ag = A.
⎥ −1 ⎢⎢ ⎥ 7.
−1 ⎢ ⎥ ⎢ ⎥ ⎢
B = P ⎢0 1 0⎥ = ⎢3 2 1 ⎥ , C = ⎢0 1 0 0⎥ Q = 0 1 0 19 ⎥ 8. AAg, AgA, Im – AAg y In – AgA son simétricas e idempotentes.
⎢ 4⎥
⎢⎣0 0 1⎥⎦ ⎢⎣5 4 2⎥⎦ ⎢⎣0 0 1 0⎥⎦ 9. Si Rango(A) = r entonces Rango(Im – AAg) = m – r y
⎢⎣0 0 1 7 2 ⎥⎦
Rango(In – AgA) = n – r.
10. (AAg)g = AAg.
Luego, 11. (AgA)g = AgA.
12. Si P∈Mmxm(ℜ) y Q∈Mnxn(ℜ) son ortogonales entonces
⎡ 17 (PAQ)g = QtAgPt.
⎡35 26 15⎤ ⎢ − 19 − 14 ⎤⎥ 13. Si Rango(A) = n entonces Ag = (AtA)-1At.
⎢ ⎥
B B = ⎢26 20 10⎥ , CC = ⎢ − 19
t t 377 133 ⎥ 14. Si Rango(A) = m entonces Ag = At(AAt)-1.
⎢ 16 8⎥
⎢⎣15 10 9 ⎥⎦ ⎢ − 14 133 53 ⎥ 15. Si B∈Mmxr(ℜ) y C∈Mrxn(ℜ), con Rango(B) = Rango(C) = r
⎣ 8 4⎦ entonces (BC)g = CgBg.
355 356
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
2.1. BBg = AgA. Como AgA es simétrica entonces BBg es AAg = A y AgAAg = AgA
simétrica. ⇒ AAg = A y Ag = AgA
2.2. BgB = AAg. Como AAg es simétrica entonces BgB es
simétrica. Como AAg = AgA entonces Ag = A.
2.3. BBgB = AgAAg = Ag = B.
2.4. BgBBg = AAgA = A = Bg. 8. Es evidente que AAg, AgA, Im – AAg y In – AgA son simétricas.
Veamos ahora que son idempotentes.
Por consiguiente, A es la inversa generalizada de Ag.
8.1. (AAg)2 = AAgAAg = (AAgA)Ag = AAg.
3. AAgA = A y AgAAg = Ag. Luego: 8.2. (AgA)2 = AgAAgA = (AgAAg)A = AgA.
8.3. (Im – AAg)2 = (Im – AAg)(Im – AAg) = Im – AAg – AAg +
3.1. Rango(A) = Rango(AAgA) ≤ Rango(AAg) ≤ Rango(A). (AAg)2. Como AAg es idempotente entonces (Im – AAg)2
Luego, Rango(AAg) = Rango(A). = Im – 2AAg + (AAg) = Im – AAg.
3.2. Rango(A) = Rango(AAgA) ≤ Rango(AgA) ≤ Rango(A). 8.4. (In – AgA)2 = (In – AgA)(In – AgA) = In – AgA – AgA +
Luego, Rango(AgA) = Rango(A). (AgA)2. Como AgA es idempotente entonces (In – AgA)2
3.3. Rango(Ag)=Rango(AgAAg) ≤ Rango(AAg) ≤ Rango(Ag). = In – 2AgA + (AgA) = In – AgA.
Luego, Rango(AAg) = Rango(Ag).
3.4. Rango(Ag)=Rango(AgAAg) ≤ Rango(AgA) ≤ Rango(Ag). En consecuencia, AAg, AgA, Im – AAg y In – AgA son
Luego, Rango(AgA) = Rango(Ag). idempotentes.
Por lo tanto, Rango(A) = Rango(Ag) = Rango(AAg) = 9. Por la propiedad 8, AAg, AgA, Im – AAg y In – AgA son
Rango(AgA). simétricas e idempotentes. Luego, por el teorema 7.18.,
Rango(Im – AAg) = Traza(Im – AAg), Rango(In – AgA)
4. Sean B = AtA y Bg = Ag(At)g. Verifiquemos que Bg cumple las 4 = Traza(In – AgA), Rango(AgA) = Traza(AgA) y
propiedades: Rango(AAg) = Traza(AAg). En consecuencia:
357 358
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
12.2. BgB = (QtAgPt)(PAQ) = QtAgPtPAQ = QtAgAQ. Luego, Es decir, A = BC, siendo B = Im y C = A. En consecuencia,
(BgB)t = (QtAgAQ)t = Qt(AgA)t(Qt)t = QtAgAQ = BgB.
Por lo tanto, BgB es simétrica. Ag = Ct(CCt)-1(BtB)-1Bt = At(AAt)-1((Im)tIm)-1(Im)t = At(AAt)-1
12.3. BBgB = (PAAgPt)(PAQ) = PAAgPtPAQ = PAAgAQ =
PAQ = B. 15. Se sabe que la matriz A se puede expresar de la forma A = BC,
12.4. BgBBg = (QtAgAQ)(QtAgPt) = QtAgAQQtAgPt = con B∈Mmxr(ℜ), C∈Mrxn(ℜ) y Rango(B) = Rango(C) = r. Por lo
QtAgAAgPt = QtAgPt = Bg. tanto,
13. Por el teorema 1.30.: Como B∈Mmxr(ℜ) y Rango(B) = r entonces por la propiedad 13
se tiene que Bg = (BtB)-1Bt. Asimismo, como C∈Mrxn(ℜ) y
∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares): Rango(C) = r entonces por la propiedad 14 se tiene que
Cg = Ct(CCt)-1. En consecuencia,
⎡ Ir θ rx ( n − r ) ⎤
PAQ = ⎢ ⎥ (BC)g = CgBg
⎣⎢θ ( m − r ) xr θ( m − r ) x ( n − r ) ⎦⎥
Observaciones:
Como Rango(A) = r = n entonces no es necesario aplicar
operaciones elementales de columnas sobre A para obtener su 1. Toda matriz de proyección H = X(XtX)-1Xt puede ser escrita de la
matriz normal R(A), es decir, Q = In. Además, forma H = XXg, ya que X es de rango columna completo.
2. Pr oy YPn = HY = XXgY.
⎡ In ⎤ p
R(A) = ⎢ ⎥
⎢⎣θ ( m − n ) xn ⎥⎦ 10.3. INVERSA CONDICIONAL. DEFINICIÓN, PROPIEDADES Y
EJEMPLOS.
Por consiguiente,
Definición 10.2.
⎡ In ⎤
A = P-1 ⎢ ⎥ Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ). Se dice que B es inversa condicional de A si
⎢⎣θ ( m − n ) xn ⎥⎦ ABA = A.
Es decir, A = BC, siendo B = A y C = In. En consecuencia, Es claro que Ag es también inversa condicional de A. Esto garantiza que
siempre existe al menos una inversa condicional de A.
Ag = Ct(CCt)-1(BtB)-1Bt = (In)t(In(In)t)-1(AtA)-1At = (AtA)-1At
Teorema 10.3.
14. Por el teorema 1.30.:
Sea A∈Mmxn(ℜ). No siempre existe una única inversa condicional de A.
∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares):
Demostración
⎡ Ir θ rx ( n − r ) ⎤
PAQ = ⎢ ⎥ Supongamos que Rango(A) = r. Por el teorema 1.31.:
⎢⎣θ ( m − r ) xr θ( m − r ) x ( n − r ) ⎥⎦
∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares):
Como Rango(A) = r = m entonces no es necesario aplicar
operaciones elementales de filas sobre A para obtener su matriz ⎡ Dr θ rx ( n − r ) ⎤
normal R(A), es decir, P = Im. Además, PAQ = Δ(A) = ⎢ ⎥
⎣⎢θ ( m − r ) xr θ( m − r ) x ( n − r ) ⎦⎥
R(A) = [ I m θ mx ( n − m ) ]
Siendo Dr∈Mrxr(ℜ) una matriz diagonal y no singular.
Por consiguiente,
⇒ ∃ P∈Mmxm(ℜ), Q∈Mnxn(ℜ) (P, Q no singulares): A = P-1Δ(A)Q-1
A = [ Im θ mx ( n − m ) ]Q-1
359 360
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎢⎣θ( n −r ) xr ⎥⎦
condicional de A es el siguiente:
1. Calcular Rango(A) = r.
⎡ Ir ⎤
t
B B = Ir[ θ ( m − r ) xr ]
⎢ ⎥ = Ir.
2. Elegir una submatriz M de A de orden rxr.
Hallar (M-1)t.
⎢⎣θ rx ( m − r ) ⎥⎦
3.
4. Reemplazar en A la submatriz M por (M-1)t y los restantes
elementos por ceros. Denotar esta matriz por N.
Por consiguiente, 5. Nt es una inversa condicional de A.
⎡ Ir ⎤ Ejemplo 10.2.
(Δ(A))g = ⎢ t 2 -1 -1
⎥ (Dr) ((Dr) ) (Ir) [ I r θ( m − r ) xr ]
⎢⎣θ( n − r ) xr ⎥⎦
En relación a la matriz A del ejemplo 10.1.:
⎡ Ir ⎤
= ⎢ -1
⎥ Dr(DrDr) [ I r θ( m − r ) xr ]
⎢⎣θ( n − r ) xr ⎥⎦ ⎡1 0 2 3⎤
⎢ ⎥
A = ⎢3 2 1 1⎥
⎡ Ir ⎤
= ⎢ -1 -1
⎥ Dr(Dr) (Dr) [ I r θ( m − r ) xr ] ⎢⎣5 4 2 6⎥⎦
⎢⎣θ( n − r ) xr ⎥⎦
⎡ Ir ⎤ 1. Rango(A) = 3
= ⎢ -1
⎥ (Dr) [ I r θ( m − r ) xr ]
⎢⎣θ( n − r ) r ⎥⎦ ⎡1 0 2⎤
⎢ ⎥
⎡ (D )−1 ⎤ 2. Sea M = ⎢3 2 1 ⎥ .
= ⎢ r ⎥ [ Ir θ( m − r ) xr ] ⎢⎣5 4 2⎥⎦
⎣⎢θ( n − r ) xr ⎦⎥
⎡ 0 −1 ⎤
⎡ (D )−1 ⎤ ⎢
2
⎥
= ⎢ r ⎥ [ Ir θ( m − r ) xr ] 3. −1
Se puede verificar que M = ⎢− 1 −2 5 ⎥ . Por lo tanto,
⎢⎣θ( n − r ) xr ⎥⎦ ⎢ 4 4⎥
⎢⎣ 1 2 − 1 1 ⎥
⎡ (D )−1 θ rx ( m − r ) ⎤ 2⎦
= ⎢ r ⎥
⎡ 0 1 ⎤
⎣⎢θ( n − r ) xr θ( n − r ) x ( m − r ) ⎦⎥ −1
(M ) = ⎢⎢
4 2⎥
−1 t
2 −2 −1 ⎥ .
Ahora bien, ⎢ −1 5 1 ⎥
⎣⎢ 4 2 ⎦⎥
361 362
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡ 0 Demostración
−1 1 0⎤
⎢ 4 2 ⎥
4. N=⎢ 2 −2 −1 0⎥ . Sea (AtA)c una inversa condicional de AtA. Por lo tanto:
⎢ −1 5 1 0⎥⎥
⎢⎣ 4 2 ⎦ (AtA)(AtA)c(AtA) = AtA
⎡ 0 2 −1 ⎤
⎢ 5 ⎥ Premultiplicando a ambos lados de la igualdad anterior por (Ag)t se tiene que:
− 1 −2
5. Una inversa condicional de A es B = Nt = ⎢ 4 4⎥ .
⎢ 1 −1 1 ⎥
⎢ 2 2⎥ (Ag)t(AtA)(AtA)c(AtA) = (Ag)tAtA
⎢⎣ 0 0 0 ⎥⎦ ⇒ (Ag)tAtA(AtA)cAtA = (Ag)tAtA
⇒ (AAg)tA(AtA)cAtA = (AAg)tA
Teorema 10.4. ⇒ AAgA(AtA)cAtA = AAgA
⇒ A(AtA)cAtA = A (ABA = A)
Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ). Si B es inversa condicional de A entonces:
Postmultiplicando a ambos lados de la igualdad anterior por Ag se tiene que:
Rango(A) = Rango(AB) = Rango(BA) ≤ Rango(B).
A(AtA)cAtAAg = AAg
Demostración ⇒ A(AtA)cAt(AAg)t = AAg
⇒ A(AtA)c(AAgA)t = AAg
Por hipótesis, ABA = A. Luego: ⇒ A(AtA)cAt = AAg (AB = AAg)
1. Rango(A) = Rango(ABA) ≤ Rango(AB) ≤ Rango(A). Luego, Como AAg es simétrica entonces AB es simétrica. Luego, como ABA = A y
Rango(AB) = Rango(A). AB es simétrica entonces B es inversa mínimo cuadrática de A.
2. Rango(A) = Rango(ABA) ≤ Rango(BA) ≤ Rango(A). Luego,
Rango(BA) = Rango(A). Observación:
3. Rango(A) = Rango(ABA) ≤ Rango(BA) ≤ Rango(B). Luego,
Rango(BA) ≤ Rango(B). Por el teorema anterior, como toda inversa mínimo cuadrática depende de una
inversa condicional de AtA entonces la inversa mínimo cuadrática no siempre
es única.
Por lo tanto, Rango(A) = Rango(AB) = Rango(BA) ≤ Rango(B).
Ejemplo 10.3.
10.4. INVERSA MÍNIMO CUADRÁTICA. DEFINICIÓN,
PROPIEDADES Y EJEMPLOS.
En relación a la matriz A del ejemplo 10.1.:
Definición 10.3.
⎡1 0 2 3⎤
⎢ ⎥
Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ). Se dice que B es inversa mínimo cuadrática A = ⎢3 2 1 1⎥
de A si: ⎢⎣5 4 2 6⎥⎦
1. ABA = A.
2. AB es simétrica. Se puede verificar que:
Es claro que Ag es también inversa mínimo cuadrática de A y que toda inversa ⎡35 26 15 36⎤
mínimo cuadrática es también inversa condicional. Esto garantiza que siempre ⎢ ⎥
26 20 10 26⎥
existe al menos una inversa mínimo cuadrática de A. AtA = ⎢
⎢15 10 9 19 ⎥
⎢ ⎥
Teorema 10.5. ⎢⎣36 26 19 46⎥⎦
Sean A∈Mmxn(ℜ) y B∈Mnxm(ℜ). Si (AtA)c es una inversa condicional de AtA Seguimos los pasos para hallar una inversa condicional de AtA:
entonces la matriz B definida por:
1. Rango(A) = 3 ⇒ Rango(AtA) = 3.
B = (AtA)cAt
363 364
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Luego, una inversa mínimo cuadrática de A es la siguiente matriz B: CS (⇒): Si AgA = In entonces AcA = In.
⎡0 0 0 0 ⎤ ⎡1 3 5⎤
Por definición de inversa condicional:
⎢ ⎥ ⎢ ⎥
⎢ 0 53 34 − 44
256 256 256 ⎥ ⎢0 2 4⎥ AAcA = A
B = (AtA)cAt = ⎢ ⎥
0 34 244 − 120 ⎢2 1 2⎥ ⇒ A (AAcA) = Ag(A)
g
⎢ 256 256 256⎥ ⎢ ⎥
⎢0 − 44 − 120 ⎥ ⇒ (AgA)(AcA) = AgA
⎣
80
256 ⎦ ⎣⎢3 1 6⎦⎥
256 256 ⇒ (In)(AcA) = In
⎡ 0 0 0 ⎤ ⇒ AcA = In
⎢ 1 ⎥
⎢−
1 3
4 8 16⎥ 2. La demostración es análoga a la demostración del apartado 1.
= ⎢ 1 3 −3 ⎥
⎢ 2 4 8⎥
⎢ 0 −1 1 ⎥ 3. La demostración es análoga a la demostración del apartado 1.
⎣ 2 4⎦
Teorema 10.8.
Teorema 10.6.
Sean A∈Mmxn(ℜ), B, C, D∈Mnxm(ℜ) e Y∈ℜm. La expresión:
Sea A∈Mmxn(ℜ). Si Rango(A) = n entonces existe una única inversa mínimo
cuadrática de A. ABY = Y
365 366
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Es decir, la expresión ABY = Y es invariante para cualquier inversa Como Rango(A) = m entonces por el teorema 10.2., apartado 12 se tiene que
condicional B de A. Ag = At(AAt)-1. Luego, AAgY = A(At(AAt)-1)Y = AAt(AAt)-1Y = ImY = Y. Por
el teorema anterior, el SEL AX = Y es consistente.
Observación:
Teorema 10.11. (Solución General de un SEL)
Como la inversa generalizada de A (Ag) y cualquier inversa mínimo cuadrática
de A, digamos Amc son inversas condicionales de A entonces la expresión Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm. Si el SEL AX = Y es consistente entonces
ABY = Y es invariante para cualquier pseudo inversa B (generalizada, su solución general denotada por Xsg es:
condicional o mínimo cuadrática) de A.
Xsg = AcY + (In – AcA)Z
10.5. APLICACIONES SOBRE SISTEMAS DE ECUACIONES
LINEALES. Siendo Ac una inversa condicional de A y Z∈ℜn.
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm. El SEL AX = Y es consistente si y sólo si Para demostrar que el vector Xsg es la solución general del SEL AX = Y
existe una inversa condicional Ac de A tal que AAcY = Y. debemos probar que es solución del SEL AX = Y y que toda solución de dicho
sistema tiene la forma de Xsg.
Demostración
1. AXsg = A(AcY + (In – AcA)Z) = AAcY + AZ – AAcAZ = Y + AZ – AZ =
CN(⇒): Si el SEL AX = Y es consistente entonces existe una inversa Y. Por lo tanto, Xsg es solución del SEL AX = Y
condicional Ac de A tal que AAcY = Y. 2. Si X0 es solución del SEL AX = Y entonces:
Si existe una inversa condicional Ac de A tal que AAcY = Y entonces existe Como cualquier inversa mínimo cuadrática y la inversa generalizada de A son
X0∈ℜn con X0 = AcY tal que AX0 = Y. Luego, el SEL AX = Y es consistente. también inversas condicionales de A entonces la solución general también se
puede escribir de la forma Xsg = AmcY + (In – AmcA)Z o de la forma
Observación: Xsg = AgY + (In – AgA)Z, siendo Amc una inversa mínimo cuadrática de A.
Además, si Z = θnx1 entonces AgY es solución del SEL AX = Y y existen una
Por el teorema 10.8., como la expresión ABY = Y es invariante para cualquier inversa condicional Ac y una inversa mínimo cuadrática Amc de A tales que
inversa condicional B de A entonces: AcY y AmcY son soluciones del SEL AX = Y.
367 368
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es consistente. El Sea B∈Mnxn(ℜ) la matriz definida por B = In – AgA.
vector X0 = AgY es la única solución del SEL AX = Y si y sólo si AgA = In.
La matriz B se puede expresar particionada por columnas 1xn de la siguiente
Demostración forma:
CN(⇒): Si el vector X0 = AgY es la única solución del SEL AX = Y entonces B = [B1 B2 … Bn]
AgA = In.
Luego, para Z0 = θnx1, Z1 = e1, Z2 = e2, …, Zn = en se obtienen n + 1 soluciones
Por el teorema 10.11., la solución general del SEL AX = Y es: del SEL AX = Y:
369 370
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
n Observaciones:
AgY = ∑c B j
j
Luego, También se puede verificar que AAcY = Y. Luego, por el teorema 10.9., el
SEL es consistente. Determinemos ahora su solución general:
⎡1 1 L 1⎤
W = [X1 X2 … Xt] = [AgY In – AgA] ⎢ 1 ⎥ Xsg = AcY + (In – AcA)Z; Z∈ℜn
⎣H H2 L Ht ⎦
⎡1 2 0⎤ ⎡1 ⎤ ⎡1⎤
Como X1, X2, …, Xt son L.I., entonces Rango(W) = t. Por el teorema 1.32., ⎢ 5 5 ⎥ ⎢ ⎥ ⎢ ⎥
Rango(W) es igual a: A Y = ⎢2
c
−1 0⎥ 2
⎢ ⎥ = ⎢0 ⎥
⎢ 5 5 ⎥ ⎢⎣2⎥⎦ ⎢⎣0⎥⎦
⎢⎣ 0 0 0⎥
⎦
⎡1 1 L 1⎤
Rango([AgY In – AgA] ⎢ 1 ⎥ ) ≤ Rango([A Y
g
In – AgA])
⎣H H2 L Ht ⎦
371 372
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
⎡1 0 0⎤ ⎡⎢ 1 5 2 0⎤ ⎡1 2 1⎤ ⎡0 0 − 7 ⎤ EJERCICIOS PROPUESTOS.
⎢ ⎥
5 ⎥ ⎢ ⎥ ⎢ 5⎥
I3 – A A = ⎢0 1 0⎥ – ⎢ 2
c
−1 0⎥ ⎢2 − 1 3 ⎥ = ⎢0 0 1 ⎥ 1. Determine la inversa generalizada de cada una de las siguientes
5 5 ⎢ 5 ⎥
⎢⎣0 0 1⎥⎦ ⎢⎢ 0 0
⎥
0⎥ ⎢⎣2 4 2⎥⎦ ⎢⎣0 0 1 ⎥ matrices:
⎣ ⎦ ⎦
⎡ 2 0 −1 ⎤
Luego, ⎢ ⎥ ⎡1 0 −1 0⎤ ⎡ −1 0⎤
0 4 1⎥ ⎢ ⎥ ⎢ ⎥
A=⎢ ; B = ⎢3 − 2 2 4⎥ ; C = ⎢ 1 1 ⎥ ;
⎢− 3 0 − 2⎥
⎡1⎤ ⎡0 0 − 7 ⎤ ⎢ ⎥ ⎢⎣5 0 1 3⎥⎦ ⎢⎣ 2 3⎥⎦
⎢ ⎥ ⎢ 5⎥
⎣⎢ 0 1 2⎦⎥
X = ⎢0 ⎥ + ⎢0 0
sg 1 ⎥ Z; Z∈ℜ3
⎢ 5 ⎥ ⎡ 1 −2 1 −2 ⎤
⎢⎣0⎥⎦ ⎢⎣0 0 1 ⎥ ⎡ 1 −1 2⎤ ⎢ ⎥
⎦ ⎢ ⎥ −2 0 3 − 5⎥
D=⎢ 0 2 3⎥ ; E = ⎢ ;
⎢ 1 3 2 2⎥
Como Rango(A) = 2 el SEL AX = Y tiene exactamente 3 – 2 + 1 = 2 ⎢⎣ − 2 2 − 4⎥⎦ ⎢ ⎥
soluciones L.I. Fijando Z1 = θ3x1 y Z2 = e3 se obtienen las 2 soluciones X1 y X2 ⎣⎢− 2 − 5 2 − 9 ⎦⎥
L.I. de dicho SEL: ⎡1 2 5 2⎤
⎢ ⎥
F = ⎢3 7 − 12 4⎥
⎡− 7 ⎤ ⎡− 2 ⎤ ⎢⎣0
⎡1⎤ ⎡1⎤ ⎢ 5⎥ ⎢ 5⎥ 1 3 − 2⎥⎦
⎢ ⎥ ⎢ ⎥ ⎢ 1 ⎥ = ⎢ 1 ⎥
X1 = ⎢0⎥ y X2 = 0
⎢ ⎥ +
⎢⎣0⎥⎦ ⎢⎣0⎥⎦ ⎢ 5⎥ ⎢ 5⎥
⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦ 2. Sea A∈Mmxn(ℜ), B∈Mnxn(ℜ). Demuestre que si BtAtA + AtAB
= ((AB)tA)t entonces AB = θmxn.
Esta operación equivale a desarrollar la solución general: 3. Sea A∈Mmxn(ℜ), tal que Rango(A) = r, con 0 < r < m. Demuestre que
A(AtA)gAt es semidefinida positiva.
⎡1⎤ ⎡0 0 − 7 ⎤ ⎡ Z ⎤
⎢ ⎥ ⎢ 5⎥ 1
X = ⎢0 ⎥ + ⎢0 0
sg 1 ⎥ ⎢Z ⎥ 4. Sea A∈Mmxn(ℜ). Demuestre que Ag = At si y sólo si AtA es
⎢ 5 ⎥ ⎢ 2⎥ idempotente.
⎢⎣0⎥⎦ ⎥⎦ ⎢⎣ Z3 ⎥⎦
⎣⎢
0 0 1
5. Sea A∈Mmxm(ℜ). Demuestre que si A es simétrica entonces Ag es
⎡1⎤ ⎡ − 7 Z3 ⎤ diagonalizable.
⎢ ⎥ ⎢ 5 ⎥
= ⎢0 ⎥ + ⎢ 1 Z 3 ⎥
⎢ 5 ⎥ 6. Sean A∈Mmxm(ℜ), B∈M(m-n)xm(ℜ) tales que BA = θ(m-n)xm con
⎢⎣0⎥⎦ ⎢⎣ Z3 ⎥⎦ Rango(A) = r y Rango(B) = m – r. Demuestre que la matriz AAg +
BgB es no singular.
⎡1⎤ ⎡− 7 ⎤
⎢ ⎥ ⎢ 5⎥
= ⎢0⎥ + Z3 ⎢ 1 ⎥ ; Z3∈ℜ 7. Sean A∈Mmxm(ℜ), B∈M(m-n)xm(ℜ) tales que A es simétrica,
⎢⎣0⎥⎦ ⎢ 5⎥ BA = θ(m-n)xm, Rango(A) = r y Rango(B) = m – r. Demuestre que la
⎣⎢
1⎥ matriz A + BtB es no singular.
⎦
Para luego fijar Z3 = 0 y Z3 = 1 y así obtener las 2 soluciones L.I. del SEL 8. Sean A∈Mmxm(ℜ), B∈M(m-n)xm(ℜ) tales que A es simétrica y
AX = Y: BA = θ(m-n)xm. Demuestre que:
10. Determine una inversa condicional de cada una de las matrices del
ejercicio 1.
373 374
CAPÍTULO 10: PSEUDOS INVERSAS ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
13.1. t
G es inversa condicional de X X. t
entonces el vector Z = AcY + ∑ c (I
j=1
j n − A c A)H j es solución del SEL
13.2. XGXtX = X. AX = Y.
13.3. XGXt es invariante respecto de cualquier inversa
condicional G de XtX. 20. Sean A∈Mmxn(ℜ), B∈Mpxq(ℜ), C∈Mmxq(ℜ) y X∈Mnxp(ℜ). Demuestre
13.4. XGXt es simétrica. que una condición necesaria y suficiente para que la ecuación
13.5. XGXt es semidefinida positiva. AXB = C tenga una solución es que AAgCBgB = C y en tal caso su
13.6. Rango(In – XGXt) = n – r. solución general es de la forma Xsg = AgCBg + Z – AgAZBBg; donde
13.7. CtXGXtXB = UtB; ∀ B∈ℜp donde U = XtC y C∈ℜn. Z∈Mnxp(ℜ).
14. Determine una inversa mínimo cuadrática para cada una de las 21. Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm. Sea X0 = AgY una solución del
matrices dadas en el ejercicio 1. sistema de ecuaciones AX = Y. Demuestre que el vector Z = X0 + W
es una solución del SEL AX = Y, ∀ W∈S⊥, siendo
15. Sean A∈Mmxn(ℜ) y Amc∈Mnxm(ℜ) tales que Amc es una inversa S = {(A1)t, (A2)t, …, (An)t}.
mínimo cuadrática de A. Demuestre que AAg = Im si y sólo si
AAmc = Im.
18. Demuestre que los siguientes SEL son consistentes y determine para
cada uno de ellos su solución general así como el conjunto de
soluciones L.I.:
⎧2X1 − 2X 2 + 4X 3 − 2X 4 = −4
⎪
18.1. ⎨X1 + 5X 3 − 2X 4 = 3
⎪− 3X + 3X − 6X + 3X = 6
⎩ 1 2 3 4
⎧X1 + X 2 + X 3 = 3
⎪
18.2. ⎨X1 − X 2 + 2X 3 = −3
⎪3X − X + 5X = −2
⎩ 1 2 3
⎧4X1 + 2X 2 + 2X 3 = 3
⎪
18.3. ⎨2X1 + 2X 2 = 0
⎪2 X + 2 X = 3
⎩ 1 3
375 376
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
2 2
ε(X ) = ( Y − AA mc Y) + (AX − AA mc Y) –2 (Y − AA mc Y) t (AX − AA mc Y)
2
Capítulo 11 2 2
= (Y − AX smc ) + (AX − AX smc ) –2 (Y − AA mc Y ) t (AX − AA mc Y )
SISTEMAS DE ECUACIONES 2 2
LINEALES INCONSISTENTES = ε(X smc ) + (AX − AX smc ) – 2 (Y − AA mc Y) t (AX − AA mc Y)
Ahora bien,
Definición 11.1
En consecuencia,
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente.
Se dice que un vector Xsmc∈ℜn es una solución mínimo cuadrática del SELI ε( X )
2 2
≥ ε(X smc ) , es decir, ε(X smc )
2
≤ ε( X ) .
2
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente. Por consiguiente, Xsmc = AmcY es una solución mínimo cuadrática del SELI
El vector Xsmc = AmcY es una solución mínimo cuadrática del SELI Y – AX = ε(X).
Y – AX = ε(X), siendo Amc una inversa mínimo cuadrática de A.
Observaciones:
Demostración
1. Como la inversa mínimo cuadrática de A no es única entonces no existe
Minimizar ε(X) equivale a minimizar ε(X) .
2 una única solución mínimo cuadrática del SELI Y – AX = ε(X).
2. Por el teorema 10.6., si Rango(A) = n entonces existe una única inversa
mínimo cuadrática de A igual a la inversa generalizada y por lo tanto el
2 2 2 SELI Y – AX = ε(X) tiene una única solución mínimo cuadrática.
ε(X ) = Y − AX = Y − AA mc Y + AA mc Y − AX
3. Mínimo ε(X) = Y − AA mc Y .
2 X∈ℜ
n
= (Y − AA Y) + (AA Y − AX)
mc mc
4. Como la inversa generalizada de A (Ag) es una inversa mínimo
2 cuadrática de A entonces una solución mínimo cuadrática del SELI
= (Y − AA mc Y) − (AX − AA mc Y)
Y – AX = ε(X) es Xsmc = AgY.
378
CAPÍTULO 11: SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Teorema 11.2.
= ((I m − AA g )Y) t (I m − AAg )Y
n m
Sean A∈Mmxn(ℜ), X∈ℜ e Y∈ℜ tales que el SEL AX = Y es inconsistente. = (Y − AA g Y ) t (Y − AA g Y )
El vector Xsmc∈ℜn es una solución mínimo cuadrática del SELI Y – AX = ε(X)
si y sólo si ε(X smc ) = Y t (I m − AA g )Y . = (Y − AA mc Y) t (Y − AA mc Y)
= Y − AA mc Y
Demostración
= Mínimo ε(X )
X∈ℜ
n
Luego, 2
ε(X smc ) = Y t (I m − AA g )Y , es decir, ε(X smc ) = Y t (I m − AA g )Y .
ε(X smc ) = Y − AA g Y = (Y − AA g Y ) t (Y − AA g Y )
Sea Z = Xsmc – AgY. Luego, Xsmc = Z + AgY. En consecuencia,
= ((I m − AA )Y) (I m − AA )Y
g t g
= (Y t (I m − AAg ) t (I m − AAg )Y ε( Z + A g Y) = Y t (I m − AA g )Y .
⇒ (Y – A(Z+AgY))t(Y – A(Z+AgY)) = Yt(Im – AAg)Y
Por el teorema 10.2., apartado 8 se tiene que Im – AAg es simétrica e ⇒ (Y – AZ –AAgY))t(Y – AZ –AAgY) = Yt(Im – AAg)Y
idempotente. Por consiguiente: ⇒ (Y – AAgY – AZ))t(Y –AAgY – AZ) = Yt(Im – AAg)Y
⇒ ((Im – AAg)Y – AZ))t((Im –AAg)Y – AZ) = Yt(Im – AAg)Y
ε(X smc ) = Y t (I m − AA g )Y ⇒ (((Im – AAg)Y)t – (AZ)t)((Im –AAg)Y – AZ) = Yt(Im – AAg)Y
⇒ (Yt(Im – AAg)t – ZtAt)((Im –AAg)Y – AZ) = Yt(Im – AAg)Y
⇒ Yt(Im – AAg)t(Im –AAg)Y – Yt(Im –AAg)tAZ – ZtAt(Im –AAg)Y + ZtAtAZ
CS(⇐): Si ε(X smc ) = Y t (I m − AA g )Y entonces el vector Xsmc∈ℜn es una = Yt(Im – AAg)Y
solución mínimo cuadrática del SELI Y – AX = ε(X). Por el teorema 10.2., apartado 8 se tiene que Im – AAg es simétrica e
idempotente. Por consiguiente:
Por hipótesis ε(X smc ) = Y t (I m − AA g )Y . Además, si Amc es una inversa
Yt(Im – AAg)Y – Yt(Im –AAg)AZ – ZtAt(Im –AAg)tY + ZtAtAZ = Yt(Im – AAg)Y
mínimo cuadrática de A entonces AAmc = AAg. Luego, ⇒ Yt(Im – AAg)Y – Yt(A –AAgA)Z – Zt((Im –AAg)A)tY + ZtAtAZ
= Yt(Im – AAg)Y
ε(X smc ) = Y t (I m − AA g )Y = (Y t (I m − AA g ) t (I m − AA g )Y ⇒ Yt(Im – AAg)Y – Yt(A –AAgA)Z – Zt((A –AAgA)tY + ZtAtAZ
= Yt(Im – AAg)Y
⇒ Yt(Im – AAg)Y – Yt(A –A)Z – Zt((A –A)tY + ZtAtAZ = Yt(Im – AAg)Y
379 380
CAPÍTULO 11: SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Por el teorema 10.2., apartado 8 se tiene que Im – AAg es simétrica e Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente.
idempotente. Por consiguiente: El vector Xsmc∈ℜn es una solución mínimo cuadrática del SELI Y – AX = ε(X)
si y sólo si Xsmc es solución del SELN de dicho SELI.
ε(X smc ) = Y t (I m − AA g )Y
Demostración
Por el teorema 11.2., Xsmc es una solución mínimo cuadrática del SELI CN(⇒): Si Xsmc∈ℜn es una solución mínimo cuadrática del SELI
Y – AX = ε(X). Y – AX = ε(X) entonces Xsmc es solución del SELN de dicho SELI.
Definición 11.2. Por hipótesis, Xsmc∈ℜn es una solución mínimo cuadrática del SELI
Y – AX = ε(X). Luego, por el teorema 11.3., Xsmc es solución del SEL
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente. AX = AAgY. Por lo tanto,
Se define como sistema de ecuaciones lineales normales (SELN) del SELI
Y – AX = ε(X) al SEL AtAX = AtY. AXsmc = AAgY ⇒ AtAXsmc = AtAAgY
⇒ AtAXsmc = At(AAg)tY
Teorema 11.4. ⇒ AtAXsmc = (AAgA)tY
⇒ AtAXsmc = AtY
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente.
Entonces el SELN del SELI Y – AX = ε(X) es consistente y además su Es decir, Xsmc es solución del SELN del SELI Y – AX = ε(X).
solución general es:
CS(⇐): Si Xsmc∈ℜn es solución del SELN de dicho SELI entonces Xsmc es una
X sg = A g Y + (I n − A g A) Z; Z ∈ ℜ n solución mínimo cuadrática del SELI Y – AX = ε(X).
Por hipótesis, Xsmc∈ℜn es solución del SELN del SELI Y – AX = ε(X). Luego,
381 382
CAPÍTULO 11: SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
2 2 2
Sean A∈Mmxn(ℜ), X∈ℜn e Y∈ℜm tales que el SEL AX = Y es inconsistente. X smc = X msa + X smc − X msa
Se dice que el vector Xmsa∈ℜn es la mejor solución aproximada del SELI
Y – AX = ε(X) si y sólo si:
Como Xsmc ≠ Xmsa entonces:
msa
1. X es una solución mínimo cuadrática.
2. ∀ Xsmc∈ℜn solución mínimo cuadrática del SELI Y – AX = ε(X) con ⇒ X smc
2
> X msa
2
Demostración Observaciones:
1. Es claro que Xmsa = AgY es una solución mínimo cuadrática del SELI 1. Como Ag es única entonces existe una única mejor solución aproximada
Y – AX = ε(X). Xmsa = AgY del SELI Y – AX = ε(X).
2. Sea Xsmc una solución mínimo cuadrática del SELI Y – AX = ε(X) con 2. Si Rango(A) = n entonces por el teorema 10.6., existe una única inversa
mínimo cuadrática igual a la inversa generalizada. En ese caso, existe una
Xsmc ≠ Xmsa. Luego, ε(X smc ) = ε(X msa ) y además por el teorema 11.3.,
única solución mínimo cuadrática igual a la mejor solución aproximada
Xsmc es solución del SEL AX = AAgY, es decir, AXsmc = AAgY. Por lo del SELI Y – AX = ε(X).
tanto,
Ejemplo 11.1.
AXsmc = AAgY ⇒ AgAXsmc = AgAAgY
⇒ AgAXsmc = AgY Consideremos el SEL del Ejemplo 3.4.:
⇒ AgAXsmc + Xsmc = AgY + Xsmc
⇒ Xsmc = AgY + Xsmc – AgAXsmc ⎧ X1 + 2X 2 + X 3 = 1
⇒ Xsmc = AgY + (In – AgA)Xsmc ⎪
⎨ 2X1 − X 2 + 3X 3 = 2
⎪2 X + 4X + 2 X = 4
En consecuencia, ⎩ 1 2 3
383 384
CAPÍTULO 11: SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
Se puede verificar que Rango(A) = 2. Igualmente, se puede verificar que una Ejemplo 11.2.
inversa condicional de A es:
Consideremos el SEL del ejemplo 3.7.:
⎡1 2 0⎤
⎢ 5 5 ⎥ ⎧X1 − 2X 2 + 3X 3 = 2
A =⎢
c 2 −1 0⎥ ⎪
⎢ 5 5 ⎥ ⎪ 2X1 + X 2 + X 3 = 4
⎢⎣ 0 0 0⎥ ⎨
⎦ ⎪ X1 − 2X 2 + X 3 = 1
⎪ 2X 2 + 3X 3 = 6
⎩
También se puede verificar que:
En este caso:
⎡1 ⎤
⎢ ⎥
AAcY = ⎢2⎥ ≠ Y. Por lo tanto el SEL es inconsistente. ⎡ 1 −2 3⎤ ⎡ 2⎤
⎢⎣2⎥⎦ ⎢ ⎥ ⎢ ⎥
2 1 1⎥ ⎢ 4⎥
A=⎢ , Y=
⎢1 − 2 1⎥ ⎢1 ⎥
Determinemos una solución mínimo cuadrática y la mejor solución ⎢ ⎥ ⎢ ⎥
⎢⎣0 2 3⎥⎦ ⎢⎣6⎥⎦
aproximada.
Se puede verificar que una inversa mínimo cuadrática de A es: Se puede verificar que Rango(A) = 3. Por lo tanto, la inversa mínimo
cuadrática es única y coincide con la inversa generalizada Ag = (AtA)-1At:
⎡1 2 2 ⎤
⎢ 25 5 25⎥ ⎡ − 37 476 115 − 160 ⎤
A mc
= ⎢2 −1 4 ⎥ ⎢ 1030 1030 1030 1030 ⎥
⎢ 25 5 25⎥ A = (A A) A = ⎢− 152
g t −1 t 146 − 140 150 ⎥
⎢⎣ 0 0 0 ⎥ ⎢ 1030 1030 1030 1030 ⎥
⎦ ⎢⎣ 158 1030 − 84 10 210
1030 1030 1030⎥⎦
En consecuencia, una solución mínimo cuadrática del SEL es:
También se puede verificar que:
⎡1 2 2 ⎤ ⎡29 ⎤
⎢ 25 5 25⎥ ⎡1 ⎤ ⎢ 25⎥ ⎡ 531 ⎤
⎢ ⎥
4 ⎥ 2 = ⎢8 ⎥ ⎢ 206 ⎥
Xsmc = AmcY = ⎢ 2 −1
⎢ 25 5 25⎥ ⎢ ⎥ ⎢ 25 ⎥ ⎢ 852 ⎥
⎢⎣ 0 0 0 ⎥ ⎢⎣4⎥⎦ ⎢⎣ 0 ⎥⎦ AAgY = ⎢ 206 ⎥ ≠ Y. Por lo tanto el SEL es inconsistente.
⎦ ⎢ 31 ⎥
⎢1166206 ⎥
Se puede verificar que la inversa generalizada de A es: ⎢⎣ 206⎥⎦
⎡8 45 16 ⎤ En este caso existe una única solución mínimo cuadrática que además es la
⎢ 375 375 375 ⎥ mejor solución aproximada. Dicha solución es:
A =⎢
g 31 − 60 62 ⎥
⎢ 375 375 375⎥
⎢ 5 375 75 10
375 ⎥⎦ ⎡ − 37 476 115 − 160 ⎤ ⎡ 2⎤ ⎡197 ⎤
⎣ 375 ⎢ 1030 1030 10301030 ⎥ ⎢ ⎥ ⎢ 205 ⎥
X msa g
= A Y = ⎢− 152 146 − 140 150 ⎥ ⎢ 4⎥ = ⎢208 ⎥
Por lo tanto, la mejor solución aproximada del SEL es: ⎢ 1030 1030 1030 1030 ⎥ ⎢1 ⎥ ⎢ 205⎥
⎢⎣ 1581030 − 84 10 210 ⎢ ⎥ 250
1030 1030 1030⎥⎦ ⎢⎣6⎥⎦
⎢
⎣ 205⎥⎦
⎡8 45 16 ⎤ ⎡1 ⎤ ⎡162 ⎤
⎢ 375 375 375 ⎥
⎢ ⎥ ⎢ 375⎥
X msa
= A Y = ⎢31
g
− 60 62 ⎥ ⎢2⎥ = ⎢⎢
159 ⎥
⎢ 375 375 375⎥ 375⎥
⎢⎣ 5 375 75 10 ⎢⎣4⎥⎦ 195
375 375 ⎥⎦ ⎢⎣ 375⎥⎦
385 386
CAPÍTULO 11: SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES
EJERCICIOS PROPUESTOS.
⎧3X1 + 2X 2 = 12
⎪
1.1. ⎨X1 − X 2 = −1
⎪2 X + X = 5
⎩ 1 2
⎧X1 + X 2 + X 3 = 6
⎪
1.2. ⎨2X1 − X 2 = 0
⎪3X + X = 7
⎩ 1 3
⎧X1 + 2X 2 + 3X 3 = 1
⎪
1.3. ⎨2X1 − X 3 = 5
⎪− 4X − 7X = −21
⎩ 2 3
⎧3X1 + X 2 − X 3 = 9
⎪
⎪X1 + 3X 2 − X 3 = 7
1.4. ⎨
⎪2X1 − X 2 − X 3 = 5
⎪7 X1 − 11X 2 + X 3 = 2
⎩
387
ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
p p
Apéndice V F
F V
LÓGICA PROPOSICIONAL
Ejemplo A.2.
En el ejemplo A.1.,
A.1. PROPOSICIONES LÓGICAS. Para p: “María estudió más de 10 horas para el 1º examen parcial de Algebra
Lineal” la proposición p es p : “María estudió 10 horas o menos para el 1º
Definición A.1. examen parcial de Algebra Lineal”. El valor veritativo de p es V y el valor
Se define como proposición lógica o proposición a toda afirmación o expresión veritativo de p es F.
que se hace de algún fenómeno y que dispone de un criterio objetivo que Para q: “María aprobó el 1º examen parcial de Algebra Lineal” la proposición
permite afirmar que es verdadera o falsa.
q es q : “María reprobó el 1º examen parcial de Algebra Lineal”. El valor
Si una proposición es verdadera se dice que su valor veritativo es “Verdadero” veritativo de q es F y el valor veritativo de q es V.
y se denota por “V”, mientras que si una proposición es falsa entonces se dice
que su valor veritativo es “Falso” y se denota por “F”. Definición A.3.
La tabla que muestra los valores veritativos posibles de una o más Dadas dos proposiciones p y q se define como proposición “conjunción de p y
proposiciones recibe el nombre de Tabla de Verdad. Para una proposición en q” y se denota por p ∧ q a la proposición que tiene como valor veritativo V
particular la tabla de verdad es:
sólo cuando p y q tienen como valores veritativos V y tiene como valor
veritativo F en cualquier otra situación. La proposición p ∧ q se lee como “p y
p
V q”. Su tabla de verdad es:
F
p q p∧q
Ejemplo A.1. V V V
V F F
La afirmación p: “María estudió más de 10 horas para el 1º examen parcial de F V F
Algebra Lineal” es una proposición ya que puede ser verdadera o falsa. A F F F
efectos académicos supondremos que efectivamente María estudió más de 10
horas para el 1º examen parcial de Algebra Lineal y entonces el valor Ejemplo A.3.
veritativo de esta proposición es V. La afirmación q: “María aprobó el 1º
examen parcial de Algebra Lineal” es una proposición ya que puede ser En el ejemplo A.1.,
verdadera o falsa. A efectos académicos supondremos que María no aprobó el
1º examen parcial de Algebra Lineal, es decir, el valor veritativo de esta La proposición p y q es p ∧ q : “María estudió más de 10 horas para el 1º
proposición es F. examen parcial de Algebra Lineal y aprobó dicho examen”. Como el valor
veritativo de p es V y el valor veritativo de q es F entonces el valor veritativo
A.2. CONECTIVOS LÓGICOS. de p ∧ q es F.
A- 2
APENDICE: LÓGICA PROPOSICIONAL ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
A- 3 A- 4
APENDICE: LÓGICA PROPOSICIONAL ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
El condicional contradirecto p → q es: “Si María estudió 10 horas o menos 10. p → q ≡ p ∧ q → O . (Equivalencia Reducción al Absurdo)
para el 1º examen parcial de Algebra Lineal entonces reprobó dicho examen”.
A.6. CONDICIONALES TAUTOLÓGICOS O TEOREMAS.
El condicional contrarecíproco q → p es: “Si María reprobó el 1º examen Definición A.11.
parcial de Algebra Lineal entonces estudió 10 horas o menos para dicho
examen”. Dadas dos proposiciones p y q, se dice que el condicional p → q es una
implicación si dicho condicional es una tautología. En ese caso se dice que p
A.4. TAUTOLOGÍAS, CONTRADICCIONES Y CONTINGENCIAS. implica a q o que q se deduce de p y se escribe p ⇒ q . Igualmente al
Definición A.9. antecedente p se le denomina hipótesis y al consecuente q se le denomina tesis.
La implicación p ⇒ q también se conoce como teorema. Asimismo se dice
Se dice que una proposición obtenida de un conectivo lógico es una: que p es condición suficiente para q y que q es condición necesaria para p.
1. Tautología y se denota por I cuando su valor veritativo siempre es Analicemos por un instante la tabla de verdad del condicional p → q :
V.
2. Contradicción y se denota por O cuando su valor veritativo siempre P q p→q
es F. V V V
3. Contingencia cuando no es una Tautología ni es una Contradicción. V F F
F V V
Ejemplo A.9. F F V
Las proposiciones p ↔ q del ejemplo A.7., y p → q del ejemplo A.6., son Observemos que si el antecedente (p) es verdadero el condicional será una
contradicciones, mientras que la proposición p ∨ q del ejemplo A.4., es una tautología cuando el consecuente (q) también sea verdadero, en tanto que si el
tautología. antecedente (p) es falso el condicional será una tautología independientemente
del valor veritativo del consecuente (q). La única forma de que el condicional
sea una contradicción es que el antecedente (p) sea verdadero y el consecuente
A.5. PROPOSICIONES EQUIVALENTES. (q) sea falso. Lo usual es que el punto de partida sea que el antecedente (p) es
verdadero, para luego utilizando una serie de herramientas deducir el valor
Definición A.10. veritativo del consecuente (q) lo cual nos llevará a saber si el condicional es o
no una implicación.
Se dice que dos proposiciones p y q son equivalentes y se escribe p ≡ q si
tienen la misma tabla de verdad. Igualmente se dice que un bicondicional p ↔ q es una doble implicación si
dicho bicondicional es una tautología. En ese caso se escribe p ⇔ q y se dice
Las equivalencias más importantes son las siguientes: que p es condición necesaria y suficiente para q.
2. p∨q ≡ p∧q . (Ley de Morgan de la Disyunción Incluyente) Como se señaló anteriormente el condicional p → q es una implicación y se
escribe p ⇒ q si dicho condicional es una tautología. El método o la serie de
3. p∧q ≡ p∨q . (Ley de Morgan de la Conjunción)
razonamientos y deducciones válidas y lógicas empleadas para mostrar que un
A- 5 A- 6
APENDICE: LÓGICA PROPOSICIONAL ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
condicional es una implicación o un teorema recibe el nombre de alguno de los 3 métodos de demostración para probar que el condicional es
Demostración. Existen tres (3) métodos de demostración: verdadero. Notemos que tanto el antecedente como el consecuente plantean
desigualdades lo cual podríamos tomar como proposiciones definidas de forma
1. Método Directo: Se basa en el condicional propiamente dicho afirmativa. Por ello, utilizaremos el método directo. Supongamos que el
p → q . Se utiliza casi siempre; fundamentalmente cuando las antecedente es verdadero, es decir, que x + 9 < 3 – 2x. Luego,
proposiciones p y q están definidas de forma afirmativa. Por
ejemplo, p: “Juan cobró su quincena ayer” y q:”Juan llevó a su x + 2x < 3 – 9
novia al cine anoche” ⇒ 3x < –6
⇒ x < −6
2. Método Contrarecíproco: Se basa en la equivalencia 3
⇒ x < –2
p → q ≡ q → p . Se utiliza fundamentalmente cuando las
proposiciones p y q estén definidas de forma negativa. Por ejemplo, Es decir, el consecuente es verdadero. Por consiguiente, hemos demostrado
p: “Juan no llevó a su novia al cine anoche” y q: “Juan no cobró su que el condicional es verdadero.
quincena ayer”.
Ejemplo A.11.
3. Método Reducción al Absurdo: Se basa en la equivalencia
p → q ≡ p ∧ q → O . Se utiliza fundamentalmente cuando la Sea f: ℜ→ℜ definida por f(x) = ax + b, con a≠0. Demuestre que f es inyectiva.
proposición p está definida de forma afirmativa y la proposición q
esta definida de forma negativa. Por ejemplo, p: “Juan cobró su Observamos nuevamente que el enunciado comienza diciendo “Demuestre
quincena ayer” y q: “Juan almorzó fuera de su casa ayer”. que” lo cual indica que el condicional es verdadero y debemos demostrarlo.
Una función f es inyectiva cuando para pre-imágenes distintas existen
La forma afirmativa o negativa como se le podría catalogar que esta definida imágenes distintas, es decir, si x, y∈Dom(f) el condicicional si x ≠ y entonces
una proposición es algo relativo. Por ejemplo, para algunos lectores la f(x) ≠ f(y) es verdadero. Notemos que demostrar que f es inyectiva se reduce a
proposición q: “Juan almorzó fuera de su casa ayer” puede estar definida de demostrar que si x ≠ y entonces f(x) ≠ f(y). En este caso tanto el antecedente
forma afirmativa y quizás para otros puede estar definida de forma negativa. como el consecuente expresan que una cosa es diferente de otra, es decir, están
En ese caso, la experiencia en el tema donde se encuentra el teorema a definidas de forma negativa, por lo cual resulta conveniente utilizar el método
demostrar resulta clave en la elección del método para lograr realizar la de demostración contrarecíproco. Esto es, para demostrar que si x ≠ y entonces
demostración del teorema. Pero en general, las razones señaladas en los f(x) ≠ f(y) se debe demostrar que si f(x) = f(y) entonces x = y. En efecto,
párrafos anteriores son las fundamentales para elegir el método apropiado para
demostrar un teorema. f(x) = f(y) ⇒ ax + b = ay + b
⇒ ax = ay + b – b
Además de estos tres (3) métodos de demostración existe otro método de ⇒ ax = ay
demostración que involucra proposiciones que están definidas en función de un
⇒ x = (a )y
número natural (ℵ). Dicho método recibe el nombre de Inducción Matemática. a
Fue creado por Blaise Pascal en el año 1.662 cuando éste creó lo que hoy en ⇒x=y
día se conoce como el triángulo de Pascal. Este método consiste en los
siguientes pasos: Luego, el condicional contrarecíproco es verdadero y por lo tanto el
condicional directo también es verdadero. Por consiguiente, f es inyectiva.
1. Demostrar que la afirmación es cierta para algún natural; por lo
general el de menor valor. Ejemplo A.12.
2. Se supone que la afirmación es cierta para un natural k mayor o
igual que el elegido en el primer paso. Esto recibe el nombre de Sean a, b, c∈ℜ con a≠0. Demuestre que si b2 – 4ac < 0 entonces la ecuación de
hipótesis de inducción. 2º grado ax2 + bx + c = 0 no tiene soluciones reales.
3. Se demuestra que la afirmación es cierta para el entero k+1. Esto
recibe el nombre de tesis de inducción. De nuevo el enunciado comienza diciendo “Demuestre que” lo cual indica que
el condicional es verdadero y debemos demostrarlo. En este caso, el
Ejemplo A.10. antecedente plantea una desigualdad lo cual se puede tomar como una
proposición definida de forma afirmativa mientras que el consecuente se
Demuestre que si x + 9 < 3 – 2x entonces x < –2. plantea de forma negativa ya que esta diciendo que una cosa no tiene otra cosa.
Esto nos indica que resulta conveniente utilizar el método de reducción al
Observemos que el enunciado comienza diciendo “Demuestre que” lo cual absurdo. Para ello debemos suponer que b2 – 4ac < 0 y que la ecuación de 2º
significa que dicho condicional es verdadero. Debemos entonces utilizar
A- 7 A- 8
APENDICE: LÓGICA PROPOSICIONAL ALGEBRA LINEAL PARA ESTADÍSTICOS Y ACTUARIOS
grado ax2 + bx + c = 0 tiene soluciones reales y debemos llegar a una Ejemplo A.14.
contradicción. En efecto,
Sean a, b, c∈ℜ con a≠0. Determine si la proposición “si b = 0 entonces la
La fórmula resolvente de la ecuación de 2º grado ax2 + bx + c = 0 es: ecuación de 2º grado ax2 + bx + c = 0 tiene soluciones complejas” es verdadera
o falsa justificando su respuesta con una demostración si es verdadera o un
contraejemplo si es falsa.
− b ± b 2 − 4ac
x=
2a En este caso, el enunciado no comienza diciendo “Demuestre que” sino que
comienza diciendo “Determine si la proposición… es verdadera o falsa”. Esto
Como dicha ecuación tiene soluciones reales entonces eso quiere decir que significa que debemos determinar el valor veritativo de este condicional. Para
b2 – 4ac ≥ 0 lo cual es una contradicción ya que b2 – 4ac < 0. De esta forma ello, definitivamente se debe tener un conocimiento del tema en estudio para
hemos demostrado que el condicional es verdadero. así tener una idea inicial de si esta proposición es verdadera o falsa. Pareciera
que el hecho de que b sea igual a cero nada tiene que ver con que la ecuación
Ejemplo A.13. de 2º grado ax2 + bx + c = 0 tenga soluciones complejas, por lo cual esta
proposición luce falsa. Busquemos un contraejemplo:
Sean x, y∈ℜ y n∈ℵ*. Entonces se cumple que:
Consideremos la ecuación de 2º grado x2 – 4 = 0. En este caso b = 0 y la
(xy)n = xnyn ecuación tiene 2 soluciones reales x1 = 2 y x2 = -2, es decir, no tiene soluciones
complejas. En este ejemplo, el antecedente es verdadero y el consecuente es
En este caso tenemos una proposición que depende de un número natural (n). falso. Por consiguiente, el condicional es falso.
Por ello, resulta conveniente utilizar el método de demostración de inducción
matemática.
Debemos demostrar que la proposición es verdadera para n = 1.
En efecto,
(xy)1 = xy = x1y1
(xy)m = xmym
(xy)m+1 = (xy)m(xy)
A.8. CONTRAEJEMPLOS.
A- 9 A - 10
BIBLIOGRAFÍA