Está en la página 1de 44

MATRICES

7.1 Algebra matricial


Una matriz es un arreglo rectangular de números o funciones
𝑎11 𝑎12 ⋯ 𝑎1𝑛
𝑎 𝑎22 ⋯ 𝑎2𝑛
𝐴 = ൦ 21 ⋯ ൪ 𝑚𝑎𝑡𝑟𝑖𝑧 𝑑𝑒 𝑚 × 𝑛 (𝑚 𝑓𝑖𝑙𝑎𝑠 × 𝑛 𝑐𝑜𝑙𝑢𝑚𝑛𝑎𝑠)
⋮ ⋮ ⋮
𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛
𝐹 = ሾ𝑥1 𝑥2 ⋯ 𝑥𝑛 ሿ𝑣𝑒𝑐𝑡𝑜𝑟 𝑑𝑒 1 × 𝑛
𝑥1
𝑥2
, 𝐶 = ൦ ⋮ ൪ 𝑣𝑒𝑐𝑡𝑜𝑟 𝑑𝑒 𝑛 × 1
𝑥𝑛
Definición. Igualdad de matrices
Dos matrices A y B de 𝑚 × 𝑛 son iguales si 𝑎𝑖𝑗 = 𝑏𝑖𝑗 para cada 𝑖 y 𝑗.
Definición. Suma de matrices
Si A y B son matrices de 𝑚 × 𝑛 entonces su suma es
𝐴 + 𝐵 = (𝑎𝑖𝑗 + 𝑏𝑖𝑗 )𝑚 ×𝑛

Definición. Múltiplo escalar de una matriz


Si k es un numero real, entonces el múltiplo escalar de una matriz A es
𝑘𝑎11 𝑘𝑎12 ⋯ 𝑘𝑎1𝑛
𝑘𝑎21 𝑘𝑎22 ⋯ 𝑘𝑎2𝑛
𝑘𝐴 = ൦ ൪= (𝑘𝑎𝑖𝑗 )𝑚×𝑛
⋮ ⋮ ⋯ ⋮
𝑘𝑎𝑚1 𝑘𝑎𝑚2 ⋯ 𝑘𝑎𝑚𝑛
Teorema. Propiedades de la suma de matrices y de la multiplicación escalar
Suponga que A, B y C son matrices de 𝑚 × 𝑛 y que 𝑘1 y 𝑘2 son escalares. Por lo
tanto
a. 𝐴 + 𝐵 = 𝐵 + 𝐴 Ley conmutativa de la suma
b. 𝐴 + ሺ𝐵 + 𝐶 ሻ = ሺ𝐴 + 𝐵ሻ + 𝐶 Ley asociativa de la suma
c. (𝑘1 𝑘2 )𝐴 = 𝑘1 (𝑘2 𝐴)
d. 1𝐴 = 𝐴
e. 𝑘1 ሺ𝐴 + 𝐵ሻ = 𝑘1 𝐴 + 𝑘1 𝐵 Ley distributiva
f. ሺ𝑘1 + 𝑘2 ሻ𝐴 = 𝑘1 𝐴 + 𝑘2 𝐴 Ley distributiva
Definición. Multiplicación de matrices
Sea la matriz A 𝑚 × 𝑝 y la matriz B 𝑝 × 𝑛. El producto AB es la matriz de 𝑚 × 𝑛
𝑎11 𝑎12 ⋯ 𝑎1𝑝 𝑏11 𝑏12 ⋯ 𝑏1𝑛 𝑝
𝑎 𝑎22 ⋯ 𝑎2𝑝 𝑏21 𝑏22 ⋯ 𝑏2𝑛
𝐴𝐵 = ൦ 21 ⋮
൪൦ ൪= ൭෍ 𝑎𝑖𝑘 𝑏𝑘𝑗 ൱
⋮ ⋮ ⋯ ⋮ ⋮ ⋯ ⋮
𝑘=1
𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑝 𝑏𝑝1 𝑏𝑝2 ⋯ 𝑏𝑝𝑛 𝑚×𝑚

Definición. Transpuesta de una matriz


La transpuesta de una matriz 𝐴 𝑚 × 𝑛 es la matriz 𝐴𝑇 de 𝑛 × 𝑚 dada por
𝑎11 𝑎21 ⋯ 𝑎𝑚1
𝑎 𝑎22 ⋯ 𝑎𝑚2
𝐴𝑇 = ൦ 12 ⋯ ൪
⋮ ⋮ ⋮
𝑎1𝑛 𝑎2𝑛 ⋯ 𝑎𝑚𝑛
por ejemplo
3 2 −1 3 6 2
𝐴 = ൥6 5 2 ൩, 𝐴𝑇 = ൥ 2 5 1൩
2 1 4 −1 2 4
Teorema. Propiedades de la transpuesta
Suponga que A y B son matrices y k es un escalar. Por lo tanto,
a. ሺ𝐴𝑇 ሻ𝑇 = 𝐴
b. ሺ𝐴 + 𝐵ሻ𝑇 = 𝐴𝑇 + 𝐵𝑇
c. ሺ𝐴𝐵ሻ𝑇 = 𝐵𝑇 𝐴𝑇
d. ሺ𝑘𝐴ሻ𝑇 = 𝑘𝐴𝑇
7.7 Regla de Cramer
Introducción. Al final de la sección anterior pudimos observar que un sistema
de n ecuaciones lineales con n incógnitas AX=B tiene precisamente una solución
cuando el 𝑑𝑒𝑡𝐴 ≠ 0. Esta solución como se vera ahora, puede3 expresarse en
términos de determinantes. Por ejemplo, el sistema de dos ecuaciones con dos
incógnitas
𝑎11 𝑥1 + 𝑎12 𝑥2 = 𝑏1
𝑎21 𝑥1 + 𝑎22 𝑥2 = 𝑏2
tiene la solución
𝑏1 𝑎22 − 𝑎12 𝑏2 𝑏2 𝑎11 − 𝑎21 𝑏1
𝑥1 = 𝑦 𝑥2 =
𝑎11 𝑎22 − 𝑎12 𝑎21 𝑎11 𝑎22 − 𝑎12 𝑎21
𝑏 𝑎12 𝑎 𝑏1
ฬ1 ฬ ฬ 11 ฬ
𝑏2 𝑎22 𝑎21 𝑏2
𝑥1 = 𝑎 𝑎12 , 𝑥2 = 𝑎11 𝑎12
11
ቚ𝑎21 𝑎22 ቚ ቚ𝑎21 𝑎22 ቚ
siempre que
𝑎11 𝑎12

𝑎21 𝑎22 ቚ≠ 0
Teorema. Regla de Cramer
Sea la matriz de coeficientes del sistema. Si 𝑑𝑒𝑡𝐴 ≠ 0 entonces la solución es
𝑑𝑒𝑡𝐴1 𝑑𝑒𝑡𝐴2 𝑑𝑒𝑡𝐴𝑛
𝑥1 = ,𝑥 = , … , 𝑥𝑛 =
𝑑𝑒𝑡𝐴 2 𝑑𝑒𝑡𝐴 𝑑𝑒𝑡𝐴

EJEMPLO. Utilización de la regla de Cramer para resolver un sistema


3𝑥1 + 2𝑥2 + 𝑥3 = 7
𝑥1 − 𝑥2 + 3𝑥3 = 3
5𝑥1 + 4𝑥2 − 2𝑥3 = 1

solución
3 2 1
𝑑𝑒𝑡𝐴 = อ1 −1 3 อ= 13
5 4 −2
7 2 1 3 7 1 3 2 7
𝑑𝑒𝑡𝐴1 = อ3 −1 3 อ, 𝑑𝑒𝑡𝐴2 = อ1 3 3 อ= 78, 𝑑𝑒𝑡𝐴3 = อ1 −1 3อ= 52
1 4 −2 5 1 −2 5 4 1
𝑑𝑒𝑡𝐴1 𝑑𝑒𝑡𝐴2 𝑑𝑒𝑡𝐴3
𝑥1 = = −3, 𝑥2 = = 6, 𝑥3 = =4
𝑑𝑒𝑡𝐴 𝑑𝑒𝑡𝐴 𝑑𝑒𝑡𝐴
7.8 El problema del valor propio
Si A es una matriz de 𝑛 × 𝑛 y K es una matriz 𝑛 × 1 (vector columna), entonces
el producto AK esta definido y es otra matriz de 𝑛 × 1. En muchas aplicaciones,
es importante determinar si existen matrices K de 𝑛 × 1 diferentes de cero tales
que el vector producto se un múltiplo constante 𝜆 con la propia K. A la situación
que se plantea resolver 𝐴𝐾 = 𝜆𝐾 para vectores K diferentes de cero se le llama
el problema del valor propio de la matriz A.
Definición. Valores propios y vectores propios.
Sea A una matriz 𝑛 × 𝑛. Se dice que un número 𝝀 es un valor propio de A si
existe un vector solución K diferente de cero del sistema lineal.
𝐴𝐾 = 𝜆𝐾
Se dice que el vector solución K es un vector propio que corresponde al valor
propio 𝜆. A los valores propios y vectores propios se les conoce también como
valores característicos y vectores característicos respectivamente.
También de
𝐴𝐾 = 𝜆𝐾
𝐴𝐾 − 𝜆𝐾 = 𝐴𝐾 − 𝜆𝐼𝐾 = ሺ𝐴 − 𝜆𝐼 ሻ𝐾 = 0
entonces
ሺ𝐴 − 𝜆𝐼 ሻ𝐾 = 0
EJEMPLO. Sea
0 −1 −3
𝐴=൥ 2 3 3൩
−2 1 1
de la ecuación característica
ȁ𝐴 − 𝜆𝐼 ȁ = 0
0 −1 −3 𝜆 0 0 −𝜆 −1 −3
𝐴 − 𝜆𝐼 = ൥ 2 3 3 ൩− ൥0 𝜆 0 ൩= ൥ 2 3 − 𝜆 0 ൩
−2 1 1 0 0 𝜆 −2 1 1− 𝜆
3−𝜆
ȁ𝐴 − 𝜆𝐼 ȁ = ሺ−𝜆ሻ ቚ 0 2 0 2 3−𝜆
ቚ+ ቚ ቚ+ (−3) ቚ ቚ
1 1− 𝜆 −2 1 − 𝜆 −2 1
ȁ𝐴 − 𝜆𝐼 ȁ = −𝜆3 + 4𝜆2 − 11𝜆 + 14 = 0
las raíces o valores propios son
𝜆 = 2, 1 + 𝑗ξ 6, 1 − 𝑗ξ 6
de la ecuación
ሺ𝐴 − 𝜆𝐼 ሻ𝐾 = 0
haciendo
𝑘1
𝐾 = ൥𝑘2 ൩
𝑘3
para 𝜆 = 2
−2 −1 −3 𝑘1
൥2 1 3 ൩൥𝑘2 ൩= 0
−2 1 −1 𝑘3
−2𝑘1 − 𝑘2 − 3𝑘3 = 0
2𝑘1 + 𝑘2 + 3𝑘3 = 0
−2𝑘1 + 𝑘2 − 𝑘3 = 0
haciendo 𝑘1 = 1 entonces 𝑘2 = 1, 𝑘3 = −1, luego para el valor propio de 𝜆 = 2
corresponde el vector propio K
1
𝐾 = ൥1 ൩
−1
Teorema. Valores y vectores propios complejos
Sea A una matriz cuadrada con elementos reales. Si 𝜆 = 𝛼 + 𝑗𝛽, 𝛽 ≠ 0 es un
valor propuio complejo de A, entonces su conjugado 𝜆 = 𝛼 − 𝑗𝛽 también es un
valor propio de A. Si K es el vector propio correspondiente a 𝜆, entonces su
ഥ es un vector propio correspondiente a 𝜆, entonces su conjugado 𝐾
conjugado 𝐾 ഥ
es un vector propio correspondiente a 𝜆ҧ
.
En otras palabras, si 𝜆 = 𝛼 + 𝑗𝛽 es una raíz, entonces 𝜆 = 𝛼 − 𝑗𝛽 lo es también.
Ahora dejemos que K sea un vector propio de A correspondiente a 𝜆. Por
definición, 𝐴𝐾 = 𝜆𝐾. Calculando los conjugados complejos de la última ecuación
tenemos
ഥ= ഥ
𝐴ҧ
𝐾 𝜆𝐾 ഥ= ഥ
ഥ 𝑜 𝐴𝐾 𝜆𝐾ഥ
ഥ es un vector
puesto que A es una matriz real. La última ecuación muestra que 𝐾
propio correspondiente a 𝜆ҧ
.
EJEMPLO. Calcule los valores y vectores propios de
6 −1
𝐴=ቂ ቃ
5 4
solución
la ecuación característica es
6−𝜆 −1
detሺA − λIሻ = ቚ ቚ= 𝜆2 − 10𝜆 + 29 = 0
5 4−𝜆
𝜆 = 5 + 𝑗2, 5 − 𝑗2
𝜆1 = 5 + 𝑗2, 𝜆1ҧ= 5 − 𝑗2
Ahora para 𝜆1 = 5 + 𝑗2, debemos resolver
ሺ1 − 𝑗2ሻ𝑘1 − 𝑘2 = 0
5𝑘1 − (1 + 𝑗2)𝑘2 = 0
ya que 𝑘2 = (1 − 𝑗2)𝑘1∗ se puede deducir que, después de seleccionar 𝑘1 = 1,
ese vector propio es
1
𝐾1 = ൤ ൨
1 − 𝑗2

ഥ1 = ൤ 1 ൨
𝐾2 = 𝐾
1 + 𝑗2
Teorema. Matrices triangular y diagonal
Los valores propios de una matriz triangular superior, triangular inferior o
diagonal son los elementos de la diagonal principal.

7.9 Potencias de las matrices


En algunas ocasiones es importante poder calcular de manera rápida una
potencia de 𝑨𝑚 , siendo 𝑚 un entero positivo, de una matriz A de 𝑛 × 𝑛.
𝑨𝑚 = 𝑨. 𝑨. 𝑨 … 𝑨, 𝑚 𝑓𝑎𝑐𝑡𝑜𝑟𝑒𝑠
Teorema de Cayley-Hamilton
Una matriz A de 𝑛 × 𝑛 satisface su propia ecuación característica. Si la ecuación
característica de A
(−1)𝑛 𝜆𝑛 + 𝑐𝑛−1 𝜆𝑛−1 + ⋯ + 𝑐1 𝜆 + 𝑐0 = 0
entonces se establece que
(−1)𝑛 𝑨𝒏 + 𝑐𝑛−1 𝑨𝒏−𝟏 + ⋯ + 𝑐1 𝑨 + 𝑐0 𝑰 = 𝟎
EJEMPLO. Sea la matriz A
−2 4
𝐴=ቂ ቃ
−1 3
su ecuación característica es 𝜆2 − 𝜆 − 2 = 0 y valores propios 𝜆1 = −1 y 𝜆2 = 2
de acuerdo con el teorema implica que 𝐴2 − 𝐴 − 2𝐼 = 0, esto es
𝐴2 = 𝐴 + 2𝐼
−2 4 1 0 0 4
𝐴2 = ቂ ቃ+ 2 ቂ ቃ= ቂ ቃ
−1 3 0 0 −1 5
Si multiplicamos por A, se obtiene
𝐴3 = 𝐴2 + 2𝐴 = 𝐴 + 2𝐼 + 2𝐴 = 2𝐼 + 3𝐴
así sucesivamente
𝐴4 = 6𝐼 + 5𝐴
𝐴5 = 10𝐼 + 11𝐴
𝐴6 = 22𝐼 + 21𝐴
también de la ecuación característica
𝜆2 = 𝜆 + 2
𝜆3 = 𝜆2 + 2𝜆 = 𝜆 + 2 + 2𝜆 = 2 + 3𝜆
𝜆4 = 6 + 5𝜆
𝜆5 = 10 + 11𝜆
𝜆6 = 22 + 21𝜆
Se puede deducir entonces que las ecuaciones
𝑨𝑚 = 𝑐0 𝑰 + 𝑐1 𝑨 y 𝜆𝑚 = 𝑐0 + 𝑐1 𝜆
son validas para el mismo par de constantes 𝑐0 y 𝑐1 . Se pueden determinar estas
constantes para 𝜆 = −1 y 𝜆 = 2. Resolviendo el sistema
(−1)𝑚 = 𝑐0 + 𝑐1 (−1)
2𝑚 = 𝑐0 + 𝑐1 (2)
resolviendo
1
𝑐0 = ሾ2𝑚 + 2(−1)𝑚 ሿ
3
1
𝑐1 = ሾ2𝑚 − (−1)𝑚 ሿ
3
1 4 𝑚
ሾ−2𝑚 + 4(−1)𝑚 ሿ ሾ2 − (−1)𝑚 ሿ
𝑨𝑚 = ൦3 3 ൪, 𝑚≥0
1 𝑚 1
− ሾ2 − (−1)𝑚 ሿ ሾ2𝑚 +2 − (−1)𝑚 ሿ
3 3
Matrices de orden n
Si la matriz A fuera de 3 × 3 entonces la ecuación característica sería una
ecuación polinómica cubica y la analogía nos permitiría expresar 𝐀3 en términos
de I, A y 𝐀2 . Podemos proceder como se acaba de ilustrar y escribir cualquier
potencia de 𝑨𝑚 en términos de I, A y 𝐀2 . En general, para una matriz A de 𝑛 × 𝑛,
podemos escribir
𝐀m = 𝑐0 𝐼 + 𝑐1 𝐴 + 𝑐2 𝐴2 + ⋯ + 𝑐𝑛−1 𝐴n−1 , 𝑘 = 0,1, … , 𝑛 − 1
EJEMPLO. Calcule 𝐀m para la matriz
1 1 −2
𝐴 = ൥−1 2 1൩
0 1 −1
solución
La ecuación característica de A es:
𝜆3 − 2𝜆2 − 𝜆 + 2 = 0
𝜆3 = 2𝜆2 + 𝜆 − 2 = 0
los valores propios de A son 𝜆1 = −1, 𝜆2 = 1, 𝜆3 = 2
𝐀m = 𝑐0 𝐼 + 𝑐1 𝐴 + 𝑐2 𝐴2
𝜆m = 𝑐0 + 𝑐1 𝜆 + 𝑐2 𝜆2
(−1)m = 𝑐0 − 𝑐1 + 𝑐2
1 = 𝑐0 + 𝑐1 + 𝑐2
2m = 𝑐0 + 2𝑐1 + 4𝑐2
Resolviendo
1
𝑐0 = ሾ3 − 2𝑚 + (−1)𝑚 ሿ
3
𝑐1 = 2ሾ1 − (−1)𝑚 ሿ
1
𝑐0 = ሾ−3 + 2𝑚 + (−1)𝑚 ሿ
6
1 1 1
ሾ9‫ۍ‬− 2𝑚 +1 − (−1)𝑚 ሿ ሾ2𝑚 − (−1)𝑚 ሿ ሾ9 − 2𝑚 +1 + 7(−1)𝑚 ሿ ‫ې‬
6 ‫ێ‬ 3 6 ‫ۑ‬
m 𝑚 𝑚
𝐀 = ‫ ێ‬1−2 2 2𝑚 − 1 ‫ۑ‬
1 ‫ێ‬ 1 1 ‫ۑ‬
ሾ3 − 2𝑚 +1 − (−1)𝑚 ሿ ሾ2𝑚 − (−1)𝑚 ሿ ሾ−3 + 2𝑚 +1 + 7(−1)𝑚 ሿ
3‫ۏ‬ 3 6 ‫ے‬
por ejemplo, si 𝑚 = 10
−340 341 341
10
𝐀 = ൥−1023 1024 1023൩
−341 341 342
Cálculo de la inversa. Suponga que A es una matriz no singular. El que A
satisface su propia ecuación característica puede utilizarse para calcular 𝐴−1
como una combinación lineal de potencias de A. Por ejemplo, acabamos de ver
que la matriz no singular
−2 4 ȁ ȁ
𝐴=ቂ ቃ, 𝐴 = 2 ≠ 0, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝐴 𝑒𝑠 𝑛𝑜 𝑠𝑖𝑛𝑔𝑢𝑙𝑎𝑟
−1 3
ȁ𝜆𝐼 − 𝐴ȁ = 0
𝜆 0 −2 4 𝜆 + 2 −4
𝜆𝐼 − 𝐴 = ቂ ቃ− ቂ ቃ= ቂ ቃ
0 𝜆 −1 3 1 𝜆−3
𝜆 + 2 −4
ȁ𝜆𝐼 − 𝐴ȁ = ቚ ቚ= ሺ𝜆 + 2ሻሺ𝜆 − 3ሻ + 4 = 𝜆2 − 𝜆 − 2 = ሺ𝜆 − 2ሻሺ𝜆 + 1ሻ = 0
1 𝜆−3
𝜆 = 2, −1
𝐴2 − 𝐴 − 2𝐼 = 0
𝐴2 = 𝐴 + 2𝐼
1 2 1
𝐼= 𝐴 − 𝐴
2 2
multiplicando por 𝐴−1
1 1
𝐴−1 𝐼 = 𝐴−1 𝐴2 − 𝐴−1 𝐴
2 2
1 1 1 1 −2 4 1 0 1 −3 4 −3/2 2
𝐴−1 = 𝐴 − 𝐼 = ሼ𝐴 − 𝐼 ሽ = ቄቂ ቃ− ቂ ቃቅ = ቂ ቃ= ൤ ൨
2 2 2 2 −1 3 0 1 2 −1 2 −1/2 1
−1.5 2
𝐴−1 = ቂ ቃ
−0.5 1
Matrices ortogonales
En esta sección vamos a utilizar algunas propiedades elementales de los numero
complejos. Suponga que 𝑧 = 𝑎 + 𝑗𝑏 denota un numero complejo, donde 𝑎 y 𝑏
son números reales y el símbolo 𝑗 esta definido por 𝑗 2 = −1. Si 𝑧ҧ
= 𝑎 − 𝑗𝑏 es el
conjugado de 𝑧, entonces la igualdad 𝑧 = 𝑧ҧimplica que 𝑎 + 𝑗𝑏 = 𝑎 − 𝑗𝑏 implica
que 𝑏 = 0. En otras palabras, si 𝑧 = 𝑧 ̅ entonces 𝑧 es un numero real. Además,
se comprueba fácilmente que el producto de un número complejo 𝑧 y su
conjugado 𝑧ҧes un número real 𝑎2 + 𝑏2 . La magnitud de 𝑧 se define como ȁ𝑧ȁ =
ȁ o ȁ𝑧ȁ2 = 𝑧𝑧ҧ
ξ 𝑎2 + 𝑏2 = ȁ𝑧𝑧ҧ .
Definición. Matriz simétrica
Una matriz A de 𝑛 × 𝑛 es simétrica si 𝐴 = 𝐴𝑇 , donde 𝐴𝑇 es la transpuesta de A.

Teorema. Valores propios reales


Sea A una matriz simétrica con elementos reales. Por lo tanto, los valores propios
de A son reales.
Si K es vector propio correspondiente al valor propio 𝜆 de A, entonces 𝐴𝐾 = 𝜆𝐾.
El conjugado de la última ecuación es
ഥ = 𝜆ҧ
𝐴ҧ
𝐾 ഥ
𝐾
Puesto que los elementos de A son reales, tenemos que 𝐴 = 𝐴ҧ
y entonces
ഥ = 𝜆ҧ
𝐴𝐾 ഥ
𝐾
ഥ𝑇
aprovechando que K es simétrica, multiplicamos por 𝐾
ഥ𝑇 𝐴𝐾 = 𝜆ҧ
𝐾 ഥ𝑇 𝐾
𝐾
ഥ𝑇 a la ecuación 𝐴𝐾 = 𝜆𝐾, tenemos
multiplicando 𝐾
ഥ𝑇 𝐴𝐾 = 𝜆𝐾
𝐾 ഥ𝑇 𝐾
restando
0 = (𝜆ҧ ഥ𝑇 𝐾
− 𝜆)𝐾
ഥT es una matriz de 1 × 𝑛 y K es una matriz de 𝑛 × 1, por lo que el producto
Ahora K
ഥT K es la matriz
K
ഥT K = ȁ𝑘1 ȁ2 + ȁ𝑘2 ȁ2 + ⋯ + ȁ𝑘𝑛 ȁ2 , 𝑑𝑒 1 × 1
K
Por definición 𝐾 ≠ 0, la última expresión es una cantidad positiva. Por lo tanto,
podemos concluir que 𝜆ҧ
− 𝜆 = 0 entonces 𝜆ҧ
= 𝜆. esto implica que 𝜆 es un número
real.
En 𝑅𝑛 el producto interno o producto punto de dos vectores 𝑥 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) y
𝑦 = (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) esta dado por
𝑥. 𝑦 = 𝑥1 𝑦1 + 𝑥2 𝑦2 + ⋯ + 𝑥𝑛 𝑦𝑛
ahora, si X e Y son vectores columna de 𝑛 × 1
𝑥1 𝑦1
𝑥2 𝑦2
𝑋= ⋮൦ ൪, 𝑌= ⋮൪

𝑥𝑛 𝑦𝑛
restando
0 = (𝜆ҧ ഥ𝑇 𝐾
− 𝜆)𝐾
ഥT es una matriz de 1 × 𝑛 y K es una matriz de 𝑛 × 1, por lo que el producto
Ahora K
ഥT K es la matriz
K
ഥT K = ȁ𝑘1 ȁ2 + ȁ𝑘2 ȁ2 + ⋯ + ȁ𝑘𝑛 ȁ2 , 𝑑𝑒 1 × 1
K
Por definición 𝐾 ≠ 0, la última expresión es una cantidad positiva. Por lo tanto,
podemos concluir que 𝜆ҧ
− 𝜆 = 0 entonces 𝜆ҧ
= 𝜆. esto implica que 𝜆 es un número
real.
En 𝑅 𝑛 el producto interno o producto punto de dos vectores 𝑥 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) y
𝑦 = (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) esta dado por
𝑥. 𝑦 = 𝑥1 𝑦1 + 𝑥2 𝑦2 + ⋯ + 𝑥𝑛 𝑦𝑛
ahora, si X e Y son vectores columna de 𝑛 × 1
𝑥1 𝑦1
𝑥2 𝑦2
𝑋 = ൦ ⋮ ൪, 𝑌=൦⋮൪
𝑥𝑛 𝑦𝑛
entonces la matriz análoga es
𝑋. 𝑌 = 𝑋 𝑇 𝑌 = (𝑥1 𝑦1 + 𝑥2 𝑦2 + ⋯ + 𝑥𝑛 𝑦𝑛 )∗
Desde luego, para los vectores columna dados 𝑌 𝑇 𝑋 = 𝑋 𝑇 𝑌. La norma de un
vector columna X está dada por

ԡ𝑋ԡ= ξ 𝑋. 𝑋 = ඥ𝑋 𝑇 𝑋 = ට 𝑥12 + 𝑥22 + ⋯ + 𝑥𝑛2


Teorema. vectores propios ortogonales
Sea A una matriz de 𝑛 × 𝑛. Entonces los vectores propios correspondientes a los
distintos (diferentes) valores propios son ortogonales.
Demostración. Sean 𝜆1 y 𝜆2 dos valores propios distintos de A correspondientes
a los vectores propios 𝐾1 y 𝐾2 respectivamente. deseamos demostrar que
𝐾1 . 𝐾2 = 𝐾1𝑇 𝐾2 = 0
ahora por definición, debemos tener
𝐴𝐾1 = 𝜆1 𝐾1 𝑦 𝐴𝐾2 = 𝜆2 𝐾2
Calculamos la transpuesta de la primera de estas ecuaciones, utilizamos 𝐴𝑇 = 𝐴
y después multiplicamos el resultado de la derecha por 𝐾2
𝐾1𝑇 𝐴𝐾2 = 𝜆1 𝐾1𝑇 𝐾2
la segunda ecuación incluida esta multiplicada en su primer miembro por 𝐾1𝑇 :
𝐾1𝑇 𝐴𝐾2 = 𝜆2 𝐾1𝑇 𝐾2
restando
0 = 𝜆1 𝐾1𝑇 𝐾2 − 𝜆2 𝐾1𝑇 𝐾2 = (𝜆1 − 𝜆2 )𝐾1𝑇 𝐾2
puesto que 𝜆1 ≠ 𝜆2 se puede deducir que 𝐾1𝑇 𝐾2 = 0
EJEMPLO. Vectores propios ortogonales
Los valores propios de una matriz simétrica A son 𝜆1 = 0, 𝜆2 = 1, 𝜆3 = −2, con
0 −1 0
𝐴 = ൥−1 −1 1൩
0 1 0
sus vectores propios son
1 −1 1
𝐾1 = ൥0൩, 𝐾2 = ൥ 1 ൩, 𝐾3 = ൥ 2 ൩
1 1 −1
como los vectores propios son diferentes, tenemos
−1
𝐾1𝑇 𝐾2 = ሾ1 0 1ሿ൥ 1 ൩= 1. ሺ−1ሻ + 0.1 + 1.1 = 0
1
1
𝐾1𝑇 𝐾3 = ሾ1 0 1ሿ൥ 2 ൩= 1.1 + 0.2 + 1. (−1) = 0
−1
1
𝑇
𝐾2 𝐾3 = ሾ−1 1 1ሿ൥ 2 ൩= ሺ−1ሻ. 1 + 1.2 + 1. (−1) = 0
−1
Podemos deducir que un conjunto de vectores 𝑥1 , 𝑥2, … , 𝑥𝑛 en 𝑅 𝑛 es ortonormal
si cada cada par de vectores diferentes es ortogonal y cada vector presente en
el conjunto es un vector unitario. En términos del producto interno de vectores,
el conjunto es ortonormal si
𝑥𝑖 . 𝑥𝑗 = 0, 𝑖 ≠ 𝑗, 𝑖, 𝑗 = 1,2, … , 𝑛 𝑦 𝑥𝑖 . 𝑥𝑖 = 1, 𝑖 = 1,2, … , 𝑛
La última condición establece simplemente que
ԡ𝑥𝑖 ԡ= ඥ𝑥𝑖 . 𝑥𝑖 = 1, 𝑖 = 1,2, … , 𝑛

Matriz ortogonal. El concepto de un conjunto ortonormal de vectores juega un


papel importante en la consideración del siguiente tipo de matriz.
Definición. Matriz ortogonal
Una matriz A no singular de 𝑛 × 𝑛 es ortogonal si 𝐴−1 = 𝐴𝑇 . En otras palabras, A
es ortogonal si 𝐴𝑇 𝐴 = 𝐼.

EJEMPLO. Matrices ortogonales


a) La matriz identidad 𝐼 de 𝑛 × 𝑛 es una matriz ortogonal. Por ejemplo, en el
caso de la identidad de 3 × 3
1 0 0
𝐼 = ൥0 1 0൩
0 0 1
se puede observar fácilmente que 𝐼 𝑇 = 𝐼 y 𝐼 𝑇 𝐼 = 𝐼. 𝐼 = 𝐼
b) La matriz
1/3 −2/3 2/3
𝐴 = ൥ 2/3 2/3 1/3൩
−2/3 1/3 2/3
es ortogonal. Para poder apreciar lo anterior, solamente necesitamos comprobar
que 𝐴𝑇 𝐴 = 𝐼
1/3 2/3 −2/3 1/3 −2/3 2/3 1 0 0
𝐴𝑇 𝐴 = ൥−2/3 2/3 1/3 ൩൥ 2/3 2/3 1/3൩= ൥0 1 0൩
2/3 1/3 2/3 −2/3 1/3 2/3 0 0 1
Teorema. Criterio para la existencia de una matriz ortogonal
Una matriz A de 𝑛 × 𝑛 es ortogonal si y solo si, sus columnas 𝑋1 , 𝑋2 , … , 𝑋𝑛 forman
un conjunto ortonormal.
Demostración parcial. Supongamos que A es una matriz ortogonal de 𝑛 × 𝑛 con
columnas 𝑋1 , 𝑋2 , … , 𝑋𝑛 . de aquí que los renglones de 𝐴𝑇 sean 𝑋1𝑇 , 𝑋2𝑇 , … , 𝑋𝑛𝑇 . Sin
embargo, puesto que A es ortogonal, 𝐴𝑇 𝐴 = 𝐼, esto es
𝑋1𝑇 𝑋1 𝑋1𝑇 𝑋2 ⋯ 𝑋1𝑇 𝑋𝑛 1 0 ⋯ 0
𝑇
‫ۍ‬ ‫ې‬
𝑋 𝑋 𝑋2𝑇 𝑋2 ⋯ 𝑋2𝑇 𝑋𝑛
𝐴𝑇 𝐴 = 2 ‫ێ‬1 ൦0
=‫ۑ‬
1 ⋯ 0൪
⋮‫ێ‬ ⋮ ⋮ ‫⋮ۑ‬ ⋮ ⋮
𝑋𝑛‫𝑋 𝑇ۏ‬1 𝑋𝑛𝑇 𝑋2 ⋯ 𝑋𝑛𝑇 𝑋𝑛 0
‫ے‬ 0 ⋯ 1
se puede deducir, a partir de la definición de igualdad de matrices, que
𝑋𝑖𝑇 𝑋𝑗 = 0, 𝑖 ≠ 𝑗, 𝑖, 𝑗 = 1,2, … , 𝑛 𝑦 𝑋𝑖𝑇 𝑋𝑖 = 1, 𝑖 = 1, 2, … , 𝑛
Esto significa que las columnas de la matriz ortogonal forman un conjunto
ortonormal de 𝑛 vectores.
Si escribimos las columnas de la matriz del inciso b) del ejemplo como
1/3 −2/3 2/3
𝑋1 = ൥ 2/3 ൩, 𝑋2 = ൥ 2/3 ൩, 𝑋3 = ൥1/3൩
−2/3 1/3 2/3
−2/3
𝑋1𝑇 𝑋2 = ሾ1/3 2/3 −2/3ሿ൥ 2/3 ൩= 0
1/3
2/3
𝑋1𝑇 𝑋3 = ሾ1/3 2/3 −2/3ሿ൥1/3൩= 0
2/3
2/3
𝑋2𝑇 𝑋3 = ሾ−2/3 2/3 1/3ሿ൥1/3൩= 0
2/3
son vectores unitarios
1/3
𝑋1𝑇 𝑋1 = ሾ1/3 2/3 −2/3ሿ൥ 2/3 ൩= 1
−2/3
−2/3
𝑋2𝑇 𝑋2 = ሾ−2/3 2/3 1/3ሿ൥ 2/3 ൩= 1
1/3
2/3
𝑋3𝑇 𝑋3 = ሾ2/3 1/3 2/3ሿ൥1/3൩= 1
2/3
Construcción de una matriz ortogonal. Si una matriz simétrica A de 𝑛 × 𝑛 tiene
𝑛 valores propios distintos 𝜆1 , 𝜆2 , … , 𝜆𝑛 a partir del teorema de la matriz ortogonal,
se puede deducir que los vectores propios 𝐾1 , 𝐾2 , … , 𝐾𝑛 son mutuamente
ortogonales. Multiplicando cada vector por el reciproco de su normal, obtenemos
un conjunto de vectores unitarios mutuamente ortogonales, esto es, un conjunto
ortonormal. Por lo tanto, podemos construir una matriz ortogonal elaborando una
matriz P de 𝑛 × 𝑛 cuyas columnas sean los vectores propios normalizados de A.
EJEMPLO. Construcción de una matriz ortogonal
Se probó que los vectores propios de la matriz simétrica A dada son ortogonales
1 −1 1
𝐾1 = ൥0൩, 𝐾2 = ൥ 1 ൩, 𝐾3 = ൥ 2 ൩
1 1 −1

Las normas de los vectores propios son

ԡ𝐾1 ԡ= ට 𝐾1𝑇 𝐾1 = ξ 2, ԡ𝐾2 ԡ= ට 𝐾2𝑇 𝐾2 = ξ 3, ԡ𝐾3 ԡ= ට 𝐾3𝑇 𝐾3 = ξ 6

por ende, un conjunto ortonormal de vectores es

1/ξ 2 −1/ξ 3 1/ξ 6


቎ 0 ቏, ൦ 1/ξ 3 ൪, ൦ 2/ξ 6 ൪
1/ξ 2 1/ξ 3 −1/ξ 6
se utilizan estos vectores como columnas para obtener la matriz ortogonal
1/ξ 2 −1/ξ 3 1/ξ 6
𝑃=൦ 0 1/ξ 3 2/ξ 6 ൪
1/ξ 2 1/ξ 3 −1/ξ 6
7.11 Aproximación de valores propios
Recuerde que para calcular los valores propios de una matriz A debemos
encontrar las raíces de la ecuación polinomial 𝑝ሺ𝜆ሻ = detሺ𝐴 − 𝜆𝐼 ሻ = 0. Si A es
una matriz de tamaño grande, los cálculos para obtener esta ecuación
característica podrían volverse una pesadilla. Además, aunque pudiésemos
calcular la ecuación característica exacta, es probable que tuviéramos que
utilizar un procedimiento numérico para aproximar sus raíces. Existen
procedimientos alternos para aproximar valores propios y los correspondientes
vectores propios. El procedimiento que consideramos en esta sección tiene que
ver con matrices que poseen un valor propio dominante.
Una definición. Un valor propio dominante de una matriz cuadrada A es uno
cuyo valor absoluto es mayor que el valor absoluto de una de los valores propios
restante. En la definición siguiente, enunciamos de modo formal este último
enunciado.

Definición. Valor propio dominante


Hagamos que 𝜆1 , 𝜆2 , … , 𝜆𝑘 , … , 𝜆𝑛 expresan los valores propios de una matriz A de
𝑛 × 𝑛. Se dice que el valor propio 𝜆𝑘 es el valor propio dominante de A si
ȁ𝜆𝑘 ȁ > 𝜆𝑖 , 𝑖 = 1,2, . . , 𝑛 𝑐𝑜𝑛 𝑖 ≠ 𝑘
Se llama vector propio dominante de A al valor propio correspondiente a 𝜆𝑘 .
Si A es
1 2 1
𝐴 = ൥6 −1 0൩
−1 −2 −1
observamos que los valores propios de la matriz A son 𝜆1 = 0, 𝜆2 = −4, 𝜆3 = 3
puesto que ȁ−4ȁ > 0 y ȁ−4ȁ > 3, podemos observar que 𝜆2 = −4 es el valor
propio dominante.
EJEMPLO. Matrices sin ningún valor propio dominante
a) la matriz A
2 0
𝐴=ቂ ቃ
0 −2
tiene valores propios 𝜆1 = −2, 𝜆2 = 2. Puesto que ȁ𝜆1 ȁ = ȁ𝜆1 ȁ = 2 se puede
deducir que no existe valor propio dominante
b) Los valores propios de la matriz
2 0 0
𝐴 = ൥0 5 1൩
0 0 −1
son 𝜆1 = 2, 𝜆2 = 𝜆3 = 5, de nuevo la matriz no tiene valor propio
dominante.

Diagonalización
La pregunta fundamental que consideraremos en esta sección es:
Para una matriz A de 𝑛 × 𝑛. ¿podemos calcular una matriz no singular P de 𝑛 × 𝑛
tal que P −1 AP = D sea una matriz diagonal?
Una notación especial. Comenzamos con una notación abreviada para
representar el producto de dos matrices de 𝑛 × 𝑛. Esta notación será de gran
utilidad para demostrar el teorema principal de esta sección. Para efectos
ilustrativos, suponga que A y B son matrices de 2 × 2. Por lo tanto,
𝑎11 𝑎12 𝑏11 𝑏12 𝑎 𝑏 + 𝑎12 𝑏21 𝑎11 𝑏12 + 𝑎12 𝑏22
𝐴𝐵 = ቂ𝑎 𝑎22 ቃ൤𝑏21 ൨= ൤ 11 11 ൨
21 𝑏22 𝑎21 𝑏11 + 𝑎22 𝑏21 𝑎21 𝑏12 + 𝑎22 𝑏22
columna 1 columna 2
Si escribimos las columnas de la matriz B como los vectores
𝑏 𝑏
𝑋1 = ൤ 11 ൨, 𝑋2 = ൤ 12 ൨
𝑏21 𝑏22
entonces las columnas 1 2 del producto pueden expresarse mediante los
productos 𝐴𝑋1 y 𝐴𝑋2 . Esto es
𝐴𝐵 = ሾ𝐴𝑋1 𝐴𝑋2 ሿ
columna 1 columna 2

En general, para dos matrices de 𝑛 × 𝑛


𝐴𝐵 = 𝐴ሺ𝑋1 𝑋2 … 𝑋𝑛 ሻ = (𝐴𝑋1 𝐴𝑋2 … 𝐴𝑋𝑛 )
donde 𝑋1 , 𝑋2 , … , 𝑋𝑛 𝑠𝑜𝑛 𝑙𝑎𝑠 𝑐𝑜𝑙𝑢𝑚𝑛𝑎𝑠 𝑑𝑒 𝐵.
Matriz diagonalizable. Si pudiera encontrarse una matriz P no singular de 𝑛 × 𝑛
de tal forma que P −1 AP = D fuese una matriz diagonal, entonces podríamos decir
que la matriz A de 𝑛 × 𝑛 𝑝𝑢𝑒𝑑𝑒 𝑠𝑒𝑟 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑎𝑑𝑎 o que es diagonalizable, y
que P diagonaliza a la matriz A.
Supongamos que A es una matriz diagonizable de 3 × 3, donde D es una matriz
diagonal tal que 𝐷 = P −1 AP o AP = PD
𝑑11 0 0
𝐷 = ൥0 𝑑22 0 ൩
0 0 𝑑33
Si 𝑃1 , 𝑃2 , 𝑃3 expresan las columnas de P, entonces puede deducirse a partir de la
ecuación AP=PD es la misma que
ሺ𝐴𝑃1 𝐴𝑃2 𝐴𝑃3 ሻ = ሺ𝑑11 𝑃1 𝑑22 𝑃2 𝑑33 𝑃3 ሻ
𝐴𝑃1 = 𝑑11 𝑃1 , 𝐴𝑃2 = 𝑑22 𝑃2 , 𝐴𝑃 = 𝑑33 𝑃3
Sin embargo, en la definición observamos que 𝑑11 , 𝑑22 , 𝑑33 son valores propios
de A asociados con los vectores propios 𝑃1 , 𝑃2 , 𝑃3 . Estos vectores propios son
linealmente independientes, puesto que supusimos una P no singular.
Teorema. Condición suficiente para la diagonalización
Si una matriz A de 𝑛 × 𝑛 tiene 𝑛 vectores propios linealmente independientes
𝐾1 , 𝐾2 , … , 𝐾𝑛 entonces es diagonizable.
Demostración. Demostraremos el teorema para el caso en que A es una matriz
de 3 × 3. Sean 𝐾1 , 𝐾2 , 𝐾3 vectores propios linealmente independientes
correspondientes a los valores propios 𝜆1 , 𝜆2 , 𝜆3 esto es
𝐴𝐾1 = 𝜆1 𝐾1 , 𝐴𝐾2 = 𝜆2 𝐾2 , 𝐴𝐾3 = 𝜆3 𝐾3
𝑃 = ሾ𝐾1 𝐾2 𝐾3 ሿ
𝜆1 0 0
𝐴𝑃 = ሾ𝐾1 𝐾2 𝐾3 ሿ൥0 𝜆2 0 ൩= 𝑃𝐷
0 0 𝜆3
Al multiplicar la última ecuación del lado izquierdo por 𝑃−1 nos da 𝑃−1 𝐴𝑃 = 𝐷
Teorema. Criterio para la diagonalización
Una matriz A de 𝑛 × 𝑛 es diagonalizable si y solo si, A tiene 𝑛 vectores propios
linealmente independientes.

Teorema. Condición suficiente para la diagonalización


Si una matriz A de 𝑛 × 𝑛 tiene 𝑛 valores propios distintos, es diagonalizable.

EJEMPLO. Diagonalización de una matriz


Si es posible diagonalice
−5 9
𝐴=ቂ ቃ
−6 10

solución
la ecuación característica es 𝜆2 − 5𝜆 + 4 = 0, 𝜆1 = 1, 𝜆2 = 4
los vectores propios respectivamente son
3 1
𝐾1 = ቂ ቃ, 𝐾1 = ቂ ቃ
2 1
3 1
𝑃 = ሾ𝐾1 𝐾2 ሿ= ቂ ቃ
2 1
1 −1
𝑃−1 = ቂ ቃ
−2 3
1 0
𝐷 = 𝑃−1 𝐴𝑃 = ቂ ቃ
0 4
EJEMPLO. Valores propios repetidos, pero diagonalizables
0 1 0
𝐴 = ൥1 0 0൩
0 0 1
sus valores propios son 𝜆1 = −1, 𝜆2 = 1, 𝜆3 = 1
1 1 0
𝐾1 = ൥−1൩, 𝐾2 = ൥1൩, 𝐾3 = ൥0൩
0 0 1
1 1 0
𝑃 = ൥−1 1 0൩
0 0 1
−1 0 0
𝐷 = ൥ 0 1 0൩
0 0 1
Matrices simétricas. Una matriz simétrica A de 𝑛 × 𝑛 con elementos reales
siempre se puede diagonalizar. Lo anterior es una consecuencia del hecho de
que siempre podremos calcular 𝑛 vectores propios linealmente independientes
de dicha matriz. Además, puesto que podemos calcular 𝑛 vectores propios
mutuamente ortogonales, es posible usar una matriz ortogonal P para
diagonalizar A. Se dice que una matriz simétrica es diagonalizable
ortogonalmente.
Teorema. Criterio para la diagonalización ortogonal
Una matriz A de 𝑛 × 𝑛 puede ser diagonalizada ortogonalmente si y solo si A es
simétrica.
Demostración parcial. Se demostrará la parte necesaria del teorema.
Supongamos que una matriz A de 𝑛 × 𝑛 es diagonalizable ortogonalmente.
Entonces existe una matriz ortogonal P tal que 𝑃 −1 𝐴𝑃 = 𝐷 o 𝐴 = 𝑃𝐷𝑃 −1 . Puesto
que P es ortogonal 𝑃−1 = 𝑃𝑇 y en consecuencia 𝐴 = 𝑃𝐷𝑃 −1
𝐴𝑇 = (𝑃𝐷𝑃𝑇 )𝑇 = (𝑃𝑇 )𝑇 𝐷 𝑇 𝑃𝑇 = 𝑃𝐷𝑃𝑇 = 𝐴
por lo tanto, A es simétrica.
EJEMPLO. Diagonalización de una matriz simétrica
Considere la matriz simétrica
9 1 1
𝐴 = ൥1 9 1൩
1 1 9
los valores propios son 𝜆1 = 11, 𝜆2 = 8, 𝜆3 = 8
los vectores propios linealmente independientes correspondientes son
1 −1 −1
𝐾1 = ൥1൩, 𝐾2 = ൥ 1 ൩, 𝐾3 = ൥ 0 ൩
1 0 1
pero no son mutuamente ortogonales, debido a que 𝐾2 y 𝐾3 no son ortogonales
seleccionando dos vectores propios ortogonales diferentes
−2 0
𝐾2 = ൥ 1 ൩, 𝐾3 = ൥ 1 ൩
1 −1

por lo tanto, el nuevo conjunto es


1 −2 0
𝐾1 = ൥1൩, 𝐾2 = ൥ 1 ൩, 𝐾3 = ൥ 1 ൩
1 1 −1
multiplicando estos vectores por el reciproco de las normales ԡ𝐾1 ԡ= ξ 3, ԡ𝐾2 ԡ=
ξ 6, ԡ𝐾3 ԡ= ξ 2 y obtenemos el conjunto ortonormal
‫‪1‬‬ ‫‪2‬‬
‫ۍ‬ ‫ۍ ‪ −‬ې‬ ‫ې‬ ‫‪0‬‬
‫ێ‪ξ 3‬‬ ‫ۑ‬ ‫‪ξ‬‬‫ێ‬‫‪6‬‬ ‫ۑ‬ ‫ۍ‪1‬‬ ‫ې‬
‫ێ‪1‬‬ ‫ۑ‬ ‫ێ‪1‬‬ ‫ۑ‬ ‫ێ‬ ‫ۑ‬
‫‪,‬ێ‬ ‫ۑ‬ ‫ێ‬ ‫‪,‬‬ ‫ۑ‬ ‫‪ξ‬‬ ‫‪2‬‬
‫ێ‬ ‫ۑ‬
‫ێ‪ξ 3‬‬ ‫ۑ‬ ‫‪ξ‬‬ ‫‪6‬‬
‫ێ‬ ‫ۑ‬ ‫‪1‬‬
‫‪−‬‬ ‫ێ‬ ‫ۑ‬
‫ێ‪1‬‬ ‫ۑ‬ ‫‪1‬‬ ‫ێ‬ ‫ۑ‬ ‫‪ξ 2‬ۏ‬ ‫ے‬
‫‪3‬ۏ ‪ξ‬‬ ‫‪ 6‬ۏ‪ ξ‬ے‬ ‫ے‬

‫‪1‬‬ ‫‪2‬‬
‫‪−‬ۍ‬ ‫‪0‬‬ ‫ې‬
‫‪ ξ 6‬ێ‪ξ 3‬‬ ‫ۑ‬
‫‪ 1‬ێ‪1‬‬ ‫‪1‬‬ ‫ۑ‬
‫=𝑃‬ ‫ێ‬ ‫ۑ‬
‫‪ ξ 6‬ێ‪ξ 3‬‬ ‫‪ξ2‬‬ ‫ۑ‬
‫‪ 1‬ێ‪1‬‬ ‫‪1‬‬ ‫ۑ‬
‫‪−‬‬
‫‪3 ξ 6‬ۏ ‪ξ‬‬ ‫‪ξ2‬‬ ‫ے‬
‫‪11 0‬‬ ‫‪0‬‬
‫‪𝐷 = ൥0 8‬‬ ‫‪0൩‬‬
‫‪0 0‬‬ ‫‪8‬‬
‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪2‬‬
‫ۍ‬ ‫ې‬ ‫‪−‬ۍ‬ ‫‪0‬‬ ‫ې‬
‫‪ ξ 3‬ێ‪ξ 3‬‬ ‫‪ξ3‬‬ ‫‪ξ3‬‬ ‫‪ξ6‬‬
‫‪2‬‬
‫ێ‬ ‫‪1‬‬ ‫‪1‬‬ ‫ۑ‪9‬‬‫‪1‬ۑ‬ ‫ێ‪1 1‬‬ ‫‪ 1‬ێ‬ ‫‪1‬‬
‫‪11‬ۑ‬
‫ۑ‬ ‫‪0 0‬‬
‫ێ ‪𝑃−1 𝐴𝑃 = 𝑃𝑇 𝐴𝑃 = −‬‬ ‫‪ 9‬ۑ ‪൥1‬‬ ‫ێ ‪1൩‬‬ ‫‪൥0‬‬
‫ۑ=‬ ‫‪8 0൩‬‬
‫‪6 ξ 6‬ێ‪ξ‬‬ ‫‪ξ‬‬ ‫‪6‬‬ ‫‪ 1‬ۑ‪1‬‬ ‫‪ ξ 6‬ێ‪9 ξ 3‬‬ ‫‪ξ‬‬ ‫‪2‬‬ ‫‪0‬ۑ‬ ‫‪0 8‬‬
‫‪1‬‬ ‫‪1‬‬ ‫‪ 1‬ێ‪1‬‬ ‫‪1‬‬
‫ێ‪0‬‬ ‫‪−‬‬ ‫ۑ‬ ‫‪−‬‬ ‫ۑ‬
‫ۏ‬ ‫‪ξ2‬‬ ‫‪ξ2‬‬ ‫ے‬ ‫‪3 ξ 6‬ۏ ‪ξ‬‬ ‫‪ξ2‬‬ ‫ے‬
‫𝐷=‬
GRACIAS
M. Sc. Ing. Julio Borjas Castañeda
julioborjasc@hotmail.com

También podría gustarte