Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Paul Bosch
pbosch@udd.cl
Tema 3
Regla de Cramer
Otra alternativa para solucionar es mediante la regla de Cramer:
det([A; bi ])
xi = ,
det(A)
Cantidad de operaciones
Divisiones: n
Multiplicaciones: n(n + 1)(n!)
Sumas: (n + 1)(n! − 1)
Luego, el número total de operaciones usado por este método es:
Definición
Una matriz B = (bij ) se dice triangular superior (resp. inferior) si todos los
elementos bajo (resp. sobre) la diagonal principal son nulos, es decir, bij = 0 si
i > j (resp. bij = 0 si i < j).
Eliminación Gaussiana
Es un proceso que convierte la matriz A en una matriz triangular superior U
mediante la aplicación sistemática de transformaciones lineales por filas, esto es,
el sistema Ax = b se transforma en el sistema Ux = c.
Una vez obtenida la matriz triangular se aplicada un procedimiento llamado
sustitución hacia atrás el permite obtener la solución x.
Cantidad de operaciones:
Divisiones: n
Sumas y productos coinciden: 1 + 2 + · · · + (n − 1) = n(n−1)
2
.
Por tanto, el número total de operaciones usado por este método es:
n(n − 1) n(n − 1)
Tatras = n + + = n2 .
2 2
Paul Bosch MN 5/31
Obtención de U, c a partir de A, b
Considere el sistema de ecuaciones Ax = b escrito en la forma aumentada
a11 a12 · · · a1n
b1
a21 a22 · · · a2n b2
(A|b) = . (1)
.. .. ..
.. . . .
an1 an2 · · · ann bn
Denotemos por Fi las filas de esta matriz, A(1) = A y b (1) = b.
(1)
Si a11 ̸= 0, el 1er paso de eliminación Gaussiana consiste en hacer ceros los
elementos de la 1ra columna que se encuentran bajo la diagonal. Esto se logra
mediante:
(1)
a
Fi 7→ Fi − mi1 F1 , mi1 = i1 (1)
, i = 2, . . . , n.
a11
Esta transformación convierte la matriz aumentada (1) en la sgte:
donde
(2) (2) (2) (2)
a11 a12 ··· a1n b1 (2) (1) (2) (1)
(2) (2) (2) a1j = a1j , j = 1, . . . , n, b1 = b1 ,
0 a22 ··· a2n b2
.. .. .. ..
(2) (1) (1)
.
. . . aij = aij − mi1 aij , 2 ≤ i, j ≤ n
(2) (2) (2)
0 an2 ··· ann bn (2) (1) (1)
bi = bi − mi1 b1 , 1 ≤ i ≤ n.
Paul Bosch MN 6/31
Obtención de U, c a partir de A, b
Supongamos que tenemos la sgte matriz (después de realizar varias operaciones
por filas)
(k) (k) (k) (k) (k) (k)
··· ···
a11 a12 a1k a1k+1 a1n b1
(k) (k) (k) (k) (k)
0 a22 ··· a2k a2k+1 a2n b2
.. .. .. .. ..
. . . . .
..
(k) (k) (k) (k)
.
0 akk akk+1 ··· akn bk
.. (k) (k) (k) (k)
0 . ak+1k ak+1k+1 ··· ak+1n bk+1
.. .. .. .. ..
. . . . .
(k) (k) (k) (k)
0 ··· ··· aik aik+1 ··· ain bi
.. .. .. ..
.. ..
. . . . . .
(k) (k) (k) (k)
0 ··· ··· ank ank+1 ··· ann bn
(k)
con akk ̸= 0. Para hacer cero en las posiciones (k + 1, k), (k + 2, k), . . . , (n, k)
hacemos:
(k)
a
Fi 7→ Fi − mik Fk , mik = ik (k)
, i = k + 1, . . . , n,
akk
donde (
(k)
(k+1) aij , 1 ≤ i ≤ k, 1 ≤ j ≤ n
aij = (k) (k)
aij − mik akj , k + 1 ≤ i, j ≤ n
(
(k)
(k+1) bi , 1≤i ≤k
bi = (k) (k)
bi − mik bk , k + 1 ≤ i ≤ n.
Algoritmo de Gauss
Para k = 1 hasta n − 1 hacer
Para i = k + 1 hasta n hacer
mik = aik /akk
Para j = k hasta n hacer
aij = aij − mik akj
fin j
bi = bi − mik bk
fin i
fin k
n(n − 1)
Cd (n) = (n − 1) + (n − 2) + · · · + 2 + 1 = .
2
Productos y sumas (se ha tenido en cuenta las operaciones en b):
(n + 1)n(n − 1)
Cp (n) = Cs (n) = n(n − 1) + (n − 1)(n − 2) + · · · + 6 + 2 =
3
Luego, el total de operaciones en este proceso es:
n(n − 1)(4n + 7)
CEG (n) = Cd (n) + Cp (n) + Cs (n) = = O(n3 ).
6
Recordar que el costo de sustitución hacia atrás es n2 , por tanto, el costo
total para solucionar el sistema Ax = b usando EG y sustitución hacia
atrás es:
n(n − 1)(4n + 7) 4n3 + 9n2 − 7n
CT (n) = + n2 = = O(n3 ).
6 6
3x1 − x2 + 2x3 = 12
x1 + 2x2 + 3x3 = 11
2x1 − 2x2 − x3 = 2
3 −1 2 12
Sean A(1) = 1 2 3 y b (1) = 11 . Los multiplicadores para
2 −2 −1 2
eliminar las filas 2 y 3 de la 1ra columna son: m21 = 1/3, m31 = 2/3. Luego,
3 −1 2 12
A(2) = 0 7
3
7
3
, b (2) = 7 .
0 − 43 − 43 −6
Ası́, x2 = 1404
1405
= 0,9993, x1 = 12,5. Esto significa que los pivotes pequeños
provocan que el error de redondeo aumente.
Obs. Si hubieses intercambio la fila 1 con la fila 2, se obtendrı́a x1 = 10 y
x2 = 1.
0
0
..
..
.
.
0
⊤ 0
M (k)
= I − m k ek , m 3 =
mk+1k
, ek =
1 ,
0
..
. ..
.
mnk
0
entonces A(k+1) = M (k) A(k) y b (k+1) = M (k) b (k) . De todo este proceso se tiene:
A(k+1) = M (k) A(k) = M (k) M (k−1) A(k−1) = · · · = M (k) M (k−1) . . . M (2) M (1) A(1) .
Puesto que las matrices M (k) son triangulares inferiores (con varios ceros),
entonces su inversa es fácil de obtener. Basta con sólo invertir el signo de los
multiplicadores, es decir,
Luego,
Teorema
Si podemos efectuar la eliminación Gaussiana en el sistema Ax = b sin
intercambio de filas, entonces podemos factorizar la matriz A mediante A = LU,
donde
(1) (1) (1)
a11 a12 . . . a1n
1 0 ... 0
(2) (2) m21
0 a22 a2n 1 0
U= , L = .
. . . . .
.. . .. . . . ...
.. .. .. ..
(n) mn1 . . . mnn−1 1
0 ... 0 ann
Ax = b ⇔ LUx = b ⇒ Ly = b, Ux = y .
x1 + x2 − x3 = 0
2x1 + x2 + x3 = 7
3x1 − 2x2 − x3 = −4
(2) (2)
Elección de la fila pivote (2do paso): ar 2 = máx2≤i≤3 |ai2 | = 73 = a22 , de
donde r = 2. Luego, no hay intercambios de filas. Ası́, el multiplicador es:
m32 = 75 . Usando este multiplicador se obtiene:
3 −2 −1 −4 3 −2 −1 −4
7 5 29 7 5 29
0
3 3 3
→ 0 3 3 3
.
5 2 4 39 117
0 3
− 3 3
0 0 − 21 21
sk = máx |akj |.
1≤j≤n
Definición
Una matriz de permutación P ∈ Rn×n es una matriz obtenida a partir de la
matriz identidad intercambiando alguna de sus filas.
Propiedades:
1 Si P es una matriz de permutación, entonces P −1 = P ⊤ .
2 Al realizar el producto PA se intercambian las filas de A.
3 Si A ∈ Rn×n es invertible, entonces existe una matriz de permutación P
tal que PA = LU con L triangular inferior y U triangular superior.
Observación: Dado que P −1 = P ⊤ , entonces A = P ⊤ LU, donde P ⊤ L no es
triangular inferior salvo que P = I .
Definiciones
1 Decimos que A ∈ Rn×n es simétrica sii A⊤ = A.
2 Decimos que A ∈ Rn×n es definida positiva sii x ⊤ Ax > 0, ∀x ̸= 0.
Teorema
1 Si A ∈ Rn×n es definida positiva, entonces todos sus valores propios son
reales y positivos.
2 Una matriz simétrica A ∈ Rn×n es definida positiva sii todos sus menores
principales tienen determinante positivo.
Teorema
Si A ∈ Rn×n es simétrica definida positiva, entonces existe una única matriz
triangular inferior L con lii > 0 tal que A = LL⊤ .
2 √
De la 1ra fila y 1ra columna: a11 = l11 ⇒ l11 = a11 .
a
De la 1ra fila y las demás columnas: a1j = l11 lj1 ⇒ lj1 = √aj111 , j = 2, . . . , n.
2 2
p
2
De la 2da fila y 2da columna: a22 = l21 + l22 ⇒ l22 = a22 − l21 .
a −l l
De la 2da fila y las demás columnas: a2j = l21 lj1 + l22 lj2 ⇒ lj2 = 2j l2221 j1 ,
j = 3, . . . , n.
Algoritmo de Cholesky
Para k = 1 hasta P n hacer
lkk = (akk − k−1 2 1/2
r =1 lkr )
Para j = k + 1Phasta n hacer
ljk = (ajk − k−1
r =1 ljr lkr )/lkk
fin j
fin k
Observaciones:
Si A = LL⊤ , entonces det(A) = det(L) det(L⊤ ) = det(L)2 = Πni=1 lii2 .
Si A ∈ S++n
, entonces pueden existir varias matrices L tales que A = LL⊤ ,
pero soĺo una de ellas es de elementos diagonales positivos. Por ejemplo,
1 2 1 0 1 2
A= =
2 5 2 −1 0 −1
1 2 1 0 1 2
Descomposición de Cholesky: A = =
2 5 2 1 0 1
n
Si A ∈ S++ , entonces pueden existir descomposiciones de A de la forma
A = LU, donde U ̸= L⊤ . Por ejemplo,
2 −1 1 0 2 −1
A= = 1 5
−1 3 2
1 0 2
√ √
2 − √12
! !
2 q0
2 −1
Desc. de Cholesky: A = = q
−1 3 − √12 5
2 0 5
2