Está en la página 1de 21

UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

FACULTAD DE ARQUITECTURA E INGENIERÍA CIVIL


ESCUERLA PROFESIONAL DE INGENIERÍA CIVIL

MÉTODOS NUMÉRICOS
 QUE SON LOS MÉTODOS NUMÉRICOS
 ERRORES DE REDONDEOS Y TRUNCAMIENTOS
 SERIE DE TAYLOR
 MÉTODOS DE BISECCION
 PUNTO FIJO
 MÉTODOS DE LA REGLA FALSA
 MÉTODOS DE NEWTON RAPHSON
 MÉTODOS DE SECANTE
 GAUSS JORDAN COM SUSTITUCION HACIA ATRAS
 GAUSS JORDAN
 PIVOTEO PARCIAL ESCALONADA
 MÉTODOS DE FACTORIZACIN LU
 FACTORIZACION CHOLESKY
 MÉTODOS DE CROUT
DOCENTE: VENEGAS VERGARA MARIA DEL PILAR

ALUMNO: RAMIREZ OCAMPO JUAN YONNATHAN


CÓDIGO: 160188
CUSCO – PERU
2018
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

INTRODUCCION

Las computadoras electrónicas se utilizan en la solución de problemas de


Ciencia, Ingeniería y Administración de Negocios entre otros. Este uso se
basa en su habilidad para trabajar a gran velocidad, para producir
resultados exactos, para almacenar grandes cantidades de información y
para llevar a cabo secuencias de operaciones largas y complejas.
Entonces, el estudiante de Ingeniería debe estar en capacidad de hacer uso
de ellas, aunque no sea el objetivo mismo de su formación, para tratar de
encontrar una solución rápida y adecuada frente a varias alternativas que
por su complejidad llevarían demasiado tiempo estudiarlas.
Siendo el objeto del Cálculo Numérico la construcción de soluciones
aproximadas en problemas matemáticos, el curso tiene un carácter más técnico
que puramente matemático. En la vida real, los cálculos de los métodos que
estudia el curso se realizan en un ordenador, por lo que estas técnicas de
programación debe tenerlas el alumno.

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

QUE SON LOS MÉTODOS NUMÉRICOS

Un método numérico es un procedimiento mediante el cual se obtiene, casi


siempre de manera aproximada, la solución de ciertos problemas realizando
cálculos puramente aritméticos y lógicos (operaciones aritméticas
elementales, cálculo de funciones, consulta de una tabla de valores,
cálculo preposicional, etc.). Un tal procedimiento consiste de una lista
finita de instrucciones precisas que especifican una secuencia de
operaciones algebraicas y lógicas (algoritmo), que producen o bien una
aproximación de la solución del problema (solución numérica) o bien un
mensaje. La eficiencia en el cálculo de dicha aproximación depende, en
parte, de la facilidad de implementación del algoritmo y de las
características especiales y limitaciones de los instrumentos de cálculo
(los computadores). En general, al emplear estos instrumentos de cálculo
se introducen errores llamados de redondeo.

ERRORES DE REDONDEOS Y TRUNCAMIENTOS


DEFINICION DE ERROR

Los errores numéricos surgen del uso de aproximaciones para


representar operaciones y cantidades matemáticas exactas. Éstas
incluyen los errores de truncamiento que resultan del empleo de
aproximaciones como un procedimiento matemático exacto, y los errores
de redondeo que se producen cuando se usan números que tienen un
límite de cifras significativas para representar números exactos.
Para ambos tipos de errores, la relación entre el resultado exacto,
o verdadero, y el aproximado está dada por

Valor verdadero = Valor aproximado + error………… (1)

Reordenando la ecuación (1) se encuentra que el error numérico es


igual a la diferencia entre el valor verdadero y el valor aproximado,
es decir

Et = valor verdadero – valor aproximado………… (2)

Donde Et se usa para denotar el valor exacto del error. El subíndice


t indica que se trata del error “verdadero” (true en inglés). Como ya
se mencionó brevemente, esto contrasta con los otros casos, donde se
debe emplear una estimación “aproximada” del error.
Error relativo fraccional verdadero = (valor verdadero)/ (valor verdadero)

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

Donde, como ya se mencionó en la ecuación (2),


Error = valor verdadero – valor aproximado.

El error relativo también se puede multiplicar por 100% para


expresarlo como error verdadero

𝜺t = (Error verdadero)/ (valor verdadero) 100%……………..(3)

Donde 𝜺t denota el error relativo porcentual verdadero.


ERRORES DE REDONDEOS
Los errores de redondeo se originan debido a que la computadora
emplea un número determinado de cifras significativas durante un
cálculo. Los números tales como 𝝅, 𝒆 o √𝟕 no pueden expresarse con
un número fijo de cifras significativas. Por lo tanto, no pueden ser
representados exactamente por la computadora.
Además, debido a que las computadoras usan una representación en base
2, no pueden representar exactamente algunos números en base 10. Esta
discrepancia por la omisión de cifras significativas se llama error
de redondeo.
ERRORES DE TRUNCAMIENTO
Los errores de truncamiento son aquellos que resultan al usar una
aproximación en lugar de un procedimiento matemático exacto.

LA SERIE DE TAYLER
La serie de Taylor, es de gran valor en el estudio de los métodos
numéricos. En esencia, la serie de Taylor proporciona un medio para
predecir el valor de una función en un punto en términos del valor
de la función y sus derivadas en otro punto. En particular, el teorema
establece que cualquier función suave puede aproximarse por un
polinomio.
Una buena manera de comprender la serie de Taylor consiste en
construirla término por término. Por ejemplo, el primer término de
la serie es:

f(𝒙𝒊 +1) ≅ f(𝒙𝒊 )………(1)


Esta relación, llamada la aproximación de orden cero, indica que el
valor de f en el nuevo punto es el mismo que su valor en el punto
anterior. Tal resultado tiene un sentido intuitivo, ya que si 𝒙𝒊 y
𝒙𝒊 +1 están muy próximas entre sí, entonces es muy probable que el
nuevo valor sea similar al anterior.

La ecuación (1) ofrece una estimación perfecta si la función que se


va a aproximar es, de hecho, una constante. Sin embargo, si la función
cambia en el intervalo, entonces se requieren los términos
adicionales de la serie de Taylor, para obtener una mejor
aproximación. Por ejemplo, la aproximación de primer orden se obtiene
sumando otro término para obtener:

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

Es frecuente el caso donde un conveniente punto de expansión es x = 0,


y la serie alrededor de este punto de expansión especial se le llama
también serie de Maclaurin. Hay muchas aplicaciones para expansiones
de funciones comunes alrededor de x = 0. Algunos ejemplos son:

La aproximación de un término en las series de funciones


trigonométricas tiene muchas aplicaciones como las "aproximaciones
de ángulos pequeños".
Buen comportamiento significa que tanto la función como sus derivadas
son continuas y están definidas en el intervalo de expansión alrededor
de x0.

EL MÉTODO DE BISECCIÓN

El método de bisección es uno de los más versátiles para determinar


una raíz real en un intervalo de una ecuación dada, es fácil de
comprender, aunque si se desea una mayor exactitud el número de
cálculos que hay que realizar aumenta considerablemente.

Una de sus ventajas es que funciona para ecuaciones algebraicas y


trascendentes, pero se recomienda utilizarlo después de un análisis
gráfico.

El Teorema de Bolzano establece las condiciones necesarias para la


existencia de al menos un cero de una continua. Teorema de Bolzano
Si f(x) es continua en el intervalo [a, b], con f(a) *f (b) <0, entonces
existe al menos un c∈] a, b [tal que f(c)=0

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

El método de bisección se basa en el Teorema de Bolzano, el cual afirma


que si se tiene una función real y=f(x)continua en
el intervalo ]a,b[ donde el signo de la función en el extremo a es
distinto al signo de la función en el extremo b del intervalo, entonces
existe al menos un c∈]a,b[ tal que f(c)=0, que es la raíz buscada, como
se muestra en la imagen construida En Winplot.

Suponga una ecuación f(x)=0

 Para determinar la raíz en el intervalo ]a, b [divida


el intervalo por la mitad, llame con m a ese punto donde m=a+b2.

 Considere los siguientes casos:


1. Si f(m)=0, entonces m es la raíz buscada
2. Si f(a) y f(m) tienen signos diferentes, entonces
la raíz buscada se encuentra en el intervalo ]a,m[
3. Si f(m) y f(b) tienen signos diferentes, entonces
la raíz buscada se encuentra en el intervalo]m,b[
4. Ahora, divida por la mitad el nuevo intervalo que contiene
la raíz y repita el procedimiento.
5. Al continuar con el proceso, determinamos que la raíz se
encuentra en un intervalo tan pequeño como se desee y,
entonces, se obtiene una aproximación de la raíz buscada.
6. Observe que se va obteniendo una secuencia
de intervalos cada vez más
pequeños ]a1,b1[,]a2,b2[,]a3,b3[,...,]an,bn[, tal
que f(an)∙f(bn)→0, entonces bn−an=12n(b−a).
7. Los puntos extremos a1, a2, a3,..., an forman una sucesión
creciente y acotada, mientras que los puntos
extremos b1,b2,b3,...,bn una sucesión decreciente y
acotada, con un límite común igual 𝜀 que es la raíz buscada.
8. El proceso puede ser continuado hasta lograr
que |bn−an|< ∈, para un valor ∈ establecido. Este
procedimiento brinda la precisión requerida para
la raíz buscada.
9. Para determinar el error mínimo esperado del método, haga
uso del siguiente teorema:

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

METODO DEL PUNTO FIJO

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

METODO DE LA REGLA FALSA

El método de la regla falsa, o “falsa posición”, es otro de los muchos


métodos iterativos para la resolución de problemas con ecuaciones no
lineales. La peculiaridad de éste, es que combina dos métodos: el
método de bisección y el de la secante (ya explicados en otros
artículos).
A continuación veremos una explicación de en qué consiste, y más
abajo, os pongo los pasos a desarrollar.

Se basa en trazar una recta que una los extremos de un intervalo


dado, considerando que la solución está cerca de uno de éstos
extremos.
Hemos agregado por tanto, esa línea recta que une el intervalo [a,b].
La idea principal es que si tomamos el punto donde la recta corta el
eje x, estaremos más cerca de hallar la raíz.
Entonces, supongamos que tenemos una función f(x), que es continua
en el intervalo [xa, xb], y que además f(xa) y f(ba) tienen signos
opuestos (RECORDATORIO: Teorema Bolzano) por lo que se deduce que
existe al menos una solución para esa ecuación.
Ahora, necesitamos saber la ecuación de la línea recta que une esos
dos puntos. Para ello nos ayudamos de la ecuación punto-pendiente,
por eso, hallamos la pendiente:

Ahora vamos a sustituir eso en la ecuación de la recta:

Pero recordamos que la recta en cuestión corta el eje x, así que


hacemos y=0:

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

Simplificamos multiplicando todo por xb-xa, para quitar el


denominador:

Como paso final, despejamos la incógnita x:

Vamos ahora a describir paso a paso cómo se desarrolla el método de


la regla falsa (considerando f(x) continúa):

1) Primero debemos encontrar unos valores iniciales xa y xb tales


que:

2) Aproximamos a la raíz, para ello usamos:

3) Evaluamos f(xr). Se pueden dar hasta tres casos:

A) Como f(xa) y f(xr) tienen signos opuestos, por la condición


mencionada anteriormente deducimos que, la raíz se encuentra en el
intervalo [xa, xr]

B) f(xa) y f(xr) tienen el mismo signo. Así que xb y xr han de tener


signos distintos, pues:

Por tanto, la raíz se encuentra en el intervalo [xr, xa].

Pista: Como consideramos que la ecuación tiene que ser continua (si
o si), al darse este caso, no cumpliría con la condición de
continuidad, al menos que tomemos como referencia un tercer punto
(xr) cuya imagen (f(xr)) será de signo opuesto.

C) En este caso, como f(xr)=0 ya tenemos localizada la raíz. Debemos


repetir estos 3 pasos señalados anteriormente hasta que: |Ea|<Eb

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

MÉTODO NEWTON RAPHSON

Este método es uno de los más utilizados para localizar raíces ya que
en general es muy eficiente y siempre converge para una función
polinomial.
Se requiere que las funciones sean diferenciables, y por tanto,
continuas, para poder aplicar este método.
Se debe partir de un valor inicial para la raíz: xi, este puede ser
cualquier valor, el método convergirá a la raíz más cercana.
Si se extiende una tangente desde el punto , el punto donde esta
tangente cruza al eje x representa una aproximación mejorada de la
raíz.

La fórmula de Newton-Raphson se deduce a partir de la fórmula de la


pendiente de una recta.
Pendiente de una recta:

Hay que determinar un número máximo de iteraciones

Normalmente esto se hace considerando una “tolerancia” , esto es:

El valor absoluto de la diferencia de la debe ser menor que la


tolerancia o el resultado de alguna fórmula de error debe ser menor
que la tolerancia dada. Una de las fórmulas de error más útiles es
la del error relativo porcentual
aproximado:

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

El método de Newton-Raphson es convergente cuadráticamente, es


decir, el error es aproximadamente al cuadrado del error anterior.
Esto significa que el número de cifras decimales correctos se duplica
aproximadamente en cada interacción.
Cuando el método de Newton-Raphson converge, se obtienen resultados
en relativamente pocas interacciones, ya que para raíces no repetidas
este método converge con orden 2 y el error Ei+1 es proporcional al
cuadrado del resultado anterior Ei
Supóngase que el error en una iteración es 10-n el error en la
siguiente, (que es proporcional al cuadrado del error anterior) es
entonces aproximadamente 10-2n, el que sigue será aproximadamente 10-
4n etc.
De esto puede afirmarse que de cada iteración duplica aproximadamente
el número de dígitos correctos.
Sin embargo el método de Newton-Raphson algunas veces no converge,
sino que oscila. Esto ocurre si no hay raíz real, si la raíz es un
punto de inflexión o si el valor inicial está muy alejado de la raíz
buscada y alguna otra parte de la función “atrapa” la iteración.

MÉTODO DE LA SECANTE

En análisis numérico el método de la secante es un método para


encontrar los ceros de una función de forma iterativa.
Es una variación del método de Newton-Raphson donde en vez de calcular
la derivada de la función en el punto de estudio, teniendo en mente
la definición de derivada, se aproxima la pendiente a la recta que
une la función evaluada en el punto de estudio y en el punto de la
iteración anterior. Este método es de especial interés cuando el
coste computacional de derivar la función de estudio y evaluarla es
demasiado elevado, por lo que el método de Newton no resulta
atractivo.
En otras palabras, el método de la secante es un algoritmo de la raíz
de investigación que utiliza una serie de raíces de las líneas secantes
para aproximar mejor la raíz de una función f. El método de la secante
se puede considerar como una aproximación en diferencias finitas del
método de Newton-Raphson. Sin embargo, este método fue desarrollado
independientemente de este último.

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

El método se basa en obtener la ecuación de la recta que pasa por


los puntos (xn−1, f(xn−1)) y (xn, f(xn)). A dicha recta se le llama
secante por cortar la gráfica de la función. En la imagen de arriba
a la derecha se toman los puntos iniciales x0 y x1, se construye una
línea por los puntos (x0, f(x0)) y (x1, f(x1)). En forma punto-
pendiente, esta línea tiene la ecuación mostrada anteriormente.
Posteriormente se escoge como siguiente elemento de la relación de
recurrencia, xn+1, la intersección de la recta secante con el eje de
abscisas obteniendo la fórmula, y un nuevo valor. Seguimos este
proceso, hasta llegar a un nivel suficientemente alto de precisión
(una diferencia lo suficientemente pequeñas entre xn y xn-1).

MÉTODO DE GAUSS-JORDAN.

Este método, que constituye una variación del método de eliminación


de Gauss, permite resolver hasta 15 o 20 ecuaciones simultáneas, con
8 o 10 dígitos significativos en las operaciones aritméticas de la
computadora. Este procedimiento se distingue del método Gaussiano en
que cuando se elimina una incógnita, se elimina de todas las
ecuaciones restantes, es decir, las que preceden a la ecuación pivote
así como de las que la siguen.

El método se ilustra mejor con un ejemplo. Resolvamos el siguiente


conjunto de ecuaciones

3.0 X1 - 0.1 X2 - 0.2 X3 = 7.8500


0.1 X1 + 7.0 X2 - 0.3 X3 = - 19.3
0.3 X1 - 0.2 X2 + 10 X3 = 71.4000

Primero expresemos los coeficientes y el vector de términos


independientes como una matriz aumentada.

Se normaliza el primer renglón dividiendo entre 3 para obtener:

El término X1 se puede eliminar del segundo renglón restando 0.1 veces


el primero del segundo renglón. De una manera similar, restando 0.3
veces el primero del tercer renglón se elimina el término con X1 del
tercer renglón.

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

En seguida, se normaliza el segundo renglón dividiendo entre 7.00333:

Reduciendo los términos en X2 de la primera y la tercera ecuación se


obtiene:

El tercer renglón se normaliza dividiéndolo entre 10.010:

Finalmente, los términos con X3 se pueden reducir de la primera y


segunda ecuación para obtener:

Nótese que no se necesita sustitución hacia atrás para obtener la


solución.

Las ventajas y desventajas de la eliminación gaussiana se aplican


también al método de Gauss-Jordan.

Aunque los métodos de Gauss-Jordan y de eliminación de Gauss pueden


parecer casi idénticos, el primero requiere aproximadamente 50% menos
operaciones. Por lo tanto, la eliminación gaussiana es el método
simple por excelencia en la obtención de soluciones exactas a las
ecuaciones lineales simultáneas. Una de las principales razones para
incluir el método de Gauss-Jordan, es la de proporcionar un método
directo para obtener la matriz inversa.

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

FACTORIZACIÓN LU

La factorización LU de una matriz es una factorización que resume el


proceso de eliminación gaussiana aplicado a la matriz y que es
conveniente en términos del número total de operaciones de punto
flotante cuando se desea calcular la inversa de una matriz o cuando
se resolverá una serie de sistemas de ecuaciones con una misma matriz
de coeficientes. En la lectura, primeramente consideraremos la
factorización LU sin intercambio basada en matrices elementales y
que es conocida como de Doolittle y posteriormente veremos el
algoritmo que da la factorización PA = LU.

Suponga que la matriz A es una matriz m × n se puede escribir como


el producto de dos matrices:
A = L U
Donde L es una matriz triangular inferior m × m y U es una matriz
escalonada m × n. Entonces para resolver el sistema: A x = b
Escribimos A x = (L U) x = L (U x).

Una posible estrategia de solución consiste en tomar y = U x


Y resolver para y:
L y = b.
Como la matriz L es triangular superior este sistema puede resolverse
mediante sustitución hacia abajo, lo cual se hace fácilmente en m2
FLOPS. Una vez con los valores encontrados de y, las incógnitas al
sistema inicial se resuelve despejando x de
U x = y.
Nuevamente, como U es escalonada, este sistema puede resolverse en
caso de tener solución mediante sustitución hacia atrás, lo cual es
sencillo. Estas observaciones nos dan la pauta para ver la
conveniencia de una factorización como la anterior, es decir
factorizar A como el producto de una matriz L triangular superior,
por Otra U la cual es escalonada. Esta factorización se llama
usualmente Descomposición LU.
Ejemplo
Use la factorización LU de A:

Para despejar x del sistema:

Solución Sea y = (y1, y2, y3) un nuevo vector de incógnitas. Primero


resolveremos el sistema triangular inferior

L y = b:

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

Este sistema escrito en su forma de ecuaciones queda:

Por eliminación directa de la:


Primera ecuación:
y1 = 11,
Segunda ecuación:
y2 = 70 − 5 y1 = 70 − 5 (11) = 15,
Y de la tercera:
y3 = 17 + 2y1 − 3 y2 = 17 + 2 (11) − 3 (15) = −6.
Ahora el sistema Ux = y:

El cual escrito en su forma de ecuaciones queda:


4 x1 − 2 x2 + x3 = 11
3 x2 + 7 x3 = 15
− 2 x3 = −6

El cual al ser resuelto por sustitución hacia atrás queda:


De la última ecuación: x3 = 3,
Segunda ecuación: x2 = 5 − 7/3 x3 = 5 − 7/3 (3) = −2,
Y de la primera: x1 = 11/4 + 1/2x2 − 1/4 x3 = 11/4 + 1/2 (−2) − 1/4
(−3) = 1

MÉTODO DE CHOLESKY
Se considera aquí un procedimiento de factorización desarrollado para
aquellos sistemas de ecuaciones en donde la matriz de coeficientes
es simétrica y definida positiva. Este tipo de matrices resulta muy
usuales en la solución de numerosos problemas de ingeniería mediante
técnicas numéricas como elementos finitos, y de allí la necesidad de
incluirlas de modo particular dentro del conjunto de procedimientos
de resolución considerados en este capítulo.

El método de Cholesky utiliza el preconocimiento de las


características mencionadas para realizas una descomposición más
eficaz que aquella llevada adelante por el método de Crout

En líneas generales, la secuencia paso a paso considerada por Cholesky


es similar a la contemplada por Crout con la significativa diferencia
que la matriz A es factorizada como A=L.LT , es decir, ahora solamente
los coeficientes de L son incógnitas ya que su traspuesta hace las
veces de matriz U en el proceso de descomposición

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

El menor de orden 1 se obtiene nuevamente de una forma muy simple:

A[1] = a11 = L[1].L[1]T = L112  L11 = a11½

La expresión de recurrencia puede obtenerse suponiendo ya


desarrollada la descomposición de orden k, A[k]= L[k].L[k]T, de la cual
puede obtenerse la descomposición para el menor de orden k+1:

Ak 1  Lk 1.LTk 1

 Ak  fk 1   Lk  0   LT l k 1 


    k   (3)
 fT a k 1.k 1   l Tk 1 l k 1.k 1   0 T l k 1.k 1 
 k 1    

Nótese que, por ser A una matriz simétrica, los vectores c[k+1] y f[k+1]
definidos en las ecuaciones (1) coinciden.
De (3) se obtienen las ecuaciones necesarias para la descomposición
del menor principal A[k+1]:

Lk .l k 1  fk 1

l k 1, k 1  ak 1, k 1  l Tk 1.l k 1


Debe notarse que el cálculo de l[k+1] indicado en la primera de las
ecuaciones anteriores implica una sustitución hacia adelante,
considerando las características de matriz triangular inferior de L.

EJEMPLO
Factorizar la matriz de coeficientes del siguiente sistema de
ecuaciones:

2 -1 0 x1 5
-1 2 -1 x2 = 0
0 -1 2 x3 0
La matriz A es simétrica y definida positiva.

a) Verificación del carácter de definida positiva


de A.
 A[1] = 2  |A[1]| >0

A[2] = 2 -1  |A[2]|=3 >0


-1 2

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

2 -1 0
A[3] = -1 2 -1  |A[3]|=4 >0
0 -1 2

c) Descomposición

 k=1

 A1 f2   2  1
L1  a11  2  1.414 A2   T 
f    1 0 2 
a21,2.414

  
 2  
L 2

 0.707 1.225 

 k=2
1
L1.l2  1  l2   0.707
1.414
 1.414 0  0  0 
L2.l3  f3   .l3     l3   
 0.707 1.225   1  0.816 
l2,2  a2,2  lT2.l2  2  (0.707 ) 2  1.225

 0 
l3,3  a3,3  lT3.l3  2  0  0.816 .   1.155
 0.816 

 2 1 0   1.414 0 0 
 A2 f3  
   1 2  1   0 
A3   T L3   0.707 1.225
f a3,3   0  1
 3   2   0  0.816 1.155
 

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

MÉTODO DE CROUT
En el apartado anterior se desarrollaron las bases del procedimiento propuesto por
Doolittle para la descomposición de sistemas de ecuaciones lineales
Ax=b , a partir de la factorización de la matriz de coeficientes de
la forma A = L.U. Básicamente, el procedimiento enmarcaba un
reordenamiento del algoritmo de Gauss, en donde la matriz U es
calculada a partir de técnicas de eliminación estándar y la matriz L
se obtenía también como subproducto de ese procedimiento.
El procedimiento de Crout parte de un enfoque conceptual diferente,
no obstante ello, es importante adelantar, que también puede
considerarse como una forma diferente de plantear el algoritmo de
Gauss y por ello resultan las mismas propiedades, entre ellas, el
mismo número de operaciones finales.

Como todo método de descomposición posee una ventaja comparativa


importante al momento de resolver sistemas de términos independientes
múltiples, en donde los mismos no son conocidos en forma simultánea,
como resulta característico de problemas iterativos o de evolución en
el tiempo.

En el método de Crout la matriz A es factorizada como A= L.U en donde


la matriz L es una matriz triangular inferior y U una matriz
triangular superior con diagonal unitaria. Puede advertirse ya aquí
una diferencia con el método de Doolittle, en el cual era la matriz
L quien poseía diagonal unitaria.

El método de Crout es un procedimiento del tipo recursivo, esto


significa el desarrollo de un conjunto de pasos sucesivos en donde
el trabajo a realizar en cada paso resulta similar o del mismo tipo
pero basado en resultados obtenidos en pasos anteriores. Estas
“tareas” a realizar en cada paso o “estación” consisten en la
descomposición sucesiva de los menores principales de la matriz de
coeficientes A.
Se denomina menor principal de A de orden m, denotado como A[m], a
una sub-matriz de A, de dimensión [mxm], y en donde sus coeficientes
son los ai,j , i=1..m; j=1..m.
Es decir:
A1  a1,1

 a1,1 a1,2 
A2  
 a 2,1 a 2,2 

 a1,1 a1,2 a1,3 


 
A3   a 2,1 a 2,2 a 2,3 
 a3,1 a3,2 a3,3 

etc....

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

De esta forma, puede escribirse:

en donde:
 Ak  ck 1 
Ak 1   T 
 f a k 1.k 1 
 k 1 

 a1, k 1   a k 1,1 
a  a 
 2, k 1   k 1,2 
ck 1   :  ; f k 1   : 
   
 :   : 
 a k , k 1  a k 1, k 
   

a partir de lo indicado, se establece la descomposición de A[k+1]


como:
Ak 1  Lk 1.U k 1

 Ak  ck 1   Lk  0  U uk 1 


    k   (1)
 fT a k 1.k 1   l Tk 1 l k 1.k 1   0 T 1 
 k 1   

en donde:

 u1, k 1   l k 1,1  0 
u  l  0 
 2, k 1   k 1,2   
uk 1   :  ; lk 1   :  ; 0  :
     
 :   :  :
u k , k 1  l k 1, k  0 
   

Finalmente, de (1):
Lk .u k 1  ck 1

(2)
U Tk .l k 1  fk 1

l k 1, k 1  a k 1, k 1  l Tk 1.u k 1


Es importante notar que en las ecuaciones anteriores tanto u[k+1]
como l[k+1] se obtienen mediante sustitución hacia adelante ya que
tanto L[k] como U[k]T son matrices triangulares inferiores.

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

Ejemplo (1): Supóngase el sistema de ecuaciones planteado como


ejemplo en el apartado donde se presentó el método de Doolittle. El
mismo venía expresado por:

3 -1 -2 x1 +7
A.x = b  1 7 -3 x2 = -19
3 -2 10 x3 +4

Se formularán a continuación cada uno de los pasos que conllevan a


la factorización de la matriz de coeficientes A en el producto L.U
utilizando el método de Crout.

 Paso 1: k=1
 L1 0  U 1 u2 
L[1] = A[1] = a11 = 3 L 2  l T l  ; U 2   0

1 
U[1] = u11 = 1  2 2,2  
 A1 c2  2  1
A2   T   
 f 2 a 2,2  1 7 
L1.u2  c2  3.u2  1  u2   1
3

U T1.l2  f 2  1.l2 1  l2  1

l 2,2  a 2,2  lT2.u2  7  1.( 1 )  7.33


3

3 0  1  0.33
L2    ; U 2  
1 7.33 0 1 

 Paso 2: k=2
3 0 0  1  0.33   3  1  2
 L2 0   0  0 u3   A2 c3   1 7  3
L3   T   1 7.33
; U 3  
1  ; A3   T  
l l3,3      
 3 3,3  3  2 10 
f a
 3   lT3 l3,3
 
0 0 1
  

MÉTODOS NUMÉRICOS
UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

Como puede verificarse fácilmente L.U. = A, excepto pequeños


errores de redondeo.

3 0    2  0.67 
L2.u3  c3  1 7.33 .u 3    3  u3   
     0.32 

 1 0 3 3
U T2.l3  f 3   0.33 1 l 3   2  l3   
     1

 0.67 
l3,3  a3,3  lT3.u3  10  3  1.   11.69
 0.32 

3 0 0  1  0.33  0.67 

L3  L  1 7.33 0  ; U 3  U  0 1  0.32
3  1 11.69 0 0 1 

MÉTODOS NUMÉRICOS

También podría gustarte