P. 1
Ecuaciones algebraicas lineales

Ecuaciones algebraicas lineales

|Views: 353|Likes:
Publicado porfredogodo

More info:

Published by: fredogodo on Jan 16, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PPT, PDF, TXT or read online from Scribd
See more
See less

06/01/2014

pdf

text

original

La Universidad del Zulia Facultad de Ingeniería División de Estudios para Graduados

Asignatura: Tópicos Especiales en Computación Numérica

3. Ecuaciones algebraicas lineales
‡ ‡ ‡ Eliminación de Gauss Descomposición LU e inversión de matrices Matrices especiales y método de Gauss-Siedel

Prof. Luis Zerpa, M.Sc.
Email: lzerpa@ica.luz.ve

Motivación
‡ En el tema anterior (Raíces de ecuaciones) se estudiaron métodos para determinar el valor de x que satisface a una sola ecuación, f(x) = 0 ‡ Ahora, nos ocuparemos del caso para determinar los valores de x1, x2,« xn que en forma simultánea satisfacen a un conjunto de ecuaciones algebraicas lineales

f 2

x1 , x2 ,...xn ! 0 f 3

xn ! 0 f1 ....x1 . x2 .

xn ! 0 . x2 ..x1 ...

 a2 n xn ! b2 an1 x1  an 2 x2  . a11 x1  a12 x2  . a3n xn ! bn a: coeficientes constantes b: constantes n: No.Motivación ‡ Estudiaremos métodos para resolver conjuntos de ecuaciones algebraicas lineales que son de la forma general. de ecuaciones . a1n xn ! b1 a21 x1  a22 x2  .

Método gráfico ± Para n = 3 cada ecuación representa un plano.Métodos empleados antes de la era de las computadoras ‡ Para pocas ecuaciones (n ” 3). las ecuaciones lineales se pueden resolver con rapidez mediante técnicas simples ± Para n = 2 la solución corresponde a la intersección de líneas rectas 1. La solución corresponde al punto donde se intersectan los 3 planos ± Para n > 3 los métodos gráficos no funcionan Caso que pueden ocasionar problemas Líneas paralelas que jamás se cruzan Dos líneas coinciden Número infinito de soluciones Sistemas singulares Sistemas cercanos a situación singular (mal condicionados) Sensibles a errores de redondeo .

Determinantes y Regla de Cramer ‡ Determinante de una matriz de coeficientes 2v2 D! a11 a21 a12 a22 ! a11a22  a12 a21 ‡ Determinante de una matriz de coeficientes 3v3 a11 D ! a21 a32 a12 a22 a32 a13 a a23 ! a11 22 a32 a33 a23 a  a12 21 a33 a31 a23 a a22  a13 21 a33 a31 a32 .Métodos empleados antes de la era de las computadoras 2.

Métodos empleados antes de la era de las computadoras 3x1  2 x2 ! 18  x1  2 x2 ! 2 3 2 ! 3 * 2  2 * .

5 1 ! 0.5 1  0.5 *1  1* . 1 ! 8 1 2 1 x1  x2 ! 1 2 1 1  x1  x2 ! 2 2  D!  0.

5 1 ! 0.5 ! 0 D! 1  x1  x2 ! 1 2  x1  2 x2 ! 2 D!  0. 0.5 * 2  1* .

! 0 1 1 2 D! 2.3 1 ª 5 º 5 ‡ los sistemas singulares tienen determinante igual a cero ‡ Los sistemas mal condicionados (casi singulares) tienen determinante cercano a cero .5 *1  1* ©  ¹ ! 0.3 x1  x2 ! 1.5 1 ¨ 2.3 ¸ ! 0.04  2.1 5 1  x1  x2 ! 1 2   0.

Métodos empleados antes de la era de las computadoras Regla de Cramer ‡ Cada incógnita en un sistema de ecuaciones algebraicas lineales puede ser expresada como una fracción de dos determinantes ‡ El denominador es el determinante de la matriz de coeficientes ‡ El numerador es el determinante de una matriz en la cual se reemplaza la columna de coeficientes de la incógnita por el vector de constantes {B} b1 b2 b3 a12 a22 a32 D a13 a23 a33 x1 ! ‡ Para 3 ecuaciones resulta práctica ‡ Para n > 3 no es muy eficiente porque la evaluación de determinantes consume tiempo .

Ecuaciones algebraicas lineales y práctica de la ingeniería ‡ Muchas de las ecuaciones fundamentales de ingeniería están basadas en leyes de conservación En términos matemáticos. esos principios conducen a ecuaciones de balance que relacionan el comportamiento del sistema con las propiedades o características y los estímulos externos que actúan sobre el sistema En el capítulo anterior se trabajó con sistemas de un solo componente que resultaba en una sola ecuación que se resolvía con métodos de cálculo de raíces Los sistemas multicomponentes resultan en un conjunto agrupado de ecuaciones matemáticas que deben ser resueltas simultáneamente ‡ ‡ ‡ .

Ecuaciones algebraicas lineales y práctica de la ingeniería ‡ ‡ Problemas multicomponentes surgen tanto de modelos matemáticos de variables agrupadas como de variables distribuidas Los problemas de variables agrupadas involucran componentes finitos acoplados ± Armaduras ± Reactores ± Circuitos eléctricos ‡ ‡ ‡ Los problemas de variables distribuidas intentan describir detalles espaciales de los sistemas sobre una base continua Las ecuaciones diferenciales derivadas a partir de leyes de conservación especifican la distribución de la variable dependiente para tales sistemas Esas ecuaciones se pueden resolver numéricamente al convertirlas en un sistema equivalente de ecuaciones algebraicas simultáneas .

las ecuaciones algebraicas lineales simultáneas surgen también en diferentes contextos de problemas matemáticos ‡ Algunas técnicas numéricas de uso general que emplean ecuaciones simultáneas son el análisis de regresión y la interpolación segmentaria .Ecuaciones algebraicas lineales y práctica de la ingeniería ‡ Además de los problemas físicos.

de variables = No. de columnas Debe ser igual para que una solución única sea posible . de filas ± No.Antecedentes matemáticos necesarios ‡ Notación matricial « a11 ¬a A ! ¬ 21 ¬ / ¬ ­ an1 a12 / an 2 a1n » a2 n ¼ ¼ /¼ ¼ ann ½ Filas Columnas a22 - ‡ En la solución de ecuaciones algebraicas lineales ± No. de ecuaciones = No.

Antecedentes matemáticos necesarios Operaciones de matrices ‡ Suma C ! A B cij ! aij  bij ‡ Multiplicación de una matriz por un escalar: se multiplica cada elemento de la matriz por el escalar ‡ Multiplicación de dos matrices C ! Av B cij ! § aik  bkj k !1 n a11 Es imposible multiplicar dos matrices si el número de columnas de la primera no es igual al número de filas de la segunda «3 1 » ¬8 6 ¼ v « 5 9 » ¬ ¼ ¬ 7 2¼ ½ ¬0 4 ¼ ­ ­ ½ .

si una matriz A es cuadrada y no singular.Antecedentes matemáticos necesarios Operaciones de matrices ‡ División: la división de una matriz no es una operación definida sin embargo. existe otra matriz A-1. llamada inversa de A para la cual AvA-1 = A-1vA=I ‡ Transpuesta de una matriz: consiste en transformar sus filas en columnas y viceversa ‡ Traza de una matriz: es la suma de los elementos de su diagonal principal n tr ?AA! § aii i !1 .

Representación de ecuaciones algebraicas lineales en forma matricial ?AA_X a! _Ba « a11 a12 ¬a ¬ 21 a22 ¬a31 a32 ­ b x a13 » ®1 ¾ ®1 ¾ ± ± ±± a23 ¼ ¯ x2 ¿ ! ¯b2 ¿ ¼ b x a33 ¼ ±3 ± ±3 ± ½° À ° À ‡ Una manera formal para obtener la solución usando algebra matricial es multiplicando cada lado de la ecuación por la inversa de A ?AA ?AA_X a! ?AA _Ba Como ?AA ?AA! I 1 1 1   _X a! ?AA1_Ba ‡ No resulta muy eficiente por la obtención de la inversa de la matriz ‡ Es necesario métodos numéricos .

Permite hacer eficiente el cálculo de la matriz inversa Técnicas eficientes para la solución de sistemas tridiagonales (matrices en banda) Método de Gauss-Seidel método iterativo 3.Métodos numéricos para la solución de ecuaciones algebraicas lineales 1. 4. . Eliminación de Gauss Descomposición LU valiosa para casos donde se necesita evaluar muchos vectores del lado derecho. 2.

Eliminación de Gauss
‡ Este método involucra una combinación de ecuaciones para eliminar las incógnitas Es uno de los métodos más antiguos y sigue siendo uno de los algoritmos de mayor importancia

‡

Eliminación de Gauss
Eliminación de incógnitas ‡ La estrategia básica es multiplicar las ecuaciones por constantes, de tal forma que se elimine una de las incógnitas cuando se combinen las ecuaciones El resultado es una sola ecuación que se puede resolver para la incógnita restante Este valor se sustituye en las ecuaciones originales para calcular la otra variable Este método representa la base para la eliminación de Gauss Se puede extender a grandes sistemas de ecuaciones desarrollando un esquema sistemático para eliminar incógnitas y sustituir hacia atrás

‡ ‡ ‡ ‡

Eliminación de Gauss
Eliminación de Gauss simple 1. Eliminación de incógnitas
± ± Reduce el conjunto de ecuaciones a un sistema triangular superior Primero se elimina la primera incógnita, x1, desde la segunda hasta la n-enésima fila, multiplicando por a21/a11 a la primera ecuación, luego restando ésta a la segunda El procedimiento es repetido para las ecuaciones restantes Para este paso la ecuación 1 es la ecuación pivote y a11 es el coeficiente pivote

el método consiste en dos fases

± ±

2.

Solución por sustitución hacia atrás
± Al finalizar la eliminación, la ecuación n puede resolverse para xn

b xn ! n

n 1 ann Para evaluar las x restantes .

n 1 bi xi ! .

n 1  a j ! i 1 .

n 1 ii §a n .

n 1 ij xj .

j * xj END DO xi = (bi .j .k DO j = k+1. 1.k/ak. n sum = sum + ai. n-1 DO i = k+1.factor * ak.j = ai.j END DO bi = bi -factor * bk END DO END DO xn =bn / an.Eliminación de Gauss Seudo código DO k = 1.i END DO . n ai.sum) / ai. -1 sum = 0 DO j = i+1. n Factor = ai.n DO i = n-1.

2933 B ={7.5617 70.2933 B ={7.2000 0 0 7.3 -0.8500 -19.3 0.8500 -19.5617 71.4].0000] 0 -0.5000 7.1 -0.6150} 0.0843} Sustitución X ={3.0000} .0000 -0.0120] B ={7. B = [7.1000 -0.0000 -2.2000 0 7.0033 -0.0033 -0.1000 -0.1000 -0.5617 70.85 -19.3000 -0.1 7 -0.4000} A =[3.8500 -19.2000 10.2 0.Eliminación de Gauss ‡ Ejemplo A = [3 -0.0200] A =[3.0000 -0.2000 0 7. ± Eliminación A =[ 3.2933 0 10.1900 10.2 10].0000 -0.3 71.0033 -0.

250 3.300 3.Eliminación de Gauss ‡ Número de operaciones de punto flotante para Gauss simple n 10 100 1000 Eliminación 375 338.21% 98.34E+08 Sustitución 55 5.500 total 430 343.34E+08 % debido a eliminación 87. Por lo que se hace necesario hacer más eficiente el procedimiento .050 500.85% ‡ Para un sistema que se hace cada vez más grande. el tiempo de cálculo se incrementa considerablemente ‡ La mayor parte del esfuerzo ocurre en el paso de la eliminación.53% 99.

Desventajas del método de eliminación de Gauss 1. División entre cero ± Durante las fases de eliminación y sustitución es posible que ocurra división entre cero 2 x2  3x3 ! 8 4 x1  6 x2  7 x3 ! 3 2 x1  x2  6 x3 ! 5 ‡ ‡ La normalización de la primera fila involucra una división entre cero. a11 = 0 También se pueden presentar problemas cuando el coeficiente es muy cercano a cero Para evitar estos problemas se utiliza una técnica de pivoteo .

pueden ocurrir errores de redondeo y se deben considerar al evaluar los resultados ± Estos errores pueden ser importantes para sistemas con un gran número de ecuaciones ± Debido a que cada resultado depende del anterior. el error de los primeros pasos tiende a propagarse ± Una regla general es la de suponer que los errores de redondeo son importantes cuando n • 100 ± Siempre se debe sustituir los resultados en las ecuaciones originales y verificar si ha ocurrido un error sustancial . Errores de redondeo ± Debido a que las computadoras manejan sólo un número limitado de cifras significativas.Desventajas del método de eliminación de Gauss 2.

Sistemas mal condicionados ± Sistemas bien condicionados son aquellos en los que un pequeño cambio en uno o más coeficientes provoca un pequeño cambio en la solución ± Sistemas mal condicionados son aquellos en donde pequeños cambios en los coeficientes generan grandes cambios en la solución ‡ Es decir un amplio rango de soluciones puede satisfacer las ecuaciones en forma aproximada ± Los errores de redondeo pueden inducir pequeños cambios en los coeficientes. si el sistema está mal condicionado estos cambios artificiales pueden generar grandes errores en la solución .Desventajas del método de eliminación de Gauss 3.

1x1  2 x2 ! 10.1 a 1.4 x2 ! 3 f(x ) 2 1 0 0 x1  2 x2 ! 10 x1 ! 4 3 Cambiando a21 de 1. Sistemas mal condicionados ± Ejemplo Solución 5 x + 2*y = 10 1.1* 8  2 ! 10.Desventajas del método de eliminación de Gauss 26/5-11/20 x 3.4 4 1.1*x + 2*y = 1 0.8 La solución es aproximada .05 Solución x1 ! 8 x2 ! 1 1 2 3 4 5 x 6 7 8 9 10 sustituyendo en las ecuaciones originales 8  2 ! 10 1.

Sistemas mal condicionados ± Esta situación se puede caracterizar de forma matemática.Desventajas del método de eliminación de Gauss 3. las pendientes son idénticas. y el sistema no tiene solución o hay un número infinito de soluciones . escribiendo las ecuaciones en su forma general a11 x1  a12 x2 ! b1 a21 x1  a22 x2 ! b2 ± Arreglando las ecuaciones en un formato de líneas rectas a11 b x1  1 a12 a12 a b x2 !  21 x1  2 a22 a22 x2 !  ± Si las pendientes son casi iguales a11 a21 $   a11a22 $ a12 a21   a11a22  a12 a21 $ 0 a12 a22 Un sistema mal condicionado es aquel en el cual su determinante es cercano a cero Si el determinante es exactamente cero.

al descubrir uno se puede terminar inmediatamente y generar una excepción o mensaje de error . Sistemas singulares ± Son aquellos donde dos o más ecuaciones son iguales ± En el caso donde dos ecuaciones son iguales se pierde un grado de libertad siendo imposible resolver el problema de n-1 ecuaciones con n incógnitas ± Tales casos podrían no ser obvios cuando se trabaja con grandes conjuntos de ecuaciones ± Se hace necesario tener una forma que de manera automática detecte la singularidad del sistema ± Esto se logra debido al hecho de que el determinante de un sistema singular es cero ± Durante el proceso de eliminación se chequea si un elemento de la diagonal es cero.Desventajas del método de eliminación de Gauss 4.

porque su magnitud puede ser muy pequeña al compararla con la de los demás coeficientes ± Para evitar esto se utiliza el pivoteo parcial .Técnicas para mejorar las soluciones del método de eliminación de Gauss 1. Uso de más cifras significativas ± La solución más simple para el mal condicionamiento es usar más cifras significativas en los cálculos ± El uso de la precisión expandida tiene un precio que se eleva en forma de tiempo de cálculo y cantidad de memoria 2. Pivoteo ± Ocurren problemas de división por cero cuando el coeficiente pivote es cero ± Cuando el coeficiente pivote es cercano a cero se pueden introducir errores de redondeo.

se determina el mayor coeficiente pivote disponible en la columna que está por debajo del elemento pivote Las filas se intercambian de manera tal que el coeficiente más grande sea el pivote ‡ Ventajas del pivoteo parcial ‡ ‡ Evita la división entre cero Minimiza el error de redondeo .Técnicas para mejorar las soluciones del método de eliminación de Gauss Pivoteo parcial ‡ Antes de normalizar cada fila.

0000 x2 ! 1.0001 a11 es cercano a cero 1 .0003x1  3.0000 x2 ! 2.Técnicas para mejorar las soluciones del método de eliminación de Gauss Pivoteo parcial ‡ Ejemplo Problema original 0.0001 1.0000 0.0000 Con pivoteo 1.0000 x2 ! 2.0003x1  3.0000 x1  1.0000 x2 ! 1.0000 x1  1.

0000 x2 ! 2.0003 .0001 0.0000 x2 ! 6667 0.0003x1  3.0003 x1  10.0.

3333334 3 1  9999 x2 ! 6666 Restando a la 2da ecuación Se restan dos números casi iguales ¨2¸ 2.9997 x2 ! 1. x1 ! 3 0.0003 Restando a la 2da ecuación 2.9998 ¨2¸ 1 © ¹ 2 3 x2 ! . x1 ! ª º ! 0.x1  x2 ! 1 1 0.0001  3© ¹ 2 ª 3 º ! 0.0003 x2 ! 0.3333886 x2 ! .0003 .0003x1  0.

n dummy = ap.jj ap.Seudo código para implementar el pivoteo parcial ‡ Se puede usar como una subrutina que podría ser llamada directamente después del inicio del primer ciclo de eliminación Aquí se intercambian de forma física las filas. k) p = k big = abs(ak.k) DO ii = k+1. n. y según este orden se llevan a cabo las operaciones de eliminación y sustitución SUB pivot(a.jj = ak.jj = dummy END DO dummy = bp bp = bk bk = dummy END IF ‡ ‡ .k) IF (dummy > big) big = dummy p = ii END IF END DO IF (p k) DO jj = k. Para grandes matrices esto puede consumir mucho tiempo Lo que se hace es no intercambiar las filas sino que se guarda el orden de los pivotes en un vector. b. n dummy = abs(aii.jj ak.

x2 ! 1 x1 ! 1. se pivotea pero se retienen los coeficientes originales de la ecuación escalada ‡ El escalamiento se usa para calcular los valores escalados de los coeficientes que servirán como un criterio de pivoteo Ejemplo Problema original 2 x1  100000 x2 ! 100000 x1  x2 ! 2 Escalando y pivoteando 0. x2 ! 1 .Técnicas para mejorar las soluciones del método de eliminación de Gauss Escalamiento ‡ El escalamiento revela si el pivoteo es necesario ‡ Si es necesario. x2 ! 0 x1 ! 1.00002 x1  1x2 ! 1 x1  x2 ! 2 Escalamiento como criterio de pivoteo Manteniendo coeficientes originales x1  x2 ! 2 2 x1  100000 x2 ! 100000 x1 ! 1.

que consume tiempo. es muy adecuado para aquellas situaciones donde se debe evaluar muchos vectores {B} ‡ El método de eliminación de Gauss puede implementarse como una descomposición LU ‡ La descomposición LU proporciona un medio eficaz para calcular la matriz inversa.Descomposición LU e Inversión de matrices Descomposición LU ‡ El principal atractivo de este método es que el paso de eliminación. se puede reformular de tal manera que involucre sólo operaciones sobre los elementos de la matriz de coeficientes. la cual a su vez permite evaluar la condición de un sistema . A ‡ De esta forma.

‡ Ahora.Descomposición LU ‡ Partiendo de un sistema de ecuaciones lineales de la forma. suponga que existe una matriz triangular inferior con números 1 sobre la diagonal ?AA_X a! _Ba Este se puede ordenar como. ?AA_X a _Ba! 0 El primer paso de la eliminación de Gauss resulta en un sistema con una matriz triángular superior «1 0 ?LA! ¬l21 1 ¬ ¬l31 l32 ­ 0» 0¼ ¼ 1¼ ½ que tiene la siguiente propiedad ?LA?U A_X a _Da ! ?AA_X a _Ba .

«u11 u12 ¬0 u 22 ¬ ¬0 0 ­ u13 » ®1 ¾ ® 1 ¾ x d ± ± ± ± u 23 ¼ ¯ x2 ¿ ! ¯d 2 ¿ ¼ u33 ¼ ±3 ± ± 3 ± x d ½° À ° À Que puede ser expresada como. si esta propiedad se cumple. de las reglas de multiplicación de matrices se obtiene. ?U A_X a! _Da ?U A_X a _Da! 0 ?LA?U A! ?AA ?LA_Da! _Ba .

Descomposición LU Estrategia para resolver el sistema 1. se factoriza o descompone en matrices triangulares inferior [L] y superior [U] 2. Paso de sustitución: [L] y [U] se usan par determinar una solución {X} para un vector {B}. debido a que [L] es una matriz triangular inferior ± Se determina {X} resolviendo [U]{X}={D} por sustitución hacia atrás . Este paso consta de dos subpasos: ± Se determina el vector intermedio {D} resolviendo [L]{D}={B} por sustitución hacia delante. Paso de descomposición LU: la matriz [A].

Descomposición LU Descomposición LU con base en la eliminación de Gauss ‡ Partiendo de una matriz de coeficientes. se llega a una matriz triangular superior « a11 ¬a ¬ 21 ¬ a31 ­ a12 a22 a32 a13 » a23 ¼ ¼ a33 ¼ ½ «a11 ?U A! ¬ 0 ¬ ¬0 ­ a13 » a22 ' a23 ' ¼ ¼ 0 a33 ' '¼ ½ a12 ‡ Para llegar a esta matriz [U] La matriz triangular inferior que tiene la propiedad requerida para la descomposición LU es «1 ?LA! ¬ f 21 ¬ ¬ f 31 ­ 0 1 f 32 0» 0¼ ¼ 1¼ ½ ± se multiplicó la fila 1 por el factor f21 = a21/a11 y restando el resultado a la fila 2 se eliminó a21 ± se multiplicó la fila 1 por el factor f31 = a31/a11 y restando el resultado a la fila 3 se eliminó a31 ± se multiplicó la fila 2 por el factor f32 = a32¶/a22¶ y restando el resultado a la fila 3 se eliminó a32¶ .

d i ! bi  § lij b j j !1 i 1 para i ! 2. n  1.1 ... se factoriza o descompone en matrices triangulares inferior [L] y superior [U] 2. Paso de descomposición LU: la matriz [A].. unn di  xi ! j !i 1 §u d ij n j uii para i ! n  1.. Paso de sustitución: [L] y [U] se usan par determinar una solución {X} para un vector {B}. n ± Se determina {X} resolviendo [U]{X}={D} por sustitución hacia atrás d xn ! n . Este paso consta de dos subpasos: ± Se determina el vector intermedio {D} resolviendo [L]{D}={B} por sustitución hacia delante d1 ! b1 .Descomposición LU Descomposición LU con base en la eliminación de Gauss 1.

b. n.Seudo código para descomposición LU SUB Ludecomp(a. x) END IF END Ludecomp . o. b. n. tol. n. er) IF er <> -1 THEN CALL Substitute(a. tol. s. x. o. er) DIM on. sn er = 0 CALL Decompose(a.

k/ao(k). tol. er) DO i = 1.Seudo código para descomposición LU SUB Decompose(a.j = ao(i).j .n ao(i).n IF ABS(ai. s.n oi = i si = ABS(ai.k/so(k) EXIT DO END IF DO i = k+1.factor*a END DO END DO END DO IF ABS(ao(k).n-1 CALL Pivot(a.k ao(i).j)> si THEN si = ABS(ai. k) IF ABS(ao(k). n.k = factor DO j = k+1. s.k/so(k))< tol THEN er = -1 PRINT ao(k).n factor = ao(i).k/so(k) END IF END Decompose . o.k/so(k)) < tol THEN er = -1 PRINT ao(k).j) END DO END DO DO k = 1. o. n.1) DO j = 2.

o.-1 sum = 0 DO j = i+1. b. o.n DO i = n-1.k/so(k)) DO ii = k+1.sum)/ao(i).k/so(ii)) IF dummy > big THEN big = dummy p = ii END IF END DO dummy = op op = ok ok = dummy END Pivot SUB Substitute(a. s. k) p = k big = ABS(ao(k). n.ao(i).n dummy = ABS(ao(ii).i END DO END Substitute .j*bo(j) END DO bo(i) = sum END DO xn = bo(n)/ao(n).j*xj END DO xi =(bo(i) .1.Seudo código para descomposición LU SUB Pivot(a. x) DO i = 2.i-1 sum = sum . n.n sum = sum + ao(i).n sum = bo(i) DO 1.

Matriz inversa ‡ Para una matriz cuadrada [A]. para determinar la primera columna de la matriz inversa se resuelve el sistema con el vector de constantes B=[1 0 0]T para determinar la segunda columna se usa B=[0 1 0]T y así sucesivamente . para la cual se cumple. [A] [A]-1 = [A]-1[A] = I ‡ La matriz inversa se puede calcular en una forma de columna por columna a partir de vectores unitarios como vector de constantes del sistema de ecuaciones lineales algebraicas ‡ Por ejemplo. hay otra matriz [A]-1 conocida como la inversa de [A].

2933 0.0049] InvA(3) = [0. ya que una vez obtenida la descomposición LU de la matriz A se puede calcular su inversa resolviendo cada columna con los vectores unitarios como constantes ‡ Ejemplo: Determinar la inversa de 1.0999] .0101] [0.2 0.Matriz inversa ‡ La descomposición LU representa la mejor forma para implementar el cálculo de la matriz inversa.0120] B1 = [1] [0] [0] B2 = [0] [1] [0] B3 = [0] [0] [1] A = [3 -0.0271 10.0333 7.1 -0.1 -0.3325] InvA(2) = [0.2 10] 2. InvA(1) = [0.0068] [-0.0042] [0.1 -0.2 0.0027] [0.0052] [-0.3 0.1429] [0. Sustitución.3 -0. Descomposición LU de la matriz A LU(A) = [ 3 -0.0033 -0.1 7 -0.

Escalar la matriz de coeficientes [A]. Si no es así. para esto existen 3 métodos: 1. Si no es así. indica que el sistema está mal condicionado 3. indica que el sistema está mal condicionado . Si al invertir la matriz escalada existen elementos de la inversa [A]-1 que sean varios ordenes de magnitud mayores que la unidad. de tal manera que el elemento más grande en cada fila sea 1. es probable que el sistema esté mal condicionado 2.Análisis de error y condición del sistema ‡ La matriz inversa permite determinar si un sistema está mal condicionado. Invertir la matriz inversa y verificar que el resultado está lo suficientemente cercano a la matriz original. Multiplicar la inversa por la matriz de coeficientes original y verificar que [A][A]-1 $ I.

Número de condición de una matriz cond ?AA! A ™ A1 ‡ ‡ ‡ Este número mide la sensibilidad de la solución de un sistema de ecuaciones lineales a errores en los datos Valores cercanos a 1 indican que el sistema está bien condicionado Valores grandes indican que la matriz es casi singular .

Para vector xe ! Norma columna-suma § xi i !1 n n n 2 A g ! max § aij 1e j e n i !1 n .Para matriz A e ! §§ a i !1 j !1 2 Norma infinita / matriz uniforme / fila-suma A g ! max § aij 1ei e n j !1 n i. j Norma de Frobenius Norma 2. o normal espectral A 2 ! .Número de condición de una matriz Norma Euclidiana .

por lo tanto proporciona la medida de tamaño más ajustada .Q max 1/ 2 Qmax es el eigenvalor más grande de [A]T[A]. Esta es la la norma mínima.

con excepción de una banda centrada sobre la diagonal principal Las dimensiones de un sistema de banda se pueden cuantificar con dos parámetros: ‡ ‡ Ancho de banda. BW Ancho de media banda. HBW HBW+1 HBW BW Estos se relacionan por BW = 2HBW + 1 En general un sistema de banda es aquel para el cual aij = 0 si |i ± j| > HBW .Matrices especiales ‡ Matrices banda ‡ Matrices simétricas ‡ Una matriz banda es una matriz cuadrada en la que todos sus elementos son cero.

porque se utilizaría tiempo y espacio innecesario en el almacenamiento y manejo de ceros ‡ Si se sabe de antemano que el pivoteo es innecesario.Matrices especiales ‡ La eliminación de Gauss o la descomposición LU pueden emplearse para resolver sistemas de banda. pero si el pivoteo no es necesario resultan ineficientes. se pueden desarrollar algoritmos muy eficientes que no involucren los elementos cero fuera de la banda .

f. g ± b r para evitar guardar ceros.Sistemas tridiagonales ‡ Un sistema tridiagonal (ancho de banda = 3) se puede expresar como « f1 ¬e ¬ 2 ¬ ¬ ¬ ¬ ­ g1 f2 e3 g2 f3 en 1 » ®x1 ¾ ®r1 ¾ ¼ ±x ± ± ± r ¼± 2 ± ± 2 ± ± ± ± ± ¼ ¯ x3 ¿ ! ¯ r3 ¿ ¼ g n 1 ¼ ±n 1 ± ±n 1 ± x r ± ± ± ± f n ¼ ±xn ± ± n ± r ½° À ° À g3 f n 1 en ‡ Se cambia la notación ± a e. ahorrando espacio .

5 -5 1.5 0 0 0 0 0 0 0 2.5 0 0 0 0 0 0 0 2.5 0 0 0 0 0 0 0 2.5 1.5 -5 1.5 -5 1.5 0 0 0 0 0 0 0 2.5] A = [-5 1.5 2.5 0 0 0 0 0 0 0 2.5 -5] f = [ -5 -5 -5 -5 -5 -5 -5 -5 -5] g = [ 1.5 1.5 2.5 1.5 1.5 2.5 2.5 2.5 -5 1.5 -5 1.5 0 0 0 0 0 0 0 2.5 0 0 0 0 0 0 0 2.5 1.5 0 0 0 0 0 0 0 2.5 -5 1.5 1.5000 -4 -6 -8 -10 -12 -14 -16 -30] e = [0 2.Sistemas tridiagonales ‡ Ejemplo B = [14.5 2.5 0] .5 1.5 -5 1.5 2.

Sustitución hacia delante 3. Descomposición 2. Sustitución hacia atrás ‡ Manteniendo todas las ventajas de la descomposición LU . tridiagonal matrix algorithm) ‡ El algoritmo consiste en tres pasos: 1.Algoritmo de Thomas (TDMA.

n ek = ek/fk-1 fk = fk .-1 xk = (rk .ek*rk-1 END DO c) Sustitución hacia atrás xn = rn/fn DO k = n-1.1.gk*xk+1)/fk END DO .ek*gk-1 END DO b) Sustitución hacia adelante DO k = 2.n rk = rk .Seudo código para algoritmo de Thomas a) Descomposición DO k = 2.

Descomposición de Cholesky ‡ La descomposición o factorización de Cholesky expresa una matriz simétrica como el producto de una matriz triangular y su transpuesta A = L·LT L: matriz triangular inferior ‡ No todas las matrices simétricas se pueden factorizar de esta forma ‡ Las matrices que tienen este tipo de factorización son las matrices simétricas definidas positivas. Esto implica que todos los elementos de la diagonal sean positivos y que los elementos fuera de la diagonal no sean muy grandes .

. 2 para i !1.1 lkk ! akk  § lkj . . El resultado se puede expresar en forma simple por relaciones recurrentes ‡ Para la fila k lki ! aki  § lij lkj j !1 i 1 lii k 1 j !1 . k .2.Descomposición de Cholesky ‡ Los términos de la descomposición se pueden multiplicar entre si.

4 ± À ° Para k = 1 Para k = 2 Para k = 3 l11 ! a11 ! 6 ! 2.Descomposición de Cholesky ‡ Ejemplo.3 ¿ ±71.4495 l21 ! 15 a21 2 2 l22 ! a22  l21 ! 55  .85¾ ± ± B ! ¯  19. « 6 15 55 » A ! ¬15 55 225¼ ¬ ¼ ¬55 225 979¼ ­ ½  ® 7.

1964 ¾ ± ± X ! ¯ 28.3049¿ ± .4495 L ! ¬6.454 20.1237 ! 4.6.2154¿ ± 5.1106¼ ­ ½ Sustitución hacia adelante Sustitución hacia atrás ®3.916 ! 22.2047 ¾ ± ± D ! ¯ 9.1833 0 ¼ ¬ ¼ ¬22.1237 l11 2.4495 a l l a31 l32 ! 32 21 31 ! 20.454 l31 ! l22 l11 2 2 l33 ! a33  l31  l32 ! 6.1982 ± ° À .916 6.1237 4.7616 ± 31 ° À ®24.1106 0 0 » «2.1833 ! ! 6.

for j = 1:k-1 sum = sum + A(k.k) = sqrt(A(k.i). for j = 1:i-1 sum = sum + A(i.j)*A(k.k) .j)^2.i) . end sum = 0. end . end A(k.i) = (A(k.sum)/A(i.sum). end A(k.j).Seudo código para la descomposición de Cholesky for k = 1:n for i = 1:k-1 sum = 0.

Método de Gauss-Seidel ‡ Este es un método iterativo ‡ Dado un conjunto de ecuaciones. AX = B ‡ Si los elementos de la diagonal son diferentes de cero. se puede resolver la ecuación i para la variable i. donde i = 1«n ¨ ¸ © § aij xi ¹ bi  © ¹ ª j {i º xi ! aii ‡ Se puede empezar el proceso de solución al escoger los valores iniciales de las variables x (xi = 0) .

Método de Gauss-Seidel ‡ Los valores iniciales se sustituyen en la primera ecuación para calcular un nuevo valor para x1 ‡ Este nuevo valor de x1 junto con los demás valores iniciales se sustituyen en la segunda ecuación para calcular un nuevo valor para x2 ‡ Este proceso se repite hasta calcular los nuevos valores de las n variables ‡ Después se regresa a la primera ecuación y se repite todo el procedimiento hasta que la solución converja a la solución real ‡ La convergencia se puede verificar usando el criterio. I a .i xi  xi ! j xi j j 1 100% I s .

En algunos casos no converge En algunos casos la convergencia es lenta ‡ ‡ Las condiciones suficientes para la convergencia de dos ecuaciones no lineales también aplican para ecuaciones lineales cuando se usa Gauss-Seidel xu xv  xx1 xx1 1 xu xv  xx2 xx2 1 .Criterio de convergencia del método de Gauss-Seidel ‡ Este método es similar en esencia al método de iteración de punto de fijo que se usa para el cálculo de raíces de una ecuación Presenta las mismas desventajas: 1. 2.

Criterio de convergencia del método de Gauss-Seidel ‡ En el caso de dos ecuaciones el método de Gauss-Seidel se expresa como x1 ! u .

x2 ! b1 a12 x2  a11 a11 x2 ! v.x1 .

x1 . x2 ! b2 a21 x1  a22 a22 ‡ Las derivadas parciales de estas ecuaciones con respecto a las variables son xu xv xu  a12 xv  a21 !0 !0 ! ! xx1 xx2 a11 a22 xx2 xx1 Para que se cumplan las condiciones suficientes de convergencia ‡ a12 a11 1 a21 a22 1 .

a11 " a12 ‡ ‡ a22 " a21 El elemento diagonal debe ser mayor que el elemento fuera de la diagonal para cada fila (sistemas diagonal dominantes) Generalizando para n ecuaciones aii " § aij j !1 j {i n ‡ El criterio es suficiente pero no necesario para convergencia .Criterio de convergencia del método de Gauss-Seidel ‡ ‡ El valor absoluto de la pendiente de las ecuaciones rectas debe ser menor que la unidad para asegurar convergencia Rerformulando.

ese valor se modifica por un promedio ponderado de los resultados de las iteraciones anterior y actual: xi ± ± Si P = 1 nuevo ! Pxi nuevo  .Mejoras a la convergencia por medio de relajación ‡ ‡ La relajación representa una ligera modificación al método de Gauss-Seidel y está diseñada para mejorar la convergencia Después de calcular cada nuevo valor de x.

acelera la convergencia de un sistema que ya es convergente. converja o converja más rápido al amortiguar sus oscilaciones Si 1 < P < 2 se le da una ponderación extra al valor actual (sobrerelajación). SOR ± . También es conocida como sobrerelajación simultánea o sucesiva. se usa para hacer que un sistema no convergente.  P xi 1 anterior P: es el coeficiente de relajación que tiene un valor entre 0 y 2 el resultado no se modifica Si 0 < P < 1 el resultado es un promedio ponderado de xinuevo y xianterior (subrelajación).

0 ea = abs((x(i)-old)/x(i))*100.a(i.i). if sentinel == 1 break end end . for j = 1:n a(i. while iter < maxIteraciones sentinel = 1. for j = 1:n if i ~= j sum = sum .a(i.0-lambda)*old. end end x(i) = lambda * sum +(1. end iter = 1. end b(i) = b(i)/dummy. sum = b(i). if sentinel == 1 AND x(1) ~= 0. end end end iter = iter + 1. for j = 1:n if i ~= j sum = sum .b. for i = 1:n old = x(i).x.imax.n.j)*x(j).j)*x(j). if ea > es sentinel = 0.j)/dummy. end for i = 1:n sum = b(i).Seudo código para el método de Gauss-Seidel con relajación SUBROUTINE Gseid(a.j) = a(i.es.lambda) for i = 1:n dummy = a(i. end end x(i) = sum.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->