Está en la página 1de 17

Unidad 5: Sistemas de Ecuaciones Lineales

Introducción
El problema matemáticos conocido como sistemas de ecuaciones lineales es uno de los más utilizados en la actualidad,
pues se puede resolver en forma muy eficiente a partir de los métodos computacionales y porque es utilizado en la
representación matemática de diversos modelos (físicos, económicos, químicos, etc.) en forma directa o indirecta.
 Forma Directa: cuando las variables que rigen el comportamiento del modelo se relacionan entre si en forma
lineal por medio de distintas ecuaciones.
 Forma Indirecta: cuando el modelo matemático es no lineal, como es el caso de relaciones no lineales entre las
variables, ecuaciones diferenciales, etc., donde los métodos numéricos que resuelven el problema, lo linealizan
en regiones discretas del dominio, etapa en la que aparece la necesidad de resolver un sistema de ecuaciones
lineales.

Revisión de conceptos matriciales – Distintos tipos de Sistemas de Ecuaciones


Lineales
Un sistema de ecuaciones lineales se puede escribir en forma matricial como

Donde es una matriz con m filas y n columnas (matriz de los coeficientes), es el vector de incógnitas con n
elementos y otro vector con m valores conocidos (vector de los términos independientes).
De esta manera, un sistema de ecuaciones lineales como

se escribe en forma matricial:

La representación grafica de cada una de las ecuaciones en un sistema de coordenadas cartesianas da origen a una
recta, como se puede ver en la figura

De esta manera, todos los pares ordenados (x,y), que caen sobre la recta r1, son solución de la primera ecuación del
sistema; asi como lo son los pares que caen sobre r2 de la segunda. De estos infinitos pares ordenados, solo hay uno
que es solución simultanea de ambas ecuaciones (corresponde al par ordenado donde se cortan las dos rectas) y es la
llamada solución del sistema. Este caso recibe el nombre de Sistema compatible Determinado. Compatible porque el
sistema tiene solución y Determinado porque esta es única. Notar que para lograr un sistema compatible determinado,
la matriz A deber ser cuadrada (m=n), es decir tener el mismo número de filas y columnas; y además las ecuaciones
lineales independientes, o lo que es lo mismo la matriz A ser no-singular (poseer
determinante no nulo).
Cuando las filas de A no son linealmente independientes, el sistema es singular, det=A; y podemos tener un sistema
incompatible (sin solución) o uno compatible indeterminado (infinitas soluciones) como se puede ver en los siguientes
ejemplos:

Notar que en los sistemas compatibles indeterminados la matriz con m<n. Hay más incógnitas que ecuaciones. En
el ejemplo vemos que ambas ecuaciones son en realidad la misma, por lo que hay una ecuación con 2 incógnitas y el
sistema admite las infinitas soluciones que corresponden a los pares ordenados que caen sobre la recta.

Existen un tipo de sistemas llamados Mal Condicionados, que si bien desde el punto de vista matemático son sistemas
Compatibles Determinados (con solución única); desde el punto de vista numérico, son muy sensibles a errores, con lo
que pequeñas variaciones en los datos o poca precisión en el manejo de las operaciones algebraicas durante el proceso
de resolución, generan grandes cambios en los resultados. Matemáticamente estos sistemas si bien no so singulares, el
det A es bastante cercano a cero.
Por ejemplo:

Pero si el sistema fuese

la solución sería x=2,415; y=0.


Notar que el det A=5.10-7·7=1; bastante cercano a 0; por ello las rectas poseen pendientes muy parecidas, sin llegar a
ser iguales.

Podría existir un sistema con , donde m > n, es decir que el numero de ecuaciones linealmente independientes es
mayor al de incógnitas.
En este caso se dice que el sistema esta sobredeterminado y no existe una solución que satisfaga todas las ecuaciones
(incompatible). Estos sistemas se suelen utilizar no para obtener una solución única, sino la que mejor aproxima a todas
las ecuaciones bajo un cierto criterio.

Solución de Sistemas de Ecuaciones Lineales


Para resolver un sistema de ecuaciones lineales existen dos tipos de métodos (aplicables solo a sistemas compatibles
determinados):
a) Métodos Directos: son aquellos métodos que conducen a la solución exacta (si no existieran errores de
redondeo) en un numero finito de operaciones.
 Método de Eliminación de Gauss
 Método de Eliminación de Gauss-Jordan

b) Métodos Indirectos o Iterativos: son aquellos que parten de una aproximación inicial y que por aplicaciones de
un determinado algoritmo, conducen a aproximaciones sucesivamente mejores en cada paso. Todos los
métodos iterativos se caracterizan por:
a. Necesitan una aproximación inicial para arrancar el método;
b. Poseen un criterio de convergencia a la solución;
c. Precisan la determinación de un error de precisión para finalizar el método (infinitas operaciones).
Son convenientes, en general, para resolver sistemas de muchas ecuaciones y brindan mejores soluciones para
sistemas mal condicionados.
 Método de Gauss – Seidel.

Operaciones elementales de filas y columnas y los términos


independientes hasta hacer a la matriz A triangular superior y
Método de Eliminación de Gauss luego se resuelve el valor de las incógnitas a través de la
sustitución inversa.
El método de Gauss costa de dos etapas:
 la primera de triangulación: proceso de transformar la matriz de fora tal que todos los elementos por debajo de la
diagonal principal sean nulos),
 la segunda de sustitución inversa.
Se basa principalmente en la realización de operaciones elementales de filas y columnas en la matriz de los coeficientes
y el vector de términos independientes hasta triangular la matriz A.

Proceso de Triangulación

Generalización a un sistema (m x n), al finalizar el primer paso de iteración tendremos:

Suponiendo hemos eliminado ya todos los coeficientes hasta las columnas (k -1)

Si ahora queremos eliminar los coeficientes de a columna k que están por debajo de la fila k se definen los coeficientes
(significa el elemento de la fila i y una columna k en la transformación k)

y las siguientes formulas genéricas que ejecutan las operaciones elementales de filas son:

Al completar la triangulación el sistema que se obtendrá será:

Proceso de Sustitución Inversa


A partir del sistema triangular se evalúa las incógnitas e forma ascendente.

Método de Gauss – Jordan


Este método es muy similar al anterior con la diferencia de diagonalizar la matriz de los coeficientes (transformar la
matriz de forma tal que todos los elementos no-diagonales sean nulos) en vez de convertirla en triangular superior.
De esta forma, el cálculo de las incógnitas se realiza directamente al dividir el término independiente por el valor que
acompaña a la incógnita.

Diagonalización
A partir de un sistema de ecuaciones generales (m x n) y eliminando todos los coeficientes por encima y debajo de la
diagonal principal, al llegar a la columna k-enésima, la matriz A resulta del tipo:

Las formulas generales de recurrencia son:


Al completar la diagonalización el sistema será:

Resolución
Consiste en obtener el valor de las incógnitas. En forma general cualquier incógnita se obtiene como:

Reducción del error de redondeo en los métodos de Gauss y Gauss-Jordan: Técnicas de Pivoteo (Parcial y Total)
Los métodos anteriores provocan (debido a la gran cantidad de operaciones) errores de redondeo no deseados en el
cálculo de las incógnitas ya que se utilizan computadores con un número finito de decimales.
Para disminuir tales errores es conveniente que el elemento pivot sea mayor a los elementos de la columna a la que
pertenece donde se calcularán los multiplicadores. Este concepto es importante ya que erradica un concepto inexacto
en el manejo de sistemas de ecuaciones lineales en el cual se recomienda que el pivot sea 1 (para facilitar los cálculos).
Las técnicas de pivoteo consiste en realizar intercambios de filas o columnas para colocar en la posición de pivot al
mayor valor posible (en valor absoluto), de dos maneras distintas:
a) Pivoteo Parcial: cosiste solo en intercambiar filas de la matriz de los coeficientes (y en consecuencia del vector
de términos independientes) para llevar a la posición de pivot el mayor valor de la columna cuyos elementos se
harán cero.
b) Pivoteo Total: en este caso, es posible, además, el intercambio de columnas de manera tal de colocar en la
posición de pivot al mayor valor de toda la submatriz delimitada. El intercambio de columnas provoca el
cambio del orden de las incógnitas.

Pivot Parcial
A partir de la siguiente matriz, efectuaremos los cálculos (a través del método del Gauss) aplicando en cada pasa la
técnica de pivoteo parcial.

Previo a efectuar los cálculos, se pivotea (intercambiando filas). El pivot debe ser el elemento (4).

OJO: se intercambian los términos


independientes, no las incógnitas.

Se efectúa ahora el primer paso del método

Se comienza a trabajar ahora con la submatriz delimitada por el elemento y ya que el resto no sufrirá
modificaciones.
Para pivotear nuevamente se debe elegir el elemento mayor de la columna pivot de la nueva submatriz. Notar que se
toma el valor mayor en VALOR ABSOLUTO.

pivoteando

Y efectuando los cálculos:

Pivoteo Total
A partir de la siguiente matriz, efectuamos ahora los cálculos (a través del método de Gauss) aplicando en cada paso la
técnica de pivoteo total

En el caso de pivoteo total, el elemento pivot del primer paso debe ser el mayor de toda la matriz (9).
Para ello es necesario intercambiar filas y columnas.

OJO: al intercambiar filas se intercambian


los términos independientes. Al
intercambiar columnas, se intercambian
las incógnitas.

Se efectúa ahora el primer paso del método:

Se comienza a trabajar ahora con la submatriz delimitada por el elemento y .


Para pivotear nuevamente se debe elegir el mayor elemento de la nueva submatriz.

Pivoteando (el pivot debe ser 2,56) solo hace falta intercambiar filas
Efectuando los calculos

Proximacion o Ajuste a una curva por el método de mínimos cuadrados


Frecuentemente en necesario representar con una relacion funcional cierto conjunto de datos en eun sistema de ejes
cartesianos xy, como indica la figura, ello ocorre cuando:

 Hay errores en las mediciones de valores experimentales y se busca semejar un aislamiento de las mediciones.
 Se desea conocer, a partir de valores discretos (x,y) obtenidos experimentalmente, el valor de ordenada
correspondiente a un valor de abcisa cualquiera.
 Para extrapolar resultados cuando resulta antieconomico realizar ensayos para determinar rangos de x.

Todas las anteriores consideraciones se encaminan a encontrar una relacion funcional, que podrá ser polinómica,
trascendente, etc. Según la naturaleza de los datos. El interrogante que se paltea en este punto es como medir el ajuste
entre los datos y la relacion funcional propuesta. Para ello se define el concepto de Desviacion como la sumatoria de las
diferencias entre los valores datos y los calculos con la curva de ajuste:

Pero como esta expresión se cancelan los errores positivos con los negativos. Por ello se introduce el concepto de valor
absoluto:

Como utilizaremos el calcul diferencial y la función valor absoluto no tiene definida su dereivada en el minimo, se define
el criterio de minimos cuadrados de la siguiente manera:

Para determinar la funcion que mejor aproxima al conjunto de datos, se definirá, en formagenerica y según la
naturaleza de los mismos, una función que contenga en su expresion uno o mas coeficientes, por ahora desconocidos,
cuyos valores se calcularan de manera que el valor que tome sea el minimo posible. Esto se logra igualando las
derivadas parciales de con respecto de cada coeficiente a cero. Si la función propuesta es una combinacion
lineal de funciones, la solucion del problema nos conducira a un sistema de ecuaciones lineales de los contrario a un
sistema de ecuaciones no lineales.

Si expresamos la funcion de aproximacion como una combinacion lineal de m funciones tal que:
Donde las funciones serán convenientes elegidas según la naturaleza del caso pudiendo toar por ejemplo:

Reemplazando en

Para obtener los coeficientes que minimecen el valor de la funcion , se debe igualar las derivadas parciales de
respecto de cada una de las variables a 0. Desarrolando en forma generica para el coeficiente se obtiene:

Reacomodando terminos nos queda:

Si se opera de manera similar para todos los coeicientes , se define un sistema de ecuaciones lineales con
incógnitas, el cual puede expresarse matricialmente como:

donde:

Apreciar que la matriz es simetrica.

Para el caso particular de un polinomio de grado m el sistema toma la forma:

(observar que se ha simplificado la cariacion de “k” en la sumatoria k=1 hasta n)

SI la funcion de aproximacion propuesa no puede expresarse como una combinacion loniela de funciones, como por
ejemplo los casos:
la determinacion de los coeficientes, igualando a cero las deriadas parciales de respecto de cada una de las incognitas,
nos conducirá a la resolución de un sistema de ecuaciones no lineales.
Unidad 6: Sistemas de Ecuaciones No Lineales

Introducción
Una ecuación no lineal en una variable, es aquella que tiene dicha variable elevada a una potencia distinta de 1, o que
incluye, funciones trascendentales, como por ejemplo trigonométricas o exponenciales.
El objetivos de los métodos que se presentarán en esta sección es aproximar a las raíces de ecuaciones no lineales
F(x)=0. Generalizando es importante que resolvemos también modelos del tipo f(x)=a (siendo a cualquier número real) y
también del tipo f(x)=g(x), ya que ambos modelos pueden ser llevados a la forma original f(x)=0.

La primera forma de encontrar las raíces es buscar en el grafico donde f(i) corta al eje i
Aunque con poca precisión este método se usa muy frecuentemente para obtener una primera aproximación, que
puede ser necesaria para aplicar otro método más preciso.

Los métodos numéricos para la determinación de raíces consisten en general en dos etapas:
a) El aislamiento de las raíces.
b) Mejorar los valores de las raíces aproximadas.

Aislamiento de Raíces
Aislar las raíces consiste en establecer un intervalo [a,b] lo más pequeño posible, tal que en su interior se encuentre una
y sola una raíz. Para ello es conveniente tener en cuenta el siguiente teorema:

Si una función continua f(x) asume valores de signos opuestos en los extremos de un intervalo [a,b], o
lo que es lo mismo, si f(a) · f(b) < 0, luego el intervalo [a,b] contendrá al menos un punto tal que
f( )=0.

Advertir que el teorema anterior no define una condición necesaria para la existencia de una raíz, sino una condición
suficiente. En otras palabras si las condiciones requeridas se cumplen, entonces existe una raíz, si no se cumplen, aun es
posible la existencia de raíces en el intervalo.

Como se aprecia en el grafico anterior en el intervalo [a,b] existe una raíz y sin embargo no se cumple ninguna de las
condiciones.

La raíz será definitivamente única dentro del intervalo [a,b] si la derivada de f(x) existe y conserva
su signo dentro del intervalo.
Si no se desea construir un gráfico, podemos completar una tabla con distintos valores de x y f(x), y buscamos en los
valores de f un cambio de signo, luego quedará verificar que la función sea continua y que la derivada de f mantenga su
signo dentro del intervalo.

Una vez que se tiene un intervalo [a,b] donde existe una sola raíz se procede con la segunda etapa:

Mejorar los valores de las raíces:


Para esto se ven los siguientes métodos:
a) Punto Fijo o de aproximación sucesivas.
b) Newton-Raphson.

Método de Punto Fijo o De Aproximación Sucesivas


Este método consiste en reemplazar nuestra función original f(x)=0 en otra expresión equivalente de la forma x = g(x)
tal que cualquier solución de esta, lo sea también de la primera. No obstante, no todas las formas serán del todo
satisfactorias para nuestras finalidades.

Por ejemplo algunas formas posibles para la ecuación:

Son:

Cada una de las alternativas, constituye una función de iteración para la ecuación original. Es preciso resaltar
nuevamente que existen varias alternativas posibles para la definición de las funciones g(x). Definida la función de
iteración se efectúa el siguiente algoritmo:

Sea una aproximación inicial para la raíz x = e de la ecuación. Deberemos realizar


aproximaciones sucesivas a través de la formula de recurrencia:
para n = 1,2,… , pero para que este algoritmo sea de utilidad deberemos probar que:
a) Para el punto de partida x0, podemos calcular sucesivamente x1, x2,…
b) La sucesión x1, x2,… converge al mismo punto e, que es la raíz buscada.
c) El limite e constituye un punto fijo de g(x), o sea que e=g(e).
Para entender mejor el método en sí y bajo qué condiciones es convergente, en conveniente interpretar
gráficamente el proceso.

Dado que , ambos valores tienen la misma ordenada y por lo tanto, es el valor para el cual la recta
horizontal que pasa por , corta a la función y=x. La figura anterior ilustra este método, y como puede observarse,
la aproximación puede ser en escalera (a) o en caracol (b), además se puede apreciar que el tipo de convergencia de la
función g(x) a la raíz , depende del signo de .

Las condiciones suficientes para asegurar la convergencia del algoritmo están contenidas en el siguiente teorema:

Sea una raíz de f(x) en I un intervalo que contiene un punto (esto es I es el conjunto de
todos los puntos x que satisfacen una desigualdad , para un valor de lo suficientemente
pequeño). Sea , continúas en I, y si para todos los puntos en I y si
además la aproximación inicial escogida perteneces a I, entonces la ecuación converge
a la raíz .

Prueba:
Desde que ha sido supuesta raíz, ella debe satisfacer la ecuación

Restando de , la expresión anterior:

Por el teorema del valor medio del cálculo deferencial, habrá un punto entre y tal que

Dado que pertenece a I por hipótesis resulta:

lo cual equivale a decir que la nueva aproximación está más cerca de la raíz que el valor y en
definitiva esto prueba que para la primera iteración el método converge. Aplicando inductivamente,
pera cualquier paso, n, este argumento, se tiene que dado que y pertenece
a 1.
Definiendo un error a la iteración genérica como:

y reemplazando en (1)
y si nuevamente consideramos le valor absoluto de esta última expresión y asumimos que
obtenemos que:

Lo cual demuestra que el método converge cuando se verifica que . Dicho de otro modo,
si el número de iteraciones tiende a tendremos que:

Lo que completa la prueba del teorema.

En resumen el método consiste en los siguientes pasos:


a) Determinar el intervalo y la precisión deseada
b) Buscar una función g(x) que sea convergente
c) Iterar con la expresión hasta cumplir con la precisión prefijada.

Para el punto “b” pueden existir ecuaciones f(x)=0 que dada su naturaleza no se pueda transformar en
expresiones x=g(x) equivalente y convergente a través de simples pasajes en términos. En estos casos es útil
definir g(x) de la siguiente forma:

porque:

de donde

en donde “m” es una constante, cuyo valor fijamos de tal forma que la función g(x) cumpla con el criterio de
convergencia.

Método de Newton Raphson


Probamente este es uno de los métodos iterativos más conocidos para la determinación de una raíz de f(x).
Puede ser visto de dos maneras, un método que se deriva de la serie de Taylor o como un caso particular
del método de punto fijo.

Si expandimos f(x) para un entorno del punto x:

para valores pequeños de , los términos superiores al lineal pueden ser despreciados, entonces si lo que
buscamos es que , implica que . De donde, la expresión general de la función de
iteración es:
Como caso especial del método de Punto Fijo, la formula de recurrencia de Newton-Raphson se derivaría
de:

Al igual que el método de punto fijo, la condición de convergencia es que para todo en el
intervalo. Entonces:

Luego para que el método sea convergente, deberá verificarse:

Interpretación grafica del método:

ello implica que

Su principal ventaja, y sin duda razón de su popularidad, es su velocidad de convergencia cuadrática hacia la
raíz. Lo que implica que el error del paso esta en función del cuadrado del error en el paso . Esto
queda demostrando en el siguiente análisis.

Para estudiar cómo es la convergencia de este método, expresamos (según Punto Fijo):

Si expandimos en un entorno cercano a la raíz :


Si consideramos por (1) y siendo
y

nos queda reemplazando (3) en (2):

Si consideramos los términos de orden superior despreciable, se comprueba que el error en el paso
esta en función del cuadrado del error en el paso n.

Una de las principales desventajas de este método radica en que es necesario determinar para cada
iteración. En algunos casos, es imposible tener esa expresión en forma explícita o bien es necesario un
considerable esfuerzo computacional para su evaluación.

Unidad 7: Sistemas de Ecuaciones Diferenciales Ordinarias

Métodos de Runge-Kutta
Los métodos de Runge-Kutta tienen tres propiedades distintivas:
1. Son métodos de un paso: para encontrar necesitamos solamente la información disponible
en el punto precedente , .
2. Coinciden con la serie de Taylor hasta los términos de orden , en que es distinto para los
diferentes métodos y se denomina el orden del método.
3. No requieren la evaluación de ninguna derivada de , sino únicamente de la función en sí.

La tercera propiedad es la que hace estos métodos más prácticos que la serie de Taylor. Deberíamos
esperar, sin embargo, tener que valuar para mas de un valor de y ; este es el precio que pagamos
por no tener que valuar las derivadas.

Método de Euler
Supóngase que tenemos una solución en el punto . Podemos entonces dibujar la línea de
pendiente

que pasa por el punto , . La situación se representa en la figura a continuación, en que la curva es la
solución exacta (que se desconoce) y la línea descrita es identificada como . Podemos entonces llamar
el punto en que intercecta la ordenada levantada en .
La ecuación de la línea es

pero

así que

El error en se denota por . Esto por supuesto coincide con la expansión en serie de Taylor
incluyendo únicamente términos en , así que el error por truncamiento es

Aunque en la figura se muestre como coincidiendo exactamente con la solución , en la practica


es una aproximación y no coincide exactamente con la curva.

Además de tener un erro por truncamiento relativamente grande, el método de Euler es a menudo
inestables; esto es, un error pequeño (por redondeo, truncamiento o inhernte) se amplifica conforme
aumenta el valor de .

El método de Euler es un método de Runge-Kutta, y es específicamente un método de primer orden, ya que


coincide con los términos en de la serie de Taylor.

Método de Euler Mejorado


En el método mejorado de Euler trabajamos con el promedio de las pendientes en y
. Este último punto es el que llamamos en el método de Euler. Geométricamente (ver
figura a continuación), usamos el método de Euler para determinar el punto , que está
en la línea del diagrama. En este punto, calculamos la pendiente de la curva, lo que nos lleva a la línea
Promediamos las dos pendientes y obtenemos la línea de trazos . Finalmente, dibujamos una línea ,
paralela a y que pasa por el punto . El punto en que esta línea intersecta la ordenada levantada en
se considera el punto .

La pendiente de la línea , que es también la de la línea , es

en que

La ecuación de es entonces

asi que
Estas 3 últimas ecuaciones definen el método mejorado de Euler.

Método de Euler Modificado


El método mejorado de Euler se promedia pendientes. En este método se promedian puntos de la manera
siguiente.
En la figura a continuación, empezamos con la línea , que pasa por y tiene una pendiente dada por
. Avanzamos a lo largo de esta línea de intersección con la ordenada levantada en ; este en
el punto del diagrama, en que . Calculamos la pendiente
ahí:

en que

La línea que pasa por y que tiene está pendiente, se representa como .
En seguida dibujamos una línea paralela a que pase por la cual se
indica como . Sea ahora la intersección de con . La
ecuación de es

en qué está dada por (1). Entonces

Las ecuaciones definen lo que se conoce como método modificado de Euler. Este método
coincide con la serie de Taylor hasta los términos de y por lo tanto es un método de RUnge-Kutta de
segundo orden.

Método de orden superior


Los métodos de Runge-Kutta de tercero y cuarto orden se pueden desarrollar en una forma enteramente
análoga a la que se siguió para obtener los métodos de primero y segundo orden.
Se presentan las ecuaciones de cuarto orden de Runge-Kutta:

en que

El error de truncamiento es este caso es

así que tenemos un método de cuarto orden.

También podría gustarte