Está en la página 1de 13

ECUACIONES ALGEBRAICAS LINEALES SIMULTANEAS

Una Ecuacion Algebraica Lineal es aquella en donde en cada término de la


ecuación aparece únicamente una variable o incógnita elevada a la primera
potencia. Por ejemplo:

a 11 X1 + a 12 X2 + a 13 X3 + ... + a 1n Xn = C1 (1)


Es una ecuación algebraica lineal en las variables X1, X2, X3, ... , Xn. Se admite
que los coeficientes a11, a12, a13, ... , a1n y el término independiente C1, son
constantes reales.
 
 Un Sistema De Ecuaciones Lineales Algebraicas es un conjunto de ecuaciones
que deben resolverse simultáneamente. En lo sucesivo se considerarán
únicamente sistemas de ecuaciones algebraicas lineales, o sea conjuntos de
ecuaciones de la forma:
a11 X 1 + a 12 X2 + a13 X 3 +... + a 1n X n = (a)
C 1
a 21 X 1 + a 22 X 2 + a 23 X 3 +... (b) (2)
+ a 2n X n = C 2
a n1 X 1 + a n2 X 2 + a n3 X 3 + ... (c)
+ a nn X n = C n

Este sistema de ecuaciones puede escribirse simbólicamente como:


AX=C
en donde A se llama Matriz del Sistema. La matriz formada por A, a la que se le
ha agregado el vector de términos independientes como última columna, se le
llama la Matriz Ampliada del Sistema, que se representa con (A, C).

Entonces la matriz ampliada será:

MÉTODO DE ELIMINACIÓN DE GAUSSIANA.

El primer método que se presenta usualmente en álgebra, para la solución de


ecuaciones algebricas lineales simultáneas, es aquel en el que se eliminan las
incógnitas mediante la combinación de las ecuaciones. Este método se conoce
como Método De Eliminación. Se denomina Eliminación Gaussiana si en el
proceso de eliminación se utiliza el esquema particular atribuido a gauss.
 
Utilizando el método de Gauss, un conjunto de "n" ecuaciones con "n" incógnitas
se reduce a un Sistema Triangular Equivalente (un sistema equivalente es un
sistema que tiene iguales valores de la solución), que a su vez se resuelve
fácilmente por Sustitución Inversa; un procedimiento simple que se ilustrará con
la presentación siguiente.
 
El esquema de Gauss empieza reduciendo un conjunto de ecuaciones
simultáneas, tal como se muestra, a un Sistema Triangular Equivalente como:

 
En el cual los superíndices indican los nuevos coeficientes que se forman en el
proceso de reducción. La reducción real se logra de la siguiente manera:
 
1) La primera ecuación se divide entre el coeficiente de X1 en esa ecuación para
obtener:
 

 
2) La ecuacion se multiplica entonces por el coeficiente de X1 de la segunda
ecuación y la ecuación que resulta se resta de la misma, eliminando así X1. La
ecuacion obtenida se multiplica entonces por el coeficiente de X1 de la tercera
ecuación  y la ecuación resultante se resta de la misma para eliminar X1 de esa
ecuación. En forma similar, x1 se elimina de todas las ecuaciones del conjunto
excepto la primera, de manera que el conjunto adopta la forma:
 
 
3) La ecuación utilizada para eliminar las incógnitas en las ecuaciones que la
siguen se denomina Ecuación Pivote. En la ecuación pivote, el coeficiente de la
incógnita que se va a eliminar de las ecuaciones que la siguen se denomina
el Coeficiente Pivote.
 
4) Siguiendo los pasos anteriores, la segunda ecuación se convierte en
la Ecuación Pivote, y los pasos de la parte 1 se repiten para eliminar X2 de todas
las ecuaciones que siguen a esta ecuación pivote. Esta reducción nos conduce a:
 

 
5) A continuación se utiliza la tercer ecuación como ecuación pivote, y se usa el
procedimiento descrito para eliminar X3 de todas lasecuaciones que siguen a la
tercer ecuación. Este procedimiento, utilizando diferentes ecuaciones pivote, se
continúa hasta que el conjunto original de ecuaciones ha sido reducido a un
conjunto triangular tal como se muestra en la ecuacion.
 
6) Una vez obtenido el conjunto triangular de ecuaciones, la última ecuación de
este conjunto equivalente suministra directamente el valor de Xn. Este valor se
sustituye entonces en la antepenúltima ecuación del conjunto triangular para
obtener un valor de Xn-1, que a su vez se utiliza junto con el valor de Xn en la
penúltima ecuación del conjunto triangular para obtener un valor Xn-2 y asi
sucesivamente.
 
Para ilustrar el método con un conjunto numérico, apliquemos estos
procedimientos a la solución del siguiente sistema de ecuaciones:
 
X1 + 4 X2 + X3 = 7
X1 + 6 X2 - X3 = 13
2 X1 - X2 + 2 X3 = 5
 
Utilizando como Ecuación Pivote la primera ecuación (el Coeficiente Pivote es
unitario), obtenemos:
 
X1 + 4 X2 + X3 = 7
2 X2 - 2 X3 = 6
9 X2 + (0) X3 = -9
 
A continuación, utilizando la segunda ecuación del sistema como ecuación pivote
y repitiendo el procedimiento, se obtiene el siguiente sistema triangular de
ecuaciones:
X1 + 4 X2 + X3 = 7
2 X2 - 2 X3 = 6
- 9 X3 = 18
 
Finalmente mediante sustitución inversa, comenzando con la última de las
ecuaciones se obtienen los siguientes valores:
 
X3 = -2
X2 = 1
X1 = 5
 
Desventajas del método de eliminación Gaussiana.
 
a) División Entre Cero.
Una de sus desventajas es que durante el proceso en las fases de eliminación y
sustitución es posible que ocurra una división entre cero. Se ha desarrollado una
estrategia del pivoteo para evitar parcialmente estos problemas.
 
b) Errores De Redondeo.
La computadora maneja las fracciones en forma decimal con cierto número
limitado de cifras decimales, y al manejar fracciones que se transforman a
decimales que nunca terminan, se introduce un error en la solución de la
computadora. Este se llama Error Por Redondeo.Cuando se va a resolver
solamente un pequeño número de ecuaciones, el error por redondeo es pequeño y
generalmente no se afecta sustancialmente la precisión de los resultados, pero si
se van a resolver simultáneamente muchas ecuaciones, el efecto acumulativo del
error por redondeo puede introducir errores relativamente grandes en la solución.
 
c) Sistemas Mal Condicionados.
La obtención de la solución depende de la condición del sistema. En sentido
matemático, los Sistemas Bien Condicionados son aquellos en los que un
cambio en uno o más coeficientes provoca un cambio similar en la solución.
Los Sistemas Mal Condicionados son aquellos en los que cambios pequeños en
los coeficientes provocan cambios grandes en la solución. Una interpretación
diferente del mal condicionamiento es que un rango amplio de respuestas puede
satisfacer aproximadamente al sistema. Ya que los errores de redondeo pueden
inducir cambios pequeños en los coeficientes, estos cambios artificiales pueden
generar errores grandes en la solución de sistemas mal condicionados.

METODO DE GAUSS-JORDAN.
Este método, que constituye una variación del método de eliminación de
Gauss. Este procedimiento se distingue del método Gaussiano en que cuando se
elimina una incógnita, se elimina de todas las ecuaciones restantes, es decir, las
que preceden a la ecuación pivote así como de las que la siguen. El método se
ilustra mejor con un ejemplo.
 
3.0 X1 - 0.1 X2 - 0.2 X3 = 7.8500
0.1 X1 + 7.0 X2 - 0.3 X3 = - 19.3
0.3 X1 - 0.2 X2 + 10 X3 = 71.4000
 
1) Expresemos los coeficientes y el vector de términos independientes como
una Matriz Aumentada.
 

 
2) Se normaliza el primer renglón dividiendo entre 3 para obtener:
 

 
3) El término X1 se puede eliminar del segundo renglón restando 0.1 veces el
primero del segundo renglón. De una manera similar, restando 0.3 veces el
primero del tercer renglón se elimina el término con X1 del tercer renglón.
 
 
4) En seguida, se normaliza el segundo renglón dividiendo entre 7.00333:
 

 
5) Reduciendo los términos en X2 de la primera y la tercera ecuación se obtiene:
 

 
6) El tercer renglón se normaliza dividiendolo entre 10.010:
 

 
7) Finalmente, los términos con X3 se pueden reducir de la primera y segunda
ecuación para obtener:
 

 
8) Nótese que no se necesita sustitución hacia atrás para obtener la solución.
 
Las ventajas y desventajas de la eliminación gaussiana se aplican también al
método de Gauss-Jordan.  Aunque los métodos de Gauss-Jordan y
de Eliminación De Gauss pueden parecer casi idénticos, el primero requiere
aproximadamente 50% menos operaciones. Por lo tanto, la eliminación gaussiana
es el mé todo simple por excelencia en la obtención de soluciones exactas a las
ecuaciones lineales simultáneas. Una de las principales razones para incluir el
método de Gauss-Jordan, es la de proporcionar un método directo para obtener la
matriz inversa.
ESTRATEGIAS DE PIVOTEO.
Las estrategias de pivote, ademas de hacer factible el proceso de eliminacion,
evitan la division por numeros muy pequeños con los consiguientes errores de
redondeo.

La idea consiste en elegir como pivote total el elemento de mayor valor absoluto,


no solo en la columna k; sino en todas las columnas j con k · j · n: Esto introduce
una nueva dificultad, ya que el cambio de orden en las columnas corresponde a un
cambio de orden en las incógnitas, hecho que debe ser tenido en cuenta a la hora
de la resolución de sistema triangular.

El método con pivote total se realiza en (n-1) etapas. Cada etapa se realiza en dos
pasos:

PASO 1: Se elige el pivote total Ak. Y se intercambian la fila k con la fila i y la


columna k con la columna j: Este paso equivale a multiplicar PkAkQk.

PASO 2: Se hacen ceros en la columna k por debajo de la diagonal principal como


en el caso de Gauss normal. Matricialmente, corresponde a hacer Ak+1
= EkPkAkQk: Una vez realizadas las (n-1) etapas se tiene la matriz triangular
superior.

METODO DE  GAUSS-SEIDEL.

El método de Gauss-Seidel es un método iterativo y por lo mismo resulta ser


bastante eficiente. Se comienza planteando el sistema de ecuaciones con el que
se va a trabajar.

De la ecuación 1 despejar x1, de la ecuación 2 despejar x2, de la


ecuación n despejar xn. Esto da el siguiente conjunto de ecuaciones:
Este último conjunto de ecuaciones son las que forman las fórmulas iterativas con
las que se va a estar trabajando. Para comenzar el proceso iterativo, se le da el
valor de cero a las variables x2, xn; esto dará un primer valor para x1. Más
precisamente, se tiene que:

Enseguida, se sustituye este valor de x1 en la ecuación 2, y las variables x3,  xn


siguen teniendo el valor de cero. Esto da el siguiente valor para x2:

Estos últimos valores de x1 y x2, se sustituyen en la ecuación 3, mientras que x4,


xn siguen teniendo el valor de cero; y así sucesivamen te hasta llegar a la última
ecuación. Todo este paso arrojará una lista de primeros valores para las
incógnitas, la cual conforma el prime r paso en el proceso iterativo. Para una mejor
comprensión esto se simbolizará de esta forma:

Se vuelve a repetir el proceso, pero ahora sustituyendo estos últimos datos en vez
de ceros como al inicio. Se obtendrá una segunda lista de valores para cada una
de las incógnitas, lo cual se simbolizará así:

En este momento se pueden calcular los errores aproximados relativos, respecto a


cada una de las incógnitas. La lista de errores se presenta a continuación:
El proceso se vuelve a repetir hasta que:

donde   se debe prefijar convenientemente.


 
Usando el método de Gauss-Seidel aproximar la solución del sistema.

hasta que

 
1) Primero se despejan las incógnitas x1, x2 y x3 de las ecuaciones 1, 2 y 3
respectivamente. Se tiene:

2) Se comienza el proceso iterativo sustituyendo los valores de x2 = x3 = 0 en la


primera ecuación, para calcular el valor de x1:

3) Ahora se sustituye   y x3 = 0 en la segunda ecuación para obtener


x2:
4) Ahora se sustituye   y   en la tercera ecuación para
obtener x3:

5) Así se tiene la primera aproximación a la solución del sistema:

6) Puesto que todavía no se puede calcular ningún error aproximado, se repite el


proceso pero ahora con los últimos datos obtenidos para las incógnitas:

7) Sustituyendo   y   en la ecuación 1 se


obtiene   Sustituyendo  y   en la ecuación 2 se
obtiene   finalmente, sustituyendo   y   en la
ecuación 3 se obtiene  . Es así como se tiene la segunda lista de
valores de aproximación a la solución del sistema:

8) Ahora se pueden calcular los errores absolutos para cada una de las incógnitas:

9) Puesto que no se ha logrado el objetivo se debe repetir el mismo proceso con


los últimos valores obtenidos de cada una de las incógnitas. Nótese que aunque el
error aproximado   ya cumple con ser menor al 1%, esto se debe cumplir para
los tres errores aproximados. Por lo tanto se repite el mismo proceso. Omitiendo
los pasos intermedios, se obtiene:
10) En este caso se tienen los siguientes errores aproximados:

11) Se puede observar que ahora se ha cumplido el objetivo para cada uno de los
errores aproximados. Por lo tanto, se concluye que la solución aproximada es:

El método de Gauss-Seidel converge a la solución del sistema si se cumple la


condición de que la matriz de coeficientes del sistema sea una
matriz Diagonalmente Dominante, es decir, si se cumple la siguiente condición:

La condición de ser una matriz diagonalmente dominante simplemente significa


que los elementos de la diagonal son mayores en  valor absoluto que la suma de
los valores absolutos de los demás elementos del mismo renglón. Nótese que en
el ejemplo anterior, la matriz sí es diagonalmente dominante y por lo tanto, el
método de Gauss-Seidel sí converge a la solución del sistema.

Sin embargo, la condición de la matriz diagonalmente dominante, solamente es


una condición suficiente pero no necesaria, es decir, existen sistemas  de
ecuaciones que no cumplen con la condición y que sí convergen a la solución y
también existen sistemas de ecuaciones que no cumplen con la condición y que
no convergen a la solución.

Eigenvalores y eigenvectores de la matriz de movimiento.

El siguiente paso es diagonalizar la matriz de movimiento  , para lo cual existen


varios métodos de los cuales emplearemos el de Jacobi. Para la obtención de los
eigenvalores de la matriz de movimiento  se parte de la ecuación que las
contiene explícitamente y que esta dada por:
Que para la partícula   queda expresada como:

cuya solución general es del tipo:

Donde se sabe que la raíz cuadrada del eigenvalor  representa la frecuencia


temporal o característica con que vibrará la partícula ``i''.

Debido a que en la cadena la partícula ``i'' interacciona con sus segundos vecinos;
esta frecuencia de la partícula ``i'' es la frecuencia de algunos de los modos
normales de vibración de la cadena, ya que de la ecuación (I-6) se puede ver que

a cada eigenvalor   de la matriz  le corresponde un eigenvector  ; por lo tanto


la interpretación física que se les da a la raíz cuadrada de los eigenvalores de la
matriz de movimiento es que representan a las frecuencias características de la

cadena y los eigenvectores   los modos normales de vibración.

Método de mínimos cuadrados.

Es una técnica de análisis numérico encuadrada dentro de la optimización


matemática, en la que, dados un conjunto de pares (o ternas, etc), se intenta
encontrar la función que mejor se aproxime a los datos (un "mejor ajuste"), de
acuerdo con el criterio de mínimo error cuadrático.

En su forma más simple, intenta minimizar la suma de cuadrados de las


diferencias ordenadas (llamadas residuos) entre los puntos generados por la
función y los correspondientes en los datos. Específicamente, se llama mínimos
cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el
método de descenso por gradiente para minimizar el residuo cuadrado. Se puede
demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de
operaciones (por iteración), pero requiere un gran número de iteraciones para
converger.

Desde un punto de vista estadístico, un requisito implícito para que funcione el


método de mínimos cuadrados es que los errores de cada medida estén
distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los
estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos no
tiene que ajustarse, por ejemplo, a una distribución normal. También es importante
que los datos recogidos estén bien escogidos, para que permitan visibilidad en las
variables que han de ser resueltas (para dar más peso a un dato en particular,
véase mínimos cuadrados ponderados).

La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas.


Muchos otros problemas de optimización pueden expresarse también en forma de
mínimos cuadrados, minimizando la energía o maximizando la entropía.

El método de mínimos cuadrados para el calculo de la ecuación de una recta a


través de los datos de interés da la línea de mejor ajuste, para llegar a la ecuación
de tendencia por mínimos cuadrados se resuelven dos ecuaciones
simultáneamente.

También podría gustarte