Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cuando se aplicaron las técnicas gráficas en el ejemplo 5.1, se observó (figura 5.1) que f(x) cambió de signo a
ambos lados de la raíz. En general, si f(x) es real y continúa en el intervalo que va desde xl hasta xu y f(xl ) y
f(xu) tienen signos opuestos, es decir, f(xl ) f(xu) < 0, entonces hay al menos una raíz real entre xl y xu.
MÉTODO DE LA FALSA POSICIÓN (Cerrado)
Un inconveniente del método de bisección es que al dividir el intervalo de xl a xu en mitades iguales, no se
toman en consideración las magnitudes de f(xl ) y f(xu). Por ejemplo, si f(xl ) está mucho más cercana a cero
que f(xu), es lógico que la raíz se encuentre más cerca de xl que de xu (figura 5.12). Un método alternativo que
aprovecha esta visualización gráfica consiste en unir f(xl ) y f(xu) con una línea recta. La intersección de esta
línea con el eje de las x representa una mejor aproximación de la raíz. El hecho de que se reemplace la curva por
una línea recta da una “falsa posición” de la raíz; de aquí el nombre de método de la falsa posición, o en latín,
regula falsi. También se le conoce como método de interpolación lineal.
Usando triángulos semejantes (figura 5.12), la intersección de la línea recta con el eje de las x se estima mediante:
Comparación entre los métodos de la falsa posición y de la secante. Las primeras iteraciones a) y b) de ambos
métodos son idénticas. No obstante, en las segundas iteraciones c) y d), los puntos usados son diferentes. En
consecuencia, el método de la secante llega a diverger, como se indica en d).
REGRESIÓN POR MÍNIMOS CUADRADOS
Cuando los datos tienen errores sustanciales, la interpolación polinomial es inapropiada y puede dar
resultados poco satisfactorios cuando se utiliza para predecir valores intermedios. Con frecuencia los datos
experimentales son de este tipo.
Una estrategia más apropiada en tales casos consiste en obtener una función de aproximación que se ajuste a
la forma o a la tendencia general de los datos, sin coincidir necesariamente en todos los puntos.
REGRESION LINEAL
El ejemplo más simple de una aproximación por mínimos cuadrados es ajustar una línea recta a un conjunto de
observaciones definidas por puntos: (x1, y1), (x2, y2),…, (xn, yn). La expresión matemática para la línea recta es
y = a0 + a1x + e
donde a0 y a1 son coeficientes que representan la intersección con el eje y y la pendiente, respectivamente, e
es el error, o diferencia, entre el modelo y las observaciones, el cual se representa al reordenar la ecuación
como
e = y – a0 – a1x
Una estrategia para ajustar una “mejor” línea a través de los datos será minimizar la suma de los errores
residuales de todos los datos disponibles, como sigue:
Para determinar los valores de a0 y a1, la ecuación se deriva con respecto a cada uno de los coeficientes:
Al igualar estas derivadas a cero, se dará como resultado un Sr mínimo. Si se hace esto, las ecuaciones se
expresan como:
.
Definición En estadística
El coeficiente de correlación de Pearson es una medida lineal entre dos variables aleatorias cuantitativas. De
manera menos formal, podemos definir el coeficiente de correlación de Pearson como un índice que puede
utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas y
continuas. Interpretación: El valor del índice de correlación varía en el intervalo [-1,1], indicando el signo el
sentido de la relación:
• Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos
variables denominada relación directa: cuando una de ellas aumenta, la otra también lo hace en
proporción constante.
• Si 0 < r < 1, existe una correlación positiva.
• Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las variables son
independientes: pueden existir todavía relaciones no lineales entre las dos variables
• Si -1 < r < 0, existe una correlación negativa.
• Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre las dos
variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en proporción
constante.
INTERPOLACIÓN
Con frecuencia se encontrará con que tiene que estimar valores intermedios entre datos definidos por puntos.
El método más común que se usa para este propósito es la interpolación polinomial. Recuerde que la fórmula
general para un polinomio de n-ésimo grado es
Dados n + 1 puntos, hay uno y sólo un polinomio de grado* n que pasa a través de todos los puntos. Por
ejemplo, hay sólo una línea recta (es decir, un polinomio de primer grado) que une dos puntos. De manera
similar, únicamente una parábola une un conjunto de tres puntos. La interpolación polinomial consiste en
determinar el polinomio único de n-ésimo grado que se ajuste a n + 1 puntos. Este polinomio, entonces,
proporciona una fórmula para calcular valores intermedios.
El razonamiento detrás de la formulación de Lagrange se comprede directamente al darse cuenta de que cada
término Li(x) será 1 en x = xi y 0 en todos los otros puntos. De esta forma, cada producto Li(x) f(xi ) toma el
valor de f(xi ) en el punto xi . En consecuencia, la sumatoria de todos los productos en la ecuación es el único
polinomio de n-ésimo grado que pasa exactamente a través de todos los n + 1 puntos, que se tienen como
datos.
DESCOMPOSICION LU
EL MÉTODO DE GAUSS-SEIDEL
La segunda parte de este capítulo presenta una alternativa a los métodos de eliminación, es decir, métodos
iterativos. El enfoque se da con el método de Gauss-Seidel, el cual emplea valores iniciales y después itera para
obtener mejores aproximaciones a la solución. El método de Gauss-Seidel es particularmente adecuado cuando
se tiene gran número de ecuaciones. En estos casos, los métodos de eliminación pueden estar sujetos a errores
de redondeo. Debido a que el error en el método de Gauss-Seidel es determinado por el número de iteraciones,
el error de redondeo no es un tema que preocupe a este método. Aunque, existen ciertos ejemplos donde la
técnica de Gauss-Seidel no convergerá al resultado correcto.
Aunque la eliminación de Gauss o la descomposición LU convencional se emplean para resolver sistemas de
ecuaciones bandeados, resultan ser ineficientes, debido a que si el pivoteo no es necesario, ninguno de los
elementos fuera de la banda cambiará su valor original igual a cero. Así, será necesario utilizar tiempo y espacio
en el almacenamiento y en el manejo de estos ceros inútiles. Si se sabe de antemano que el pivoteo no es
necesario, se pueden desarrollar algoritmos muy eficientes en los que no intervengan los ceros fuera de la banda.
Como en muchos problemas con sistemas bandeados, no se requiere el pivoteo; los algoritmos alternos, que se
describirán a continuación, son los métodos seleccionados para tal fin.
El método de Gauss-Seidel es el método iterativo más comúnmente usado. Suponga que se da un sistema de n
ecuaciones:
A]{X} = {B}
Suponga que se limita a un conjunto de ecuaciones de 3 × 3. Si los elementos de la diagonal no son todos cero, la
primera ecuación se puede resolver para x1, la segunda para x2 y la tercera para x3, para obtener
Ahora, se puede empezar el proceso de solución al escoger valores iniciales para las x. Una forma simple para
obtener los valores iniciales es suponer que todos son cero. Estos ceros se sustituyen en la ecuación (11.5a), la
cual se utiliza para calcular un nuevo valor x1 = b1/a11. Después, se sustituye este nuevo valor de x1 junto con
el valor previo cero de x3 en la ecuación (11.5b) y se calcula el nuevo valor de x2. Este proceso se repite con la
ecuación (11.5c) para calcular un nuevo valor de x3. Después se regresa a la primera ecuación y se repite todo el
procedimiento hasta que la solución converja suficientemente cerca a los valores verdaderos.
Conforme un nuevo valor de x se calcula con el método de Gauss-Seidel, éste se usa inmediatamente en la
siguiente ecuación para determinar el otro valor de x. De esta forma, si la solución es convergente, se empleará
la mejor aproximación disponible. Un método alternativo, llamado iteración de Jacobi, emplea una táctica algo
diferente. Más que usar inmediatamente el último valor disponible de x, esta técnica usa la ecuación (11.5) para
calcular un conjunto de nuevas x con base en un conjunto de x anteriores. De esta forma, conforme se generan
nuevos valores, no se usan en forma inmediata, sino que se retienen para la siguiente iteración.
La diferencia entre el método de Gauss-Seidel y la iteración de Jacobi se muestra en la figura 11.4. Aunque hay
ciertos casos donde es útil el método de Jacobi, la utilización de Gauss-Seidel da la mejor aproximación y
usualmente lo hace el método preferido.
11.2.1 Criterio de convergencia para el método de Gauss-Seidel
Ilustración gráfica de la
diferencia entre los métodos
de a) Gauss-Seidel y b)
iterativo de Jacobi, para
resolver sistemas de
ecuaciones algebraicas
lineales.
El coeficiente diagonal en
cada una de las ecuaciones
debe ser mayor que la suma
del valor absoluto de los otros
coeficientes de la ecuación.
Este criterio es suficiente pero
no necesario para la
convergencia. A los sistemas
que cumplen con la ecuación
se les conoce como
diagonalmente dominantes.
FÓRMULAS DE INTEGRACIÓN DE NEWTON-COTES
Las fórmulas de Newton-Cotes son los tipos de integración numérica más comunes. Se basan en la
estrategia de reemplazar una función complicada o datos tabulados por un polinomio de aproximación que
es fácil de integrar
donde, en este caso, h = (b – a)/2. Esta ecuación se conoce como regla de Simpson 1/3. La especificación
“1/3” se origina del hecho de que h está dividida entre 3 en la ecuación.
LA REGLA DE SIMPSON 1/3 DE APLICACIÓN MÚLTIPLE
Así como en la regla del trapecio, la regla de Simpson se mejora al dividir el intervalo de integración en
varios segmentos de un mismo tamaño
La integral total se puede representar como
Observe que se debe utilizar un número par de segmentos para implementar el método. Además, los
coeficientes “4” y “2” a primera vista parecerían peculiares. No obstante, siguen en forma natural la regla
de Simpson 1/3. Los puntos impares representan el término medio en cada aplicación y, por lo tanto, llevan
el peso de 4. Los puntos pares son comunes a aplicaciones adyacentes y, por lo tanto, se cuentan dos veces.
CAPÍTULO 25 MÉTODOS DE RUNGE-KUTTA
Nuevo valor = valor anterior + pendiente × tamaño de paso
yi+1 = yi + h
MÉTODO DE EULER
EJEMPLO
Planteamiento del problema. Con el método de Euler integre numéricamente la ecuación (PT7.13) desde x =
0 hasta x = 4 con un tamaño de paso 0.5. La condición inicial en x = 0 es y = 1.
a) Comparación de dos soluciones numéricas con el método de Euler usando tamaños de paso 0.5 y 0.25. b)
Comparación del error de truncamiento local verdadero y estimado donde el tamaño de paso es 0.5. Observe que el
error “estimado” se basa en la ecuación (E25.2.5).
RUGEN-KUTTA
2° ORDEN 3° ORDEN
4° ORDEN