Está en la página 1de 45

Métodos Numéricos: Resumen para RCP

Resumen teórico - conceptual para


Resolución Conceptual de Problemas
Leonardo Alberto Desimone*
15 de noviembre de 2021

Introducción
El presente resumen conceptual lo confeccioné al momento de estudiar para la resolución conceptual de
problemas para la asignatura de Métodos Numéricos, para dicho escrito se empleó la bibliografı́a usada por
la cátedra [1]. Se recomienda estudiar del libro (Ver Referencia [1]) y usar este resumen como guı́a dado
que no se garantiza la total comprensión de la materia.
Leonardo Alberto Desimone
Noviembre, 2021.

Índice
1. Unidad I: Modelos, computadoras y análisis del error 3
1.1. Aproximaciones y errores de redondeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Exactitud y precisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Definiciones de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Errores de redondeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5. Errores de truncamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.6. Error numérico total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2. Unidad II: Raı́ces de ecuaciones 6


2.1. Métodos cerrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.1. Método de la Bisección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.2. Método de la Falsa Posición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.3. Algoritmo Bisección y Falsa posición . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2. Métodos abiertos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.1. Iteración simple de punto fijo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.2. Método de Newton - Raphson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.3. Método de la Secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3. Raı́ces múltiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
*
leonardo.desimone@mi.unc.edu.ar

Leonardo Alberto Desimone 1 de 45


Métodos Numéricos: Resumen para RCP

3. Unidad III: Ecuaciones algebraicas lineales 11


3.1. Eliminación de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.1.1. Dificultades en los métodos de eliminación . . . . . . . . . . . . . . . . . . . . . . 12
3.1.2. Técnicas para mejorar las soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2. Descomposición LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.1. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3. Matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3.1. Método de Gauss - Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3.2. Método de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4. Unidad IV: Optimización 15


4.1. Métodos de Optimización Unidimensionales . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.1.1. Método de la sección dorada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.1.2. Método de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.1.3. Método de la interpolación cuadrática . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.2. Optimización multidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.2.1. Métodos directos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.2.2. Métodos de gradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

5. Unidad V: Ajuste de curvas 19


5.1. Regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.1.1. Regresión por mı́nimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.2. Interpolación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.2.1. Interpolación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.2.2. Interpolación cuadrática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.2.3. Forma general de los polinomios de interpolación de Newton . . . . . . . . . . . . . 21
5.2.4. Polinomios de interpolación de Lagrange . . . . . . . . . . . . . . . . . . . . . . . 21

6. Unidad VI: Derivación e integración numéricas 23


6.1. Fórmulas de Newton - Cotes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.2. Regla del trapecio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.3. Regla de Simpson 1/3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.4. Regla de Simpson 3/8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
6.5. Integración de ecuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
6.5.1. Extrapolación de Richardson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
6.5.2. Algoritmo de Romberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
6.6. Derivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

7. Unidad VII: Ecuaciones diferenciales ordinarias 31


7.1. Métodos de Runge - Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.1.1. Método de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.1.2. Método de Heun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.1.3. Método del Punto medio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
7.1.4. Método de Runge - Kutta de cuarto orden . . . . . . . . . . . . . . . . . . . . . . . 33

Leonardo Alberto Desimone 2 de 45


Métodos Numéricos: Resumen para RCP

1. Unidad I: Modelos, computadoras y análisis del error


Los métodos numéricos constituyen técnicas mediante las cuales es posible formular problemas ma-
temáticos de tal forma que pueden resolverse utilizando operaciones aritméticas; comparten en común que
requieren un buen número de tediosos cálculos aritméticos.
Existen diversas razones por las cuales se deben estudiar los MN:

Son herramientas muy poderosas para la solución de problemas

Son programables (dependen del entendimiento básico)

Escape a los programas enlatados

Vı́nculo con las computadoras para aprender a programar

Método para reforzar la compresión matemática (Entendimiento de las mates superiores con las mates
básicas).

Las temáticas que se abordarán mas adelante son las siguientes:

Raı́ces de ecuaciones.

Sistemas de ecuaciones lineales algebraicas.

Optimización.

Ajuste de curvas.

Integración y derivación numéricas.

Ecuaciones diferenciales ordinarias.

Un modelo matemático se define como una formulación o una ecuación qye expresa las caracterı́sticas
esenciales de un sistema fı́sico o de un proceso en términos matemáticos.

Vd = f (Vi , parametros, f unciones de f uerza) (1)


en donde:
Vd Variable dependiente, refleja comportamiento o estado del sistema.
Vi Variable independiente, dimensiones tales como el tiempo y el espacio.
parametros Son el reflejo de las propiedades o la composición del sistema.
f unciones de f uerza Son las influencias externas.

1.1. Aproximaciones y errores de redondeo


Entender el concepto de error es tan importante para utilizar en forma efectiva los MN. Se recuerda que
los MN dan solo una aproximación a la solución real; tienen un cierto error estos resultados y este se debe
a diversos motivos.
La perfección es imposible de llevarse a la práctica y se debe trabajar en el control de los errores. Los
errores numéricos más comunes son los erroes de redodneo y los errores de truncamiento.

Leonardo Alberto Desimone 3 de 45


Métodos Numéricos: Resumen para RCP

Cifras significativas: Se desarrolló para designar formalmente la confiabilidad de un valor numérico. Las
cifras significativas de un número son aquellas que pueden utilizarse en forma confiable. Se trata del número
de dı́gitos que se ofrecen con certeza, mas uno estimado. Los ceros NO SIEMPRE son cifras significativas;
ya que pueden usarse solo para ubicar el punto decimal. El concepto tiene dos implicaciones importantes:

Se deben desarrollar criterios para especificar que tan confiables son dichos resultados; una manera
de hacerlo son en términos de cifras significativas.

π, e, 7 expresan cantidades especı́ficas pero jamás podrán expresar con exactitud (hasta el infinito);
a la omisión del resto de cifras significativas se lo conoce como error de redondeo.

1.2. Exactitud y precisión


La exactitud se refiere a que tan cercano está el valor
calculado o medido del verdadero. La precisión se refiere
a que tan cercanos se encuentran; unos de otros, diversos
valores calculados o medidos.
La inexactitud se define como una desviación sis-
temática del error verdadero (o sesgo); mientras que la
imprecisión se refiere a la magnitud en la dispersión de
los disparos (o incertidumbre). (Ver Figura 1). Los Méto-
dos Numéricos deben tratar de ser lo mas exactos y pre-
cisos posibles.

1.3. Definiciones de error


Los errores numéricos surgen del uso de aproxima-
ciones para representar operaciones y cantidades ma-
temáticas exactas; se incluyen los errores de truncamien-
to (empleo de aproximaciones como procedimiento ma-
temático exacto) y los de redondeo (se usan números con
Figura 1: Exactitud y precisión. lı́mite finito de cifras significativas). Para ambos casos se
tiene:

ValorT rue = Valoraprox + error

re ordenando queda como:

ET rue = ValorT rue − ValorAprox


Como desventaja no se toma en cuenta el orden de magnitud del error que se estima. Para tomar en
cuenta estas magnitudes; se normaliza al error respecto del valor verdadero, es decir:
errorT
Ea =
ValorT
con la variante porcentual serı́a:

Leonardo Alberto Desimone 4 de 45


Métodos Numéricos: Resumen para RCP

errort
ϵt = · 100 %
valort
En donde ϵt es el error relativo porcentual verdadero. Se recuerda que los MN no se conoce el valor
verdadero por que se trabajará respecto al valor aproximado.
errora
ϵa = · 100 % (2)
valora
En los métodos numéricos iterativos se emplea:
aprox actual − aprox anterior
ϵa = · 100 % (3)
aprox actual
Se trabajará hasta que |ϵa | < ϵ s siendo ϵ s el nivel aceptable. Se relacionan también con el número de
cifras significativas:

ϵ s = (0,5 × 102−n ) % (4)

1.4. Errores de redondeo


Se originan por la computadora,
√ emplea un número determinado de cifras significativas durante el cálcu-
lo. Números como π, e ó 7 no pueden expresarse como un número fijo de cifras significativas. La discre-
pancia por la omisión de cifras significativas se llama error de redondeo.

1.5. Errores de truncamiento


Se presnetan al usar una aproximación en lugar de un procedimiento matemático exacto. Por ejemplo:
dV ∆V Vi+1 − Vi
≈ =
dt ∆t ti+1 − ti
En donde se aproxima el valor verdadero de la derivada con una
diferencia finita. La Serie de Taylor proporciona un medio para pre-
decir el valor de una función en un punto en términos del valor de la
función y sus derivadas en otro punto; cualquier función suave pue-
de aproximarse por un polinomio. La serie de Taylor será útil para
la estimación de los errores de truncamiento.

1.6. Error numérico total


Será la suma de los errores de truncamiento y de redondeo. Para
minimizar los errores de redondeo consiste en incrementar las cifras
significativas. En contraste el error de truncamiento se reduce dis-
minuyendo el tamaño del incremento. Los errores de truncamiento Figura 2: Error numérico total.
disminuye conforme los errores de redondeo se incrementan. Esto
se puede apreciar en la Figura 2.

Leonardo Alberto Desimone 5 de 45


Métodos Numéricos: Resumen para RCP

2. Unidad II: Raı́ces de ecuaciones


Las raı́ces de una ecuación son aquellos valores de x que producen que f (x) = 0 también se los conoce
como los ceros de la función.
Los métodos para la resolución de este tipo de problemas se dividen en dos tipos, métodos cerrados y
abiertos.
Este tipo de problema de raı́ces de ecuaciones se selecciona cuando debo obtener o despejar el valor de
una incógnita especı́fica.

2.1. Métodos cerrados


Entre los métodos cerrados a estudiar se tienen el método de la Bisección y el de la Falsa posición.

2.1.1. Método de la Bisección


Se aprovecha del cambio de signo entre xl y xu . Es un método de búsqueda incremental y en este el
intervalo se divide siempre a la mitad. Si la función cambia de signo sobre un intervalo, se evalua el valor
de la función en el punto medio.

2.1.2. Método de la Falsa Posición


Aprovecha una visualización gráfica y une f (xu ) y f (xl ) con una lı́nea recta; representa una mejor apro-
ximación de la raı́z. El algoritmo es similar lo que cambia es la fórmula. El error decrece mas rápido en FP
que en bisección.
Existe una desventaja en FP; en los cuales, bisección es mejor. Sucede que en ciertas funciones su
unilateralidad lo condiciona; conforme se avanza en las iteraciones uno de los puntos tienden a permanecer
fijo; puede llevar a una mala convergencia (por la forma de la función).

2.1.3. Algoritmo Bisección y Falsa posición


Paso 1: Se eligen valores iniciales xl y xu que encierren la raı́z (presencia de un cambio de signo)
f (xl ) · f (xu ) < 0.

Se realiza una aproximación a xr mediante las fórmulas (Bisección o Falsa Posición respectivamente):

Biseccion
xl + xu
▶ xr = (5)
2

Falsa posicion
f (xu ) · (xl − xu )
▶ xr = xu − (6)
f (xl ) − f (xu )

Se realizan las siguientes evaluaciones:

Leonardo Alberto Desimone 6 de 45


Métodos Numéricos: Resumen para RCP

1. Si f (xl ) · f (xu ) < 0; la raı́z está en el subintervalo inferior o izquierdo xu = xr y vuelvo a 2.


2. Si f (xl ) · f (xu ) > 0; la raı́z está en el subintervalo superior o derecho xl = xr y vuelvo a 2.
3. Si f (xl ) · f (xu ) = 0; la raı́z es igual a xr ; se termina el cálculo.

2.2. Métodos abiertos


Son métodos que requieren uno o dos valores para iniciar; estos
no necesariamente encierran a la raı́z. Los métodos abiertos pueden
divergir aunque al converger lo hacen más rápido que los métodos
cerrados. Entre los métodos que se estudiarán se tienen; Iteración
simple de punto fijo; el Método de Newton - Raphson y el Método
de la Secante.

2.2.1. Iteración simple de punto fijo


Se proporciona una fórmula para predecir un nuevo valor de x en
función del valor anterior de x. Posee una ” Convergencia lineal ”
caracterı́stica del método (Esto significa que el error es proporcional
a un factor y decrece conforme a este, en el caso de este método será
un factor de 0,5 ó 0,6). La fórmula del método es la siguiente:

Iteracion simple de punto fijo


▶ xi+1 = g(xi ) (7)

Con el método de las dos curvas se puede visualizar la conver-


gencia o divergencia en él método. Gráficamente la intersección de
las dos curvas me da la raı́z (Ver Figura 3). Es un método gráfico
Figura 3: Visualización gráfica del alternativo dado que también se podrı́a graficar la totalidad de la
Método de iteración simple de punto función sin separarla en dos curvas y ver la intersección que esta
fijo. tiene con el eje x.

y1 = x
y2 = g(x)

La convergencia del método se logra si |g(x)′ | < 1; ocurre si la magnitud de la pendiente de g(x) es
menor que la pendiente de la recta f (x) = x. En la Figura 4 se muestran distintos casos de convergencia y
divergencia del método, con comportamiento monótono y con comportamiento oscilatorio.

Leonardo Alberto Desimone 7 de 45


Métodos Numéricos: Resumen para RCP

Figura 4: Representación gráfica en a) y b) de la convergencia. En c) y d) de la divergencia del método


de punto fijo. Las gráficas a) y c) tienen un comportamiento monótono; mientras que b) y d) tienen un
comportamiento oscilatorio o en espiral. Deberá notar que la convergencia se obtiene cuando |g(x)′ | < 1.

2.2.2. Método de Newton - Raphson


Es el método mas ampliamente utilizado; siendo el valor inicial
para la raı́z xi ; se puede trazar una tangente que cruza al eje de las
x (donde estará presuntamente el valor de la raı́z) (tangente desde
(xi ; f (xi ))) (Ver Figura 5). Su fórmula es la siguiente:

Metodo de Newton - Raphson


f (xi )
▶ xi+1 = xi − (8)
f ′ (xi )

Posee convergencia cuadrática (se duplican las cifras significati-


vas en cada iteración), cuando converge lo realiza más rápidamente
Figura 5: Visualización gráfica del que los demás métodos.
Método de Newton - Rapshon.
Presenta algunas desventajas; podrı́a tener una convergencia
muy lenta. Esto dependerá de la naturaleza de la función y de la
calidad del valor inicial. Se presentan otras cuatro problemáticas;
puntos de inflexión en la vecindad de la raı́z; oscilaciones alrededor

Leonardo Alberto Desimone 8 de 45


Métodos Numéricos: Resumen para RCP

de máximos y mı́nimos locales; tendencia a alejarse por pendientes


cercanas a 0 y finalmente si hay una pendiente igual a 0 la solución se dispara horizontalmente.
La convergencia depende en gran medida de la naturaleza de la función y de la exactitud del valor inicial.
Los buenos valores iniciales vienen de la mano con el conocimiento del problema fı́sico como también con
el uso de recursos adicionales como gráficas.

2.2.3. Método de la Secante

El problema del Método de Newton - Raphson ademas de lo an-


tes mencionado puede ser en el cálculo de su derivada (algunas fun-
ciones son muy complicadas de derivar); por eso se utiliza una apro-
ximación numérica de la derivada (en forma de una diferencia finita
dividida hacia atrás). Esta aproximación de la derivada da origen al
Método de la Secante (Ver Figura 6). Su fórmula es la siguiente:

Metodo de la Secante
f (xi ) · (xi−1 − xi )
▶ xi+1 = xi − (9)
f (xi−1 ) − f (xi )

Existe una diferencia crı́tica entre el Método de la Falsa posición Figura 6: Visualización gráfica del
y el Método de la Secante (Se observa que las fórmulas de estos Método de la secante.
son prácticamente las mismas, es clave tener en claro cuales son sus
diferencias). Se listan dichas diferencias a continuación:

Método de la Falsa Posición

• La aproximación puede reemplazar a cualquiera de los


dos valores extremos.
• Siempre encierra a la raı́z.
• Siempre converge (Es un método cerrado).

Método de la Secante

• El reemplazo de los valores es en forma estricta.


• Los valores no siempre encierran a la raı́z.
• No siempre converge, puede divergir (es un método abierto).

Aunque el Método de la Secante pueda ser divergente; si converge, lo hace más rápido que el de la Falsa
Posición, esté último es inferior dado que un punto siempre tiende a permanecer fijo para asi lograr que la
ra raı́z esté siempre encerrada en el intervalo.

Leonardo Alberto Desimone 9 de 45


Métodos Numéricos: Resumen para RCP

En la Figura 7 se muestra una comparación de los distin-


tos métodos vistos para raı́ces y como con el incremento del
número de iteraciones, el error relativo porcentual de cada uno
de ellos decrece de formas distintas y siendo mas pronunciado
en los métodos abiertos (siendo el caso de estos en el que son
convergentes o se presenta un caso de convergencia; cuando
un método abierto diverge el error relativo porcentual se in-
crementa dado que nos alejamos cada vez mas de la solución.
Se recuerda que el error de redondeo en los métodos iterativos
no se acumulará siempre que estos métodos iterativos tengan
convergencia, de no ser este el caso el error de redondeo se
acumulará conforme el número de iteraciones se incremente.
La razón de este largo paréntesis incluido aquı́ en el presente
escrito es que fue una de las preguntas que se me realizaron en
el coloquio y las cuales no supe responder, mi profesor ama-
blemente me explicó la respuesta y por eso la incluyo aquı́.
Respuesta a la pregunta ”¿El error de redondeo se acumula en
los métodos iterativos?”).

Figura 7: Comparación de los métodos vis-


2.3. Raı́ces múltiples
tos.
Son métodos especiales para encontrar múltiples raı́ces
tanto reales como complejas de polinomios. Se tienen los
Métodos de Müller y el de Bairstow (No dado en el cursado
regular de la materia o mas bien descontinuado dado que hasta
hace algunos años se lo daba. Para mas información de este ultimo consultar la bibliografı́a [1]).

El Método de Müller es similar al método de la Secante vis-


to anteriormente pero en lugar de utilizar una recta se emplea
una parábola (Ver Figura 8). Para ello se emplean tres puntos,
necesarios para ajustar un polinomio de grado 2.
Se buscan obtener los coeficientes de dicha parábola y una
vez obtenidos estos se empleará la fórmula de Bhaskara para
calcular las raı́ces. Al usar la fórmula cuadrática se pueden de-
terminar las raı́ces reales y complejas con relativa facilidad, es
una de las ventajas de este método. Una problemática es que
se tienen dos raı́ces producto del ± en la fórmula; se deberá
escoger el signo de la raı́z de acuerdo al signo del coeficiente
b.

Figura 8: Método de Müller.

Leonardo Alberto Desimone 10 de 45


Métodos Numéricos: Resumen para RCP

3. Unidad III: Ecuaciones algebraicas lineales


Muchas de las ecuaciones fundamentales en ingenierı́a se basan en leyes de conservación (masa, energı́a,
momentum, etc). Nos conducen a las ecuaciones de balance ó de continuidad que relacionan el comporta-
miento del sistema.
Los sistemas con multicomponentes resultan en un sistema de ecuaciones matemáticas que deben resol-
verse de manera simultánea (puesto que se relacionan entre ellas).
Se tienen los siguientes procedimientos:

Eliminación de Gauss

Descomposición LU

Método de Gauss - Seidel

Jacobi

3.1. Eliminación de Gauss


Se desarrolla un esquema sistemático o algorı́tmico para la eli-
minación de incógnitas y luego sustitución hacia atrás. La elimina-
ción guassiana siemple no evita la división por cero.
Se busca resolver un sistema de n ecuaciones en dos fases se
muestran en la Figura 9.

La eliminación de incógnitas; en esta fase el sistema se reduce


a uno triangular superior.

La substitución hacia atrás; reducido a su forma triangular su-


perior se procede con la substitución hacia atrás una a una des-
de la última ecuación hasta la primera siendo la última ecua-
ción resoluble de forma directa.

El tiempo de ejecución en la eliminación gaussiana depende de


Figura 9: Las dos fases de la elimina-
la cantidad de operaciones con punto flotante (ó Flop). Las multipli-
ción de Gauss: eliminación hacia ade-
caciones y divisiones consumen el mismo tiempo y este es superior
lante y sustitución hacia atrás.
al de las sumas y las restas.
El número total de flops es igual a 2n3 /3 mas una componente
adicional de proporcionalidad para términos de orden n2 y meno-
res. Para n grande; el esfuerzo necesario para la eliminación hacia
adelnate converge a 2n /3.
3

Conforme el sistema se vielve mas grande; el tiempo de cálculo aumenta enormemente. Flop aumenta
tres órdenes de magnitud por cada aumento de dimensión.

El proceso de eliminación es el que más tiempo toma y mas esfuerzo demanda. Se debe optimizar este
para mejorar el método.

Leonardo Alberto Desimone 11 de 45


Métodos Numéricos: Resumen para RCP

3.1.1. Dificultades en los métodos de eliminación


División por cero; también se puede prestar problemas cuando el número es muy próximo a cero (en
las normalizaciones). El pivoteo se utiliza para evitar estos problemas.

Errores de redondeo; por la cantidad limitada de cifras. Llega a ser preocupante cuando se deben
resolver muchas ecuaciones. (Dado que cada resultado depende del anterior, el error de redondeo se
propaga). Se vuelve importante el error cuando los sistemas son de 100 ecuaciones o más.

Sistemas mal condicionados; Los sistemas bien condicionados son aquellos en los que un pequeño
cambio en uno o más coeficientes provoca un cambio pequeño en la situación. En los mal condiciona-
dos un pequeño cambio en los coeficientes genera grandes cambios en las soluciones. En los sistemas
mal condicionados el determinante de la matriz es cero o muy cercano a cero (lo que indica que no
hay solución ó que hay infinitas soluciones); para calcular el determinante se puede aprovechar la
reducción del sistema a triangular superior por Gauss y el determinante se calculará como el producto
de los elementos de la diagonal principal.

3.1.2. Técnicas para mejorar las soluciones


Uso de mas cifras significativas; Consiste en usar más cifras significativas en los cálculos (reduce
errores de redondeo) pero esto conlleva mayor costo en los equipos dado que se necesita mas memoria
para trabajar.

Pivoteo; Evita la división por cero y reduce el error de redondeo. Se busca el elemento mas grande de
la columna e intercambio de filas para dejarlo como elemento pivote (esto es conocido con el nombre
de pivoteo parcial); se podrı́a también hacer un barrido a lo largo de las filas pero esto rara vez se
utiliza (pivoteo completo).

Escalamiento; Se usa para la estandarización del tamaño del determinante y la minimización de los
errores de redondeo. Esto se utiliza en los casos donde los coeficientes de la matriz son muy grandes
unos respecto de otros. Para realizarlo se divide cada fila por el máximo y se busca el máximo de la
columna (el máximo deberá ser igual a 1).

3.2. Descomposición LU
El sistema se re ordena a [A] {x} − {B} = 0; se supone que se puede expresar como un sistema triangular
superior, se tomará un sistema de 3 × 3 para simplificar la explicación:
     
u11 u12 u13   x1  d1 
 0 u22 u23  ×  x2  = d2 
     
0 0 u33 x3 d3
Se re expresa como [U] {x} − {D} = 0 ; se supone la existencia de una matriz diagonal inferior que
poseerá la siguiente propiedad:
 
 1 0 0
[L] = l21 1 0
 
l31 l32 1
 

Leonardo Alberto Desimone 12 de 45


Métodos Numéricos: Resumen para RCP

[L] {[U] {x} − {D}} = [A] {x} − {B}


Se obtendrá que [L][U] = [A] y que [L] {D} = {B}. Se tienen entonces dos pasos:

Descomposición LU, la matriz A se descompone en L y U.

Substitución [L] y [U] se usan para determinar {x} para un lado derecho {B}. Se genera un vector
intermedio {D} y se reemplaza y substituye hacia atrás para encontrar a {x}.

La Descomposición LU que implica la descomposición de A en L y U se lleva a cabo por Gauss por


ejemplo. U aparece en el proceso de eliminación y L aparece durante el paso donde se almacenan los factores
para ir reduciendo el sistema. Todo se representa esquemáticamente en la Figura 10.

Figura 10: Pasos en la descomposición LU.

3.2.1. Matriz inversa


Se puede calcular columna por columna dándole valores al vector {B} de 1 y 0 a los elementos restantes
(Como si calculara la matriz de rigidez en Cálculo Estructural). Se resuelve sucesivamente los sistemas y
obtengo columna por columna de A−1 , obtenida la matriz A−1 se debe verificar que A−1 × A = I. La matriz
inversa me sirve para el condicionamiento:

Si escalo A y obtengo A−1 con coeficientes grandes el sistema estará mal condicionado.

Si A−1 × A me da muy distante de la matriz identidad I, el sistema estará mal condicionado.

Si invierto A−1 y encuentro grandes diferencias con respecto a la matriz A original, el sistema estará
mal condicionado.

Se pude formular el N° de condición de una matriz como Cond[A] = ||A|| ||A−1 ||, dicho valor podrá ser 1
o mayor; valores muy grandes me reflejan muy mal condicionamiento.

Leonardo Alberto Desimone 13 de 45


Métodos Numéricos: Resumen para RCP

3.3. Matrices especiales


Son matrices que poseen una estructura particular, en-
tre estas se encuentran las matrices bandeadas (Solo tie-
ne parecencia de elementos sobre su diagonal principal
y los demás son cero) (matrices hinchas de River) y las
matrices simétricas. Se deben plantear métodos eficientes
de resolverlas, entre ellos están los métodos iterativos de
Gauss - Seidel y Jacobi. Los métodos de eliminación co-
mo Gauss y LU no son eficientes dado que se trabajarán
con ceros inútiles y el pivoteo no será necesario. Teniendo
esto último en mente es posible programar métodos que
puedan trabajar y ahorrar espacio de trabajar con dichos
ceros molestos.

3.3.1. Método de Gauss - Seidel


Figura 11: Ilustración gráfica de la diferencia en-
Es el método mas comúnmente usado y cuenta con lo tre los métodos de a) Gauss-Seidel y b) iterativo
siguiente (Ver además la Figura 11): de Jacobi, para resolver sistemas de ecuaciones
algebraicas lineales.
Método iterativo usado que constituye alternativa a
los métodos de eliminación.
Suponer un valor y luego usar un método sistemáti-
co para obtener una aproximación mejorada del va-
lor.
Se escogen valores iniciales para las x (por ejemplo
que sean 0); se substituyen luego en x1 y con x1
calculo x2 y x3 con 0. Se repite el proceso con las
n ecuaciones (armadas teniendo en cuenta que la
matriz es bandeada); se vuelve luego de terminar a
x1 y se repite todo el procedimiento.
Si la solución es convergente se empleará la mejor aproximación posible (Método de Jacobi).
La convergencia será similar a la de iteración simple de punto fijo (puede no converger o que esta sea
sumamente lenta). El valor absoluto de las pendientes de las ecuaciones deben ser menores a 1 para
lograr convergencia. El elemento diagonal debe ser mayor que el elemento fuera de la diagonal para
cada renglón, el sistema será convergente si se trata de un Sistema Diagonalmente Dominante.

3.3.2. Método de Jacobi


Mas que usar inmediatamente el último valor de x; esta técnica calcula un conjunto de x con base el
el conjunto de x anteriores.
Las x no se usan de forma inmediata; se retienen hasta la siguiente iteración.
Jacobi se usa en ciertos casos; se prefiere de base siempre a Gauss - Seidel.

Leonardo Alberto Desimone 14 de 45


Métodos Numéricos: Resumen para RCP

4. Unidad IV: Optimización


La optimización es la búsqueda ya sea de un mı́nimo ó de un máximo (Correspondiente a cuando la
derivada primera es igual a cero ó f ′ (x) = 0). Una forma de clasificar los problemas de optimización es si son
unidimensionales ó multidimensionales. En la Figura 12 se muestran caso unidimensional y bidimensional.

Figura 12: a) Optimización unidimensional y b) Optimización bidimensional.

4.1. Métodos de Optimización Unidimensionales


Son métodos empleados para encontrar el mı́nimo o máximo de una
función de una sola variable. Se persigue el objetivo de que dicho punto
a encontrar sea el absoluto.
Los métodos se pueden dividir en cerrados y abiertos. Se tienen los
siguientes:
Método de la sección dorada.
Método de la Interpolación cuadrática.
Método de Newton.

Figura 13: Método de la sección 4.1.1. Método de la sección dorada


dorada.
En esencia es similar al método de la Bisección (Ver Figura 13); se
debe definir un intervalo que contenga una sola respuesta. El intervalo
deberá contener sólo un máximo (unimodal).
Se definen un lı́mite inferior xl y uno superior xu . Se necesitarán tres
valores de la función para detectarlo (se escoge un punto más dentro del
intervalo). Después se debe tomar un cuarto punto ; la prueba para el máximo se encuentra dentro de los
primeros tres ó de los últimos tres. Se deben seleccionar adecuadamente los puntos intermedios y se debe
minimizar la evaluación de la función.

Leonardo Alberto Desimone 15 de 45


Métodos Numéricos: Resumen para RCP

Se eligen dos puntos interiores de acuerdo a la sección dorada (R =


0,61803...). (Ver Figura 14).

Se valúan y se comparan dichos puntos. La región que no contenga


eliminará.

Si f (x1 ) > f (x2 ); el dominio de x a la izquierda de x2 ; se puede


eliminar (xl a x2 ) y x2 = xl en la siguiente vuelta.

Si f (x2 ) > f (x1 ) se elimina el dominio a la derecha de x1 ; de x1 a


xu (x1 será a xu ) en la siguiente iteración.

x1 = xl + d

x2 = xu − d

5−1
2
· (xu − xl )

Figura 14: a) El paso inicial in-


volucra escoger dos puntos inte-
4.1.2. Método de Newton
riores de acuerdo con la razón
Es un método abierto similar al Método de Newton - Rapshon de dorada. b) El segundo paso im-
búsqueda de raı́ces; no requiere encerrar al óptimo y por su carácter de plica definir un nuevo intervalo
método puede llegar a divergir. Funciona bien aunque no es práctico en que incluya el valor óptimo.
los casos con derivadas difı́ciles de calcular; se pueden desarrollar aproxi-
maciones en diferencias finitas para evaluar las derivadas. Su convergen-
cia dependen de la naturaleza de la función y del valor inicial (su calidad).
Como desventajas podrı́a llegar a ser divergente según la naturaleza de
la función además se debe verificar que la segunda derivada tenga el signo
correcto para confirmar que la técnica converge al resultado deseado (es
una técnica que se utiliza cuando podemos saber con certeza que estamos
cerca del valor óptimo).

Metodo de Newton
f ′ (xi )
▶ xi+1 = xi − (10)
f ′′ (xi )

Leonardo Alberto Desimone 16 de 45


Métodos Numéricos: Resumen para RCP

4.1.3. Método de la interpolación cuadrática


Previo a aplicar este método debo verificar que el punto óptimo
esté en una región donde la curva sea semejante a la de un polinomio
de grado dos.
El método aprovecha la ventaja de un polinomio de segundo gra-
do; proporciona una buena aproximación a la forma de f (x) en las
cercanı́as del valor óptimo (Ver Figura 15).
Se tienen tres valores iniciales (x0 , x1 , x2 ) y x3 es el valor de x
que corresponde al máximo del ajuste cuadrático para los valores
iniciales.
Posee una desventaja; un extremo del intervalo podrı́a permane-
cer fijo; puede darse el caso de una convergencia súper lenta. Como
Figura 15: Descripción gráfica de la
ventaja se tiene que no se evalúa la derivada y es apropiado para
interpolación cuadrática.
funciones con un intervalo definido fácilmente y las evaluaciones de
la función son demasiadas.

Interpolacion cuadratica

f (x0 )(x12 − x22 ) + f (x1 )(x22 − x02 ) + f (x2 )(x02 − x12 )


▶ x3 = (11)
2 f (x0 )(x1 − x2 ) + 2 f (x1 )(x2 − x0 ) + 2 f (x2 )(x0 − x1 )

4.2. Optimización multidimensional


Búsqueda de óptimo en funciones de varias variables. Los procedimientos se dividen en si se debe
calcular o no la derivada; métodos sin gradiente o directos ó métodos de gradiente.

4.2.1. Métodos directos


Búsqueda aleatoria; se evaluá aleatoriamente la función. Si se realiza un número suficiente de veces
eventualmente el óptimo será localizado. Funciona en discontinuidades y funciones no diferenciales,
además siempre se encuentra el óptimo global mas que local. La principal desventaja es que conforme
crece el número de variables independientes la implementación llega a ser costosa.

• No toma en cuenta el comportamiento de la función.


• No calcula derivadas y con frecuencia son ineficientes.

Búsqueda univariada; Se trabaja solo con una variable a la vez; mientras que otras se mantienen
constantes. Problemas de una dimensión sucesivos. Para ir por la dirección patrón se usa el método de
Powell.

Búsqueda por mallas.

Leonardo Alberto Desimone 17 de 45


Métodos Numéricos: Resumen para RCP

4.2.2. Métodos de gradiente


Utilizan en forma explı́cita información de la derivada para generar algoritmos eficientes que localicen
el óptimo.

Usan primera y algunas veces segundas derivadas para encontrar el óptimo.

Leonardo Alberto Desimone 18 de 45


Métodos Numéricos: Resumen para RCP

5. Unidad V: Ajuste de curvas


Existen dos métodos generales para el ajuste de curvas que se distinguen entre sı́ al considerar la cantidad
de error asociado con los datos. Si estos poseen mucho error; se intenta ajustar una curva que copie la
tendencia general de los datos (este procedimiento es conocido como regresión); si los datos poseen poco
error entre ellos se emplea el ajuste de una curva que contenga a los puntos (este procedimiento se lo conoce
como interpolación).

5.1. Regresión
5.1.1. Regresión por mı́nimos cuadrados
Se determina una curva que siga la tendencia general de los
datos; la técnica para lograr tal propósito se llama regresión por
mı́nimos cuadrados.

Regresión lineal
Consiste en el ajuste de una lı́nea recta como se muestra en
la Figura 16; se plantea el siguiente modelo:

y = a0 + a1 · x + e
donde a0 y a1 son constantes y e es el error o residuo, siendo
este último la discrepancia entre el valor verdadero de y y el
valor aproximado ŷ predicho. El criterio para el mejor ajuste
se toma la minimización de la suma del cuadrado de los erro-
res (Para consultar los criterios inadecuados ver la Bibliografı́a
[1]); con dicho criterio se obtiene una única linea recta para un
Figura 16: Regresión lineal.
conjunto de datos.
La lı́nea no pasa por los puntos como en la interpolación.
Cada x tiene una valor fijo; no es una variable aleatoria y se lo asume como matemática y sin error (variable
controlable). Los valores de y en contraparte se los considera aleatorios y poseen todos la misma varianza
σ2 ; para cada x los valores de y deberán tener una distribución Normal con Varianza σ2 constante (Ex-
traı́do de regresión y correlación - Probabilidad y Estadı́stica). Se aplica una regresión lineal a las variables
transformadas con el propósito de determinar la mejor lı́nea recta.

Linealizaciones de relaciones no lineales


Se pueden utilizar tranformaciones para expresar los datos en una forma que sea compatible con la
regresión lineal.

Modelo Exponencial

Modelo de Potencias

Modelo de razón del crecimiento

Leonardo Alberto Desimone 19 de 45


Métodos Numéricos: Resumen para RCP

Regresión polinomial
Otra alternativa es ajustar polinomios a los datos mediante
regresión polinomial. Se extiende el procedimiento de mı́ni-
mos cuadrados a un polinomio de grado superior. Se llegan a
sistemas de ecuaciones y las incógnitas serán los coeficientes
a0 , a1 , ..., an . (Ver Figura 17).
Un polinomio de segundo grado implicará resolver un sis-
tema de ecuaciones de 3 × 3. Se deben limitar a los polino-
mios de grados inferiores para evitar el error de redondeo de
las ecuaciones normales mal condicionadas en sus coeficientes
de grado superior. Las ecuaciones:
Figura 17: Regresión polinomial.
Son lineales respecto a sus coeficientes.

Tiene un error asociado con los datos muy grande (igual


a la lineal).

El error de redondeo se vuelve grande en versiones de


orden superior.

5.2. Interpolación
Para la estimación de los valores entre los datos definidos por
puntos se utiliza la interpolación polinomial. Dados n + 1 puntos,
hay uno y solo un polinomio de grado n que pasa a través de todos
los puntos. Se describen dos alternativas; los polinomios de Newton
y de Lagrange.

5.2.1. Interpolación lineal


Es la que se realiza uniendo dos puntos con una lı́nea recta (po-
linomio de primer grado) (Ver Figura 18).

Interpolacion lineal
f (x1 ) − f (x0 )
▶ f1 (x) = f (x0 ) + · (x − x0 ) (12)
x1 − x0

Figura 18: Interpolación lineal.


f1 indica que es polinomio de interpolación de primer grado. Se usa
una aproximación diferencias finitas divididas de la primer derivada.
Cuanto menor sea el intervalo entre los datos mejor será la aproxi-
mación.

Leonardo Alberto Desimone 20 de 45


Métodos Numéricos: Resumen para RCP

5.2.2. Interpolación cuadrática


Para mejorar la estimación y reducir el error se considera la estrategia de ajustar una curva a la lı́nea que
une los dos puntos. Con tres puntos como datos se puede ajustar un polinomio de segundo grado:

Interpolacion cuadratica
▶ f2 (x) = b0 + b1 (x − x0 ) + b2 (x − x0 )(x − x1 ) (13)

Con evaluaciones con los puntos de dato se determinarán cada uno de los coeficientes.

5.2.3. Forma general de los polinomios de interpolación de Newton


Se extiende el análisis para un polinomio de n-ésimo grado:

fn (x) = b0 + b1 (x − x0 ) + ... + bn (x − x0 )(x − x1 )...(x − xn−1 )


Se usan los puntos asociados para evaluar y obtener cada uno de los coeficientes bn ; con diferencias
finitas. La n-ésima diferencia dividida finita es:
f [xn , xn−1 , ... , x1 ] − f [xn−1 , xn−2 , ... , x0 ]
f [xn , xn−1 , ... , x0 ] =
xn − x0
Estas diferencias sirven para evaluar los coeficientes en las ecuaciones; se obtiene el polinomio de inter-
polación de Newton en diferencias divididas:

Polinomio de interpolacion de Newton en diferencias divididas


▶ fn (x) = f (x0 ) + (x − x0 ) f [x1 , x0 ] + ... + (x − x0 )(x − x1 )...(x − xn−1 ) f [xn , xn−1 , ..., x0 ] (14)

No se requiere puntos igualmente espaciados ó que los x estén ordenados.

El error de truncamiento disminuye conforme aumenta el grado pero se incrementa el de redondeo


(más cálculos).

5.2.4. Polinomios de interpolación de Lagrange


Es una reformulación del polinomio de Newton.

Evita el cálculo de las diferencias divididas y se representa como:

Polinomio de interpolacion de Lagrange


n
X
▶ fn (x) = Li f (xi ) · f (xi ) (15)
i=0

donde:

Leonardo Alberto Desimone 21 de 45


Métodos Numéricos: Resumen para RCP

n
Y x − xj
Li (x) =
x − xj
j=0; j,i i

Cada término Li (x) será 1 en x = xi y 0 en todos los otros puntos. Cada producto Li f (xi ) · f (xi ) toma
el valor f (xi ) en el punto xi . La sumatoria es el único polinomio de n-ésimo grado que pasa exactamente a
través de todos los n + 1 puntos (que son datos).

Es muy simple de implementarse en computadora (mas fácil de programar).

Se usa cuando se conoce el grado del polinomio a interpolar; de lo contrario se usará el polinomio de
interpolación de Newton.

No requiere del cálculo ni del almacenamiento de las diferencias divididas.

Leonardo Alberto Desimone 22 de 45


Métodos Numéricos: Resumen para RCP

6. Unidad VI: Derivación e integración numéricas


6.1. Fórmulas de Newton - Cotes
Se basan en el reemplazo de una función complicada o datos tabulados por un polinomio de aproxima-
ción que es fácil de integrar. Para integración definida se utilizan las fórmulas cerradas de Newton - Cotes.
En las fórmulas de N - C se tienen la Regla del Trapecio y las Reglas de Simpson.

Se pueden aplicar a funciones continuas ó discretas.

Las fórmulas abiertas tienen lı́mites de integración que se extienden mas allá del intervalo donde
aparecen los datos. Son de utilidad para la solución de ecuaciones diferenciales ordinarias y para la
evaluación de integrales impropias.

Las fórmulas cerradas se basan en el reemplazo de una función matemática o de datos tabulados por
un polinomio de interpolación fácil de integrar.

6.2. Regla del trapecio


El polinomio de la ecuación a integrar es de primer grado:
f (a) + f (b)
I = (b − a) ·
2
Geométricamente la regla del trapecio es equivalente a
aproximar el área del trapecio bajo la lı́nea recta que une a
f (a) y a f (b) (Ver Figura 19).

Se puede llegar a tener un Error de truncamiento impor-


tante.

1 ′′
Et = − f (ζ)(b − a)3
12
Figura 19: Regla del Trapecio.
Si la función a integrar es lineal; la regla del trapecio será
exacta. De mas orden ya se presentan errores importantes.

La regla del trapecio se puede aplicar de forma múltiple.

Se usa para mejorar la precisión, dividir el intervalo de integración en varios en varios segmentos y
aplicar el método a cada uno de ellos.

Sumo las áreas de los segmentos para obtener todo el valor de la integral.

El error disminuye conforme se aumentan los segmentos (al duplicar n; el error se divide por cuatro).

La aplicación múltiple está limitada por los errores de redondeo, esto por que al incrementar el número
de cálculos, la máquina limita el número de cifras. Se comete ese error a medida que n llega a un cierto
valor.

Leonardo Alberto Desimone 23 de 45


Métodos Numéricos: Resumen para RCP

La fórmula para aplicar la regla del trapecio de forma múltiple es la siguiente:

Regla del trapecio multiple


n−1
 
h  X
I =  f (x0 ) + + f (xn )

▶ (16)
2 i=1

6.3. Regla de Simpson 1/3


Para lograr mayor precisión en los cálculos se deben to-
mar polinomios de mayor grado, esto da origen a las reglas de
Simpson. En el caso de la Regla de Simpson 1/3 se toma un
polinomio de segundo grado, el cual requiere tres puntos (Ver
Figura 20).

Su error de truncamiento es:

1
Et = − · h5 · f (4) (ζ)
90
La regla de Simpson 1/3 es mas precisa que la regla del
Trapecio, incluso mas de lo esperado dado que es pro-
porcional a la cuarta derivada.
Figura 20: Regla de Simpson 1/3. Es precisa incluso en tercer orden, aún cuando se use
solo tres puntos. Dará resultados exactos en polinomios
cúbicos.

Para aplicar la regla de Simpson 1/3 de forma simple se usa la siguiente fórmula:
h
I= f (x0 ) + 4 f (x1 ) + f (x2 )

3
Para aplicación múltiple:

Se puede subdividir el intervalo en varios segmentos de un mismo tamaño.

Deben ser un N° par de segmentos para implementar el método.

Limitado el método a casos con los valores equidistantes.

Regla de Simpson 1/3 multiple

(b − a) f (x0 ) + 4 · i=1,3,5 f (xi ) + 2 · j=2,4,6 f (x j ) + f (xn )


Pn−1 Pn−2
▶ I= · (17)
3 n

Leonardo Alberto Desimone 24 de 45


Métodos Numéricos: Resumen para RCP

6.4. Regla de Simpson 3/8


Dado que la regla de Simpson 1/3 tiene el limitante del
número par de segmentos se usará Simpson 3/8 para un número
par de segmentos. La regla de Simpson 3/8 se usará en conjun-
to con la regla de Simpson 1/3, para poder integrar en tandas
de segmentos pares e impares (Ver Figura 21).
Se ajustará un polinomio de Lagrange de tercer grado y se
obtiene para la solución simple la siguiente:

3h 
I= f (x0 ) + 3 · f (x1 ) + 3 · f (x2 ) + f (x3 )

8

La regla de Simpson 3/8 tiene un error de truncamiento


igual a:

Figura 21: Regla de Simpson 3/8. 3 5 (4)


Et = − h f (ζ)
80
Siendo la Regla de Simpson 3/8 mas precisa que la de Sim-
pson 1/3. Es útil cuando los segmentos son impares. Se prefiere
a Simpson 1/3 ya que alcanza exactitud de tercer orden con tres
puntos en lugar de los cuatro que requiere Simpson 3/8. En
la práctica se combinan las aplicaciones de Simpson 1/3 y de
Simpson 3/8 para ası́ obtener resultados mas precisos.

6.5. Integración de ecuaciones


Se emplea la extrapolación de Richardson junto con el al-
goritmo de Romberg. Es una técnica recursiva y se utiliza para
generar una estimación de la integral dentro de una tolerancia
de error pre especificada.
El error disminuye conforme n se incrementa; notar que
para grandes valores de n, el error empieza a aumentar con-
forme los errores de redondeo empiezan a dominar. Las reglas
del trapecio y de Simpson de aplicación múltiple algunas ve-
ces resultan inadecuadas para resolver problemas en contextos
donde se necesitan alta eficiencia y errores mı́nimos (Ver Fi-
gura 22). Figura 22: Reglas de Trapecio y Simpson
1/3; lı́mites de precisión.

6.5.1. Extrapolación de Richardson


Es una técnica de corrección de error para mejorar resulta-
dos de la integración numérica con base en la misma estima-
ción de la integral. Dichos métodos usan dos estimaciones de

Leonardo Alberto Desimone 25 de 45


Métodos Numéricos: Resumen para RCP

una integral para calcular una tercera mas exacta; esto se lo co-
noce como la Extrapolación de Richardson. Con distintos órdenes se verá a continuación las aplicaciones
de las fórmulas:
4
I ≈ 3
· I(h2 ) − 13 · I(h1 )
16 1
I ≈ 15
· Im − 15 · Il
64 1
I ≈ 63
· Im − 63 · Il

6.5.2. Algoritmo de Romberg


Los coeficientes de la extrapolación suman uno. Representan facotr de ponderación que conforme au-
menta la exactitud, dan un peso relativamente mayor a la mejor estimación de la integral. Se expresa como:

Algoritmo de Romberg

4k−1 I j+1;k−1 − I j;k−1


▶ I j;k ≈ (18)
4k−1 − 1

en donde I j+1;k−1 y I j;k−1 son las integrales mas y menos exactas. k es el nivel de integración y j para distinguir
entre las estimaciones.
En sı́ntesis el algoritmo de Romberg usa la regla compuesta del trapecio para obtener estimaciones
preliminares; aplicando luego el proceso de extrapolación de Richardson.

6.6. Derivación
Se pueden generar fórmulas de derivación de alta exactitud tomando términos adicionales de la serie de
Taylor. Al incluir los términos de las segundas derivadas se mejora la exactitud en O(h2 ).
Existen dos formas para mejorar la estimación obtenida al emplear diferencias divididas finitas; dismi-
nuir el tamaño de paso ó usar una fórmula de grado superior que emplee mas puntos. Una tercer alternativa
es emplear un procedimiento basado en la Extrapolación de Richardson, utiliza dos estimaciones de la deri-
vada para calcular una tercera estimación mas exacta.
Para aproximaciones por diferencia centrada con O(h2 ), la aplicación de esta fórmula dará una nueva
estimación de la derivada de O(h4 ).

Leonardo Alberto Desimone 26 de 45


Métodos Numéricos: Resumen para RCP

Fórmulas de integración numérica de Newton-Cotes

1. Fórmulas de integración cerrada


1.1. Regla del trapecio

f (x0 ) + f (x1 ) 1
(b − a) − h3 f II (ξ) (1)
2 12

1.2. Regla de Simpson 1/3

f (x0 ) + 4f (x1 ) + f (x2 ) 1


(b − a) − h5 f IV (ξ) (2)
6 90

1.3. Regla de Simpson 3/8

f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 ) 3


(b − a) − h5 f IV (ξ) (3)
8 80

1.4. Regla de Boole

7f (x0 ) + 32f (x1 ) + 12f (x2 ) + 32f (x3 ) + 7f (x4 ) 8 7 VI


(b − a) − h f (ξ) (4)
90 945

1.5.

19f (x0 ) + 75f (x1 ) + 50f (x2 ) + 50f (x3 ) + 75f (x4 ) + 19f (x5 ) 275 7 V I
(b − a) − h f (ξ) (5)
288 12096

2. Fórmulas de integración abierta


2.1. Regla del punto medio

1
(b − a) f (x1 ) + h3 f II (ξ) (6)
3

2.2.

f (x1 ) + f (x2 ) 3 3 II
(b − a) + h f (ξ) (7)
2 4

2.3.

2f (x1 ) + f (x2 ) + 2f (x3 ) 14 5 IV


(b − a) + h f (ξ) (8)
3 45

Leonardo Alberto Desimone 27 de 45


Métodos Numéricos: Resumen para RCP
2.4.

11f (x1 ) + f (x2 ) + f (x3 ) + 11f (x4 ) 95 5 IV


(b − a) + h f (ξ) (9)
24 144

2.5.

11f (x1 ) + 14f (x2 ) + 26f (x3 ) + 14f (x4 ) + 11f (x5 ) 41 7 V I
(b − a) + h f (ξ) (10)
20 140

Leonardo Alberto Desimone 28 de 45


Métodos Numéricos: Resumen para RCP

Fórmulas de derivación numérica

1. Fórmulas de diferencias finitas divididas hacia adelante


1.1. Primera derivada

f (xi+1 ) − f (xi )
f I (xi ) = + O(h) (1)
h
−f (xi+2 ) + 4f (xi+1 ) − 3f (xi )
f I (xi ) = + O(h2 ) (2)
2h

1.2. Segunda derivada

f (xi+2 ) − 2f (xi+1 ) + f (xi )


f II (xi ) = + O(h) (3)
h2
−f (xi+3 ) + 4f (xi+2 ) − 5f (xi+1 ) + 2f (xi )
f II (xi ) = + O(h2 ) (4)
h2

1.3. Tercera derivada

f (xi+3 ) − 3f (xi+2 ) + 3f (xi+1 ) − f (xi )


f III (xi ) = + O(h) (5)
h3
−3f (xi+4 ) + 14f (xi+3 ) − 24f (xi+2 ) + 18f (xi+1 ) − 5f (xi )
f III (xi ) = + O(h2 ) (6)
2h3

1.4. Cuarta derivada

f (xi+4 ) − 4f (xi+3 ) + 6f (xi+2 ) − 4f (xi+1 ) + f (xi )


f IV (xi ) = + O(h) (7)
h4
−2f (xi+5 ) + 11f (xi+4 ) − 24f (xi+3 ) + 26f (xi+2 ) − 14f (xi+1 ) + 3f (xi )
f IV (xi ) = + O(h2 ) (8)
h4

2. Fórmulas de diferencias finitas divididas hacia atrás


2.1. Primera derivada

f (xi ) − f (xi−1 )
f I (xi ) = + O(h) (9)
h
3f (xi ) − 4f (xi−1 ) + f (xi−2 )
f I (xi ) = + O(h2 ) (10)
2h

2.2. Segunda derivada

f (xi ) − 2f (xi−1 ) + f (xi−2 )


f II (xi ) = + O(h) (11)
h2
2f (xi ) − 5f (xi−1 ) + 4f (xi−2 ) − f (xi−3 )
f II (xi ) = + O(h2 ) (12)
h2

Leonardo Alberto Desimone 29 de 45


Métodos Numéricos: Resumen para RCP
2.3. Tercera derivada

f (xi ) − 3f (xi−1 ) + 3f (xi−2 ) − f (xi−3 )


f III (xi ) = + O(h) (13)
h3
5f (xi ) − 18f (xi−1 ) + 24f (xi−2 ) − 14f (xi−3 ) + 3f (xi−4 )
f III (xi ) = + O(h2 ) (14)
2h3

2.4. Cuarta derivada

f (xi ) − 4f (xi−1 ) + 6f (xi−2 ) − 4f (xi−3 ) + f (xi−4 )


f IV (xi ) = + O(h) (15)
h4
3f (xi ) − 14f (xi−1 ) + 26f (xi−2 ) − 24f (xi−3 ) + 11f (xi−4 ) − 2f (xi−5 )
f IV (xi ) = + O(h2 ) (16)
h4

3. Fórmulas de diferencias finitas divididas centradas


3.1. Primera derivada

f (xi+1 ) − f (xi−1 )
f I (xi ) = + O(h2 ) (17)
2h
−f (xi+2 ) + 8f (xi+1 ) − 8f (xi−1 ) + f (xi−2 )
f I (xi ) = + O(h4 ) (18)
12h

3.2. Segunda derivada

f (xi+1 ) − 2f (xi ) + f (xi−1 )


f II (xi ) = + O(h2 ) (19)
h2
−f (xi+2 ) + 16f (xi+1 ) − 30f (xi ) + 16f (xi−1 ) − f (xi−2 )
f II (xi ) = + O(h4 ) (20)
12h2

3.3. Tercera derivada

f (xi+2 ) − 2f (xi+1 ) + 2f (xi−1 ) − f (xi−2 )


f III (xi ) = + O(h2 ) (21)
2h3
−f (xi+3 ) + 8f (xi+2 ) − 13f (xi+1 ) + 13f (xi−1 ) − 8f (xi−2 ) + f (xi−3 )
f III (xi ) = + O(h4 ) (22)
8h3

3.4. Cuarta derivada

f (xi+2 ) − 4f (xi+1 ) + 6f (xi ) − 4f (xi−1 ) + f (xi−2 )


f IV (xi ) = + O(h2 ) (23)
h4
−f (xi+3 ) + 12f (xi+2 ) − 39f (xi+1 ) + 56f (xi ) − 39f (xi−1 ) + 12f (xi−2 ) − f (xi−3 )
f IV (xi ) = + O(h4 ) (24)
6h4

Leonardo Alberto Desimone 30 de 45


Métodos Numéricos: Resumen para RCP

7. Unidad VII: Ecuaciones diferenciales ordinarias


Las EDOs representan un papel importante en la ingenierı́a debido a que muchos fenómenos fı́sicos se
formulan matemáticamente mejor en términos de su razón de cambio. Cuando la función tiene una variable
independiente, la ecuación será una ecuación diferencial ordinaria (o EDO); contrasta con las ecuaciones
diferenciales en derivadas parciales; que poseen más de una variable independiente (EDP).
Por ejemplo; la ecuación diferencial de masa - resorte con amortiguamiento es:

d2 x dx
m 2
+c +k·x=0
dt dt
será una ecuación diferencial de segundo orden homogénea a coeficientes constantes.
Las ecuaciones de orden superior pueden reducirse a un sistema de ecuaciones de primer orden; se logra
definiendo una nueva variable y; en donde:
dx
y=
dt
que al derivarla queda:

dy d2 x
= 2
dt dt
reemplazando en la ecuación diferencial de segundo orden queda:
dy
m +c·y+k·x=0
dt
ó también:
dy c·y+k·x
=−
dt m
juntando:

y = dx
dt
dy
dt
= − c·y+k·x
m
Son un sistema de ecuaciones diferenciales de primer orden, equivalentes a la ecuación de segundo orden
original y se podrán resolver aplicando los métodos que serán desarrollados a continuación.

7.1. Métodos de Runge - Kutta


Se le dedicará especial atención a la resolución de ecuaciones diferenciales ordinarias expresadas en la
forma siguiente:
dy
= f (x, y)
dx

Leonardo Alberto Desimone 31 de 45


Métodos Numéricos: Resumen para RCP

7.1.1. Método de Euler


Se predice un nuevo valor de y usando la pendiente para
extrapolar linealmente sobre el tamaño de paso h (Ver Figura
23). Siendo ϕ la espiración de la primera derivada ϕ = f (xi ; yi ).
Se tiene la fórmula del método:

Metodo de Euler
▶ yi+1 = yi + f (xi ; yi ) · h (19)

Se toma la pendiente al inicio del intervalo como una apro-


ximación de la pendiente promedio sobre todo el intervalo.
Habrá presencia de dos tipos de error; el de truncamiento
(originado por la técnica misma) y el de redondeo (N° limitado
Figura 23: Método de Euler. de cifras significativas que una computadora puede tener). El
erro de truncamiento se divide en local (es aquel que aparece
en un solo paso) y el propagado (aproximaciones durante los
pasos previos); la suma de ambos tipos de error de truncamiento nos dará el error de truncamiento total.
Un motivo fundamental de error en el Método de Euler
es suponer que la derivada al inicio del intervalo es la misma
durante todo el intervalo. Existen dos modificaciones simples
para evitar esta consideración y dan origen a dos métodos; el
Método de Heun y el Método del Punto medio.

7.1.2. Método de Heun


Un método para mejorar la estimación de la pendiente em-
plea la determinación de dos derivadas en el intervalo. Las dos
derivadas de promedian (la calculada en el punto inicial y la del
punto final) con la finalidad de obtener una mejor estimación
de la pendiente en todo el intervalo.
Se recuerda que y′i = f (xi ; yi ). Se determina y0i+1 = yi +
f (xi ; yi ) · h que es una predicción intermedia (predictor). Se
determina la estimación de la pendiente al final del intervalo
y′i+1 = f (xi+1 ; yy0i+1 ). Se combinan las dos pendientes para obte-
ner una pendiente promedio en el intervalo:
y′i + y′i+1
ȳ =

2
El método es predictor - corrector en un solo paso; es el
único de su tipo (Ver Figura 24) (que realizar el proceso de
Figura 24: Método de Heun. a) Predictor y
predicción corrección en un solo paso, existen otros que lo
b) corrector.
realizan en mas de un paso). Entonces semejante al método
de Euler, la fórmula del método será:

Leonardo Alberto Desimone 32 de 45


Métodos Numéricos: Resumen para RCP

Metodo de Heun
▶ yi+1 = yi + ȳ′ · h (20)

7.1.3. Método del Punto medio

Es otra modificación realizada sobre el método de Euler.


Usa el método de Euler para predecir el valor de y en el punto
medio del intervalo (Ver Figura 25):

h
yi+1/2 = yi + f (xi ; yi ) ·
2
luego el valor se usa para calcular la pendiente en el punto
medio:

y′i+1/2 = f (xi+1/2 ; yi+1/2 )

representa una aproximación válida de la pendiente promedio


en todo el intervalo. La pendiente luego se usa para extrapolar
linealmente desde xi hasta xi+1 :

Metodo del Punto medio


▶ yi+1 = yi + f (xi+1/2 ; yi+1/2 ) · h (21)

note que no se puede usar de manera iterativa yi+1 no está en


los dos lados.
Figura 25: Método del Punto medio.
Es mejor que el método de Euler debido a que usa una es-
timación de la pendiente en el punto medio del intervalo de predicción.

7.1.4. Método de Runge - Kutta de cuarto orden


Todos los métodos de Runge - Kutta son de la forma yi+1 = yi + ϕ · h donde ϕ se conoce como la función
de incremento (osea la pendiente del intervalo).

ϕ = a1 · k1 + a2 · k2 + ... + an · kn

en donde los a son constantes y los k son evaluaciones funcionales de carácter recursivo en donde por
ejemplo para el cálculo de k2 se deberá tener previamente k1 . Los términos k son la razón por la cual los
métodos de Runge - Kutta son eficientes.
Es posible tener varios tipos de métodos de Runge - Kutta empleando diferente números de términos en
la función de incremento especificada por n:

Leonardo Alberto Desimone 33 de 45


Métodos Numéricos: Resumen para RCP

n = 1 implica RK de 1er orden osea el Método de Euler.

n = 2 implica RK de 2do orden.

A mayor n mayor es el orden del método de RK.

El método de Runge - Kutta mas popular de todos es el


de cuarto orden (Ver Figura 26); siendo su forma clásica la
siguiente:

Metodo de Runge - Kutta de 4to orden


1
▶ yi+1 = yi + · (k1 + 2 · k2 + 2 · k3 + k4 ) · h (22)
6

donde :

k1 = f (xi ; yi )
Figura 26: Representación gráfica de las
k2 = f (xi + 1/2 · h; yi + 1/2 · k1 · h) pendientes estimadas empleadas en el
método RK de cuarto orden.
k3 = f (xi + 1/2 · h; yi + 1/2 · k2 · h)

k4 = f (xi + h; yi + k3 · h)

Es similar a la regla de Simpson 1/3; tiene también simi-


litud con el procedimiento de Heun en cuanto a que se usan
múltiples estimaciones de la pendiente para obtener una me-
jor pendiente promedio en el intervalo. Cada una de las k re-
presenta una pendiente. La ecuación del método representa un
promedio ponderado de estas pendientes para establecer la mejor pendiente.

Referencias
[1] Steven C. Chapra y Raymond P. Canale. Métodos numéricos para ingenieros. McGraw - Hill Interame-
ricana, 5th revised edition, 2006.

Leonardo Alberto Desimone 34 de 45


Métodos Numéricos: Resumen para RCP

Leonardo Alberto Desimone 35 de 45


Métodos Numéricos: Resumen para RCP

Leonardo Alberto Desimone 36 de 45


Métodos Numéricos: Resumen para RCP

Leonardo Alberto Desimone 37 de 45


Métodos Numéricos: Resumen para RCP

Leonardo Alberto Desimone 38 de 45


Métodos Numéricos: Resumen para RCP

Leonardo Alberto Desimone 39 de 45


Métodos Numéricos: Resumen para RCP

Leonardo Alberto Desimone 40 de 45


Métodos Numéricos: Resumen para RCP

Leonardo Alberto Desimone 41 de 45


Métodos Numéricos: Resumen para RCP

Leonardo Alberto Desimone 42 de 45


Métodos Numéricos: Resumen para RCP

Leonardo Alberto Desimone 43 de 45


Métodos Numéricos: Resumen para RCP

Leonardo Alberto Desimone 44 de 45


Métodos Numéricos: Resumen para RCP

Comenzado el Monday, 15 de November de 2021, 13:31


Estado Finalizado
Finalizado en Monday, 15 de November de 2021, 13:40
Tiempo 8 minutos 41 segundos
empleado
Calificación Sin calificar aún

Pregunta 1
Finalizado

Puntúa como 100

Velocidad de un cohete en vuelo vertical


La velocidad en vuelo vertical para un cohete puede determinarse aplicando la ley de conservación de cantidad de movimiento para un
sistema de masa variable, que establece que

Si asumimos que la velocidad de salida    relativa al cohete y el caudal de los gases de escapes son constantes en el tiempo, puede
escribirse:

donde  y son la masa  y la velocidad del cohete respectivamente. Esto significa que el cohete gana impulso expulsando masa en
dirección opuesta a su movimiento.

Luego, puede determinarse la velocidad del cohete según la ecuación diferencial, asumiendo que la única fuerza que actúa es el peso:

Sabiendo que  la masa del cohete para un instante dado  se obtiene como

donde es la masa al despegue, puede resolverse esta ecuación para la velocidad como:

Asumiendo que la masa inicial , y , ¿cómo determinaría el tiempo que tarda el cohete
en alcanzar la velocidad del sonido, es decir  ?

1. tipo de problema

Raíces de ecuaciones

2. método/s aplicables/s

Son aplicables los métodos cerrados y abiertos. Bisección, Falsa Posición, Newton - Raphson, Iteración de Punto Fijo y Método de la Secante.

3. Errores esperados

Errores de Redondeo y de Truncamiento.

4. Otras consideraciones
Sería útil contar con una gráfica de la función para disponer de forma gráfica una ayuda para la selección de valores iniciales y/o intervalos
para la aplicación de los métodos.

◄ Ejemplo de Resolución Conceptual de Problemas

Leonardo Alberto Desimone 45 de 45

También podría gustarte