Documentos de Académico
Documentos de Profesional
Documentos de Cultura
HONDURAS
Facultad de Ciencias
Escuela de Matemática y Ciencias de la Computación
Departamento de Matematica Aplicada
Trabajo de Investigación
Asignatura
Análisis Numérico
MM-412
Sección
1100
Catedrático
Lic. Elvis Arrazola
Grupo
Mireya Lizbeth Laínez Galo 20181001880
Salvador Cuellar Diaz 20141030516
Esteban Emilio Pineda Moreno 20131008449
Tegucigalpa M.D.C
2
Contenido
Introducción .................................................................................................................................... 6
a) Detalles Históricos........................................................................................................ 7
d) Ejemplos ..................................................................................................................... 10
B. Método de Bernoulli....................................................................................................... 13
a) Detalles Históricos...................................................................................................... 13
d) Ejemplos ..................................................................................................................... 17
a) Detalles Históricos...................................................................................................... 21
d) Ejemplos ..................................................................................................................... 25
3
a) Detalles Históricos...................................................................................................... 29
d) Ejemplos ..................................................................................................................... 31
a) Detalles Históricos...................................................................................................... 34
d) Ejemplos ..................................................................................................................... 37
a) Detalles Históricos...................................................................................................... 41
d) Ejemplos ..................................................................................................................... 46
a) Detalles Históricos...................................................................................................... 48
d) Ejemplos ..................................................................................................................... 53
a) Detalles Históricos...................................................................................................... 57
d) Ejemplos ..................................................................................................................... 60
Referencias.................................................................................................................................... 64
Anexos .......................................................................................................................................... 67
h. Método de Montecarlo................................................................................................ 73
Figuras
Introducción
procesos, que en la vida cotidiana nos tomaría mucho tiempo realizar, como por ejemplo: el cálculo
de la derivada de una función que puede ser un proceso "difícil" ya sea por lo complicado de la
en el área de ingeniería y el análisis matemático, así como también para futuras investigaciones
donde se necesite manipular datos experimentales. Los métodos que aquí se explican van desde
Algo que nos motivó a realizar la investigación fue que, el hecho de conocer estos métodos, es
de gran utilidad en nuestra área del saber en ingeniería, matemática, física, pero, así como estos
A. Método de la Secante
a) Detalles Históricos
El método de la secante es una variación del método creado por Newton para aproximar las
raíces de polinomios, éste quien en primera instancia lo vio como un método meramente
algebraico, hasta que Joseph Raphson (contemporáneo de Newton) se hizo miembro de la Royal
Society en 1691 por su libro Aequationum Universalis, análisis que publicó en 1690 y el cual
contenía este método para aproximar raíces. Mientras que Newton en su libro Método de las
fluxiones describe el mismo método escrito en 1671, no fue publicado hasta 1736, lo que significa
que Raphson había publicado este resultado casi 50 años antes, aunque no fue tan popular como
A pesar de lo que se cuenta antes, Morales, argumenta que lo anterior pasó de manera diferente.
“Raphson era una de las pocas personas a las que Newton le permitía ver sus trabajos” Raphson
en aquel entonces era el encargado de traducir del latín al inglés algunos de los trabajos de Newton,
así que probablemente, al estar en contacto con estos documentos, vio la formulación de Newton
–la cual había sido escrito primero, pero publicada hasta después de su muerte– lo que le ayudó a
formular el caso general al método escrito en primera instancia. (Desconocido, Método de Newton
se aproxima la pendiente a la recta que une la función evaluada en el punto de estudio y en el punto
Este método, según Burden, es conveniente cuando sea difícil calcular la derivada de la función
𝑓 (𝑥 ) − 𝑓(𝑃𝑛 − 1)
𝑓 ′(𝑃𝑛 − 1) = lím ( )
𝑥→𝑃𝑛−1 𝑥 − 𝑃𝑛 − 1
(a.1)
aproximación p2 es la intersección de x de la recta que une los puntos (p0, f(p0)) y (p1, f(p1)).
La aproximación p3 es la intersección en x de la recta que une los puntos (p1, f(p1)) y (p2,
f(p2)) y así sucesivamente. Observe que solo se necesita una evaluación de la función por
cada paso para el método de la secante después de haber determinado p2. En contraste, cada
9
paso del método de Newton requiere una evaluación tanto de la función como de su
el que se emplea una línea secante que une dos puntos que cortan la curva, para aproximar
una raíz.
c) Área (Burden, Faires,
de Aplicación del&Método
Burden, 2017)
2011)
Comparando este método con el de Newton-Raphson, requeriría un par más de iteraciones para
obtener su convergencia al valor exacto de una raíz, esto indica que el método de la secante es
ligeramente más lento comparado con el de Newton. (Burden, Faires, & Burden, 2017, pág. 54)
“Ambos métodos son abiertos, es decir que se escoge un punto o dos puntos cualesquiera que
no necesariamente contengan a la raíz. Los métodos abiertos no siempre van a converger, pero
cuando la aproximación inicial es buena, estos convergen más rápido que los métodos acotados.”
(Castro, 2013)
▪ Es muy útil en ocasiones el no necesitar la derivada de la función para utilizar este método.
d) Ejemplos
1. Utilice el método de la secante para encontrar una raíz real de la ecuación polinomial:
𝑓(𝑥 ) = 𝑥 3 + 2𝑥 2 + 10𝑥 − 20 = 0
Solución:
Utilizando la ecuación:
𝑥𝑛 − 𝑥𝑛−1
𝑥𝑛+1 = 𝑥𝑛 − 𝑓(𝑥𝑛 )
𝑓(𝑥𝑛 ) − 𝑓(𝑥𝑛 )
Obtenemos:
Lo anterior sólo fue la primera iteración, los valores posteriores son los siguientes:
n 𝒙𝒏 |xn+1−xn|
0 0.00000 ---
1 1.00000 1.00000
2 1.53846 0.53846
3 1.35031 0.18815
4 1.36792 0.01761
5 1.36881 0.00090
2𝜋𝑥 2𝜋𝑡𝑣
ℎ = ℎ0 [𝑠𝑒𝑛 ( ) 𝑐𝑜𝑠 ( ) + 𝑒 −𝑥 ]
Para =16, t=12, v=48, h=0.4h0, (40% de la altura inicial). Hallar la distancia donde rompe
Solución:
variables:
𝑎+𝑏
a=5 b=10 𝑥0 = h=(𝑥𝑛 − 𝑥𝑛−1 )=0.001 k=0…n
2
𝑥𝑛 − 𝑥𝑛−1
𝑥𝑛+1 = 𝑥𝑛 − 𝑓(𝑥𝑛 )
𝑓(𝑥𝑛 ) − 𝑓(𝑥𝑛 )
La siguiente tabla nos indica las iteraciones necesarias para llegar a respuestas consistentes
y de 10-13.
n 𝒙𝒏 |xn+1−xn|
0 6.5 ---
1 6.97879137304883 0.4787913730488
2 6.95478092958251 0.0240104434663
3 6.95473129425136 0.0000496353311
4 6.95473128988187 4.3695E -9
5 6.95473128988151 4E -13
e) Error de Aproximación
Sobre los errores del método de la secante en contraste con el método de Newton:
(Castro, 2013)
B. Método de Bernoulli
a) Detalles Históricos
Daniel Bernoulli, fue un destacado matemático, físico y conocedor de diversas áreas de las
ciencias. A lo largo de su vida publicó 86 obras, entre las más destacadas esta Hidrodinámica, en
la cual explica lo que más tarde vendrá a llamarse Principio de Bernoulli. Cabe resaltar que su
familia estaba compuesta por matemáticos los cuales hicieron algunos avances en la formulación
del cálculo.
Además de sus aportes en física, contribuyó en diferentes avances en las matemáticas; por
ejemplo, tuvo una idea preliminar de representación de funciones con ayuda de funciones
“En 1928 Daniel Bernoulli publicó un artículo describiendo el método que lleva su nombre,
pero sin dar alguna justificación. Tal justificación fue dada por Leonhard Euler en 1748, quien usó
resuelto. Lagrange en 1798 hizo una mejora a esto tomando el numerador de una función racional
como P’, para así eliminar la posibilidad de raíces múltiples. Luego Aiken en 1926 mostró cómo
usar una generalización del método de Bernoulli para obtener todas las raíces.” (Numerical
A la hora de aproximar con métodos como el de Horner o el de Bairstow, se tiene que tener
una buena primera aproximación de la respuesta en cierto intervalo. El método de Bernoulli ayuda
a utilizar menos información, porque, para los otros métodos es necesario tener al intervalo y la
primera aproximación, pero con este, lo único que necesitamos saber son los coeficientes del
los coeficientes 𝑎𝑛 pueden, incluso ser complejos, hay N ceros distintos, 𝑧1 , 𝑧2 , … , 𝑧𝑁 . Ahora si se
ve la ecuación de diferencias
la solución X = {𝑥𝑛 } (cualesquiera que sean sus valores iniciales) debe poderse representar en la
forma
i. El polinomio P tiene un solo cero dominantes, es decir, uno de los ceros (por ejemplo, 𝑧1)
ii. Los valores iniciales son tales que el cero dominante está representado en la solución (b.3),
𝑐1 ≠ 0
Consideramos ahora la razón de dos valores consecutivos de la sucesión solución X. Usando (b.3)
encontramos
𝑐2 𝑧2 𝑛+1 𝑐 𝑧 𝑛+1
𝑥𝑛+1 1+ ( ) + ⋯ + 𝑁 ( 𝑁)
𝑐1 𝑧1 𝑐1 𝑧1
= 𝑧1
𝑥𝑛 𝑐2 𝑧2 𝑛 𝑐𝑁 𝑧𝑁 𝑛
1 + 𝑐 (𝑧 ) + ⋯ + 𝑐 ( 𝑧 )
1 1 1 1
𝑧 𝑛
(𝑧𝑘) → 0 𝑐𝑢𝑎𝑛𝑑𝑜 𝑛 → ∞ (b.5)
1
por tanto
𝑥𝑛+1
lim = 𝑧1
𝑛→∞ 𝑥𝑛
de recurrencia
16
𝑥𝑛+1
𝑞𝑛 = (𝑏. 7)
𝑥𝑛
Teorema B.1
Si el cero dominante del polinomio P dado por (b.1) es único y si se satisface la condición 𝑐 ≠
0, entonces los cocientes 𝑞𝑛 están “al final” definidos y convergen al cero dominante del polinomio
P.
señal o robótica, el sistema que se emplearía está descrito por un modelo polinómico que varía con
el tiempo, produciendo un flujo de polinomios de alto grado. La frecuencia con que se quiere hallar
sus raíces puede llegar a ser muy grande para otros métodos. Para hallar las raíces de un módulo
Hay ciertas complicaciones con este método tales como: la convergencia lenta, ceros de
multiplicidad mayor que uno, elección desafortunada de valores iniciales y la presencia de varios
También puede mencionarse que, el alto grado de los polinomios y la complejidad de los
casos que pueden presentarse a la hora de aplicar este método, dificultan aplicarlo en el
d) Ejemplos
polinomio:
Solución:
Primero con la ecuación (b.2) se generan las condiciones iniciales, así se obtiene:
Sustituyendo los valores de los coeficientes dados por el polinomio 𝑓(𝑥 ) se genera el siguiente
grupo de ecuaciones:
𝑥1 + 17 = 0
𝑥2 + 17𝑥1 + 210 = 0
1 0 0 0 0 𝑥1 −17
17 1 0 0 0 𝑥2 −210
105 17 1 0 0 𝑥3 = −885
295 105 17 1 0 𝑥4 −1496
[374 295 105 17 1] [𝑥5 ] [ −840 ]
De este grupo de ecuaciones se obtienen los valores iniciales para utilizar en la ecuación (b.3),
Iniciando en N = 6, se obtiene:
𝑥6 = 122 539
𝑥6
𝑅𝑎í𝑧 = = −6.767493
𝑥5
La tabla siguiente muestra los resultados hasta obtener dos valores consecutivos de la raíz que
Coeficiente Raíz
𝑥6
5 ( ) = −6.767493
𝑥6 = 1.225389 × 10
𝑥5
𝑥7
𝑥7 = −8.422429 × 105 ( ) = −6.873264
𝑥6
𝑥8
𝑥8 = 5.836154 × 106 ( ) = −6.930487
𝑥7
𝑥9
𝑥9 = −4.063594 × 107 ( ) = −6.961601
𝑥8
𝑥10
𝑥10 = 2.835838 × 108 ( ) = −6.978646
𝑥9
𝑥11
𝑥11 = −1.981700 × 109 ( ) = −6.988056
𝑥10
19
𝑥12
𝑥12 = 1.385859 × 1010 ( ) = −6.993287
𝑥11
𝑥13
𝑥13 = .9.695722 × 1010 ( ) = −6.996213
𝑥12
𝑥14
𝑥14 = 6.784963 × 1011 ( ) = −6.997857
𝑥13
𝑥15
𝑥15 = −4.748649 × 1012 ( ) = −6.998784
𝑥14
𝑥16
𝑥16 = 3.323726 × 1013 ( ) = −6.999309
𝑥15
“Analizando los resultados del ejercicio, se puede notar que el método de Bernoulli es de
convergencia lenta. Sin embargo, se puede apreciar que la primera aproximación es muy buena y
no necesita condiciones iniciales externas; es decir, el método por sí mismo fija las condiciones
iniciales. Por esta razón, aunque es un método de convergencia lenta, es bastante valioso como
primera aproximación para otro método de convergencia rápida.” (Análisis Numérico, 2010)
2. Sea
Solución:
La ecuación de diferencia (b.2) (resuelta para 𝑥𝑛 ), o que es lo mismo la ecuación (b.6), toma aquí
la forma
< 0) y de la sucesión 𝑞𝑛 .
n 𝑥𝑛 𝑞𝑛
20
0 1.0 2.0
1 2.0 1.3571429
2 2.7142857 1.1578947
3 3.1428571 1.0668831
4 3.3530611 1.0176506
5 3.4122447 0.9883800
6 3.3725945 0.9699170
7 3.2711367 0.9578036
. . .
. . .
. . .
14 2.1627466 0.9330692
15 2.0179923 0.9323640
16 1.8815034 0.9318586
17 1.8815034 .
. . .
. . .
. . 0.93057
Lo anterior es un mero bosquejo del método de Bernoulli en el caso más sencillo posible.
e) Error de Aproximación
de convergencia puede ser baja. Entendemos por esto que el error de la aproximación 𝑞𝑛 al cero
xn+1
z1, 𝑒𝑛 = q n − z1 = − z1 tiende a cero lentamente.
xn
La convergencia de este método es explicada por Zaguskin en 1961 y otros, los cuales plantean
xn+1
que el radio satisface:
xn
xn+1 𝑞2 𝑛+1
| − 𝑞1 | ≤ 2𝑛|𝑞1 | | |
xn 𝑞1
C. Método de Newton-Horner
a) Detalles Históricos
William Horner (1786-1837) fue un niño prodigio que se convirtió director de una escuela en
Bristol a los 18 años. El método de Horner para resolviendo ecuaciones algebraicas fue publicado
describió un método similar que ganó la medalla de oro de la Sociedad Italiana de Matemáticas
para Ciencias. Ni Ruffini ni Horner fueron los primeros en descubrir el método este fue conocido
El método de Horner, también llamado la regla de Horner es un algoritmo que permite calcular
El algoritmo tiene ese nombre por el matemático británico William George Horner, aunque
como se mencionó, él no fue el primer en encontrar este método siendo conocido por un gran
nueve capítulos del arte matemático», un libro realizado por varias generaciones de estudiosos en
Otros conocedores de este algoritmo fueron el matemático chino del siglo XI Jia Xian, el
matemático persa Sharaf al-Din al-Tusi en el siglo XII y el matemático chino Zhu Shijie en el siglo
Para usar el método de Newton para localizar ceros aproximados de un polinomio P (x),
necesitamos evaluar P (x) y P (x) a los valores especificados. Desde P (x) y P (x) son ambos
grado.
El método de Horner, también conocido como método de Doble División Sintética, es una
variante del método de Newton, sólo es aplicable a polinomios, por ello debemos tener
𝑃 (𝑥 )
= 𝑄 (𝑥 ) + 𝑏0
(x – 𝑥0 )
Encontremos una relación entre los coeficientes a’s y los coeficientes b’s
𝑎𝑛 = 𝑏𝑛 𝑏𝑛 = 𝑎𝑛
𝑎𝑛−1 = 𝑏𝑛−1 − 𝑏𝑛 𝑥0 𝑏𝑛−1 = 𝑎𝑛−1 + 𝑏𝑛 𝑥0
𝑎𝑛−2 = 𝑏𝑛−2 − 𝑏𝑛−1 𝑥0 𝑏𝑛−2 = 𝑎𝑛−2 + 𝑏𝑛−1 𝑥0
23
𝑎1 = 𝑏1 − 𝑏2 𝑥0 𝑏1 = 𝑎1 + 𝑏2 𝑥0
𝑎0 = 𝑏0 − 𝑏1 𝑥0 𝑏0 = 𝑎0 + 𝑏1 𝑥0
De manera Recursiva.
𝑏𝑛 = 𝑎𝑛
𝑃(𝑥 ) = (𝑥 − 𝑥0 )𝑄(𝑥 ) + 𝑏0
𝑃 (𝑥 ) = (𝑥 − 𝑥0 ) 𝑄 (𝑥 ) + 𝑏0 = 𝑏0
Derivando P(x):
Q(x) = (x – 𝑥0 )𝑅(𝑥 ) + 𝑏0 ’
𝑏’𝑛 = 𝑏𝑛+1
P′(x) = (x – 𝑥0 )𝑄 ′(𝑥 ) + (x – 𝑥0 ) 𝑅 (𝑥 ) + 𝑏0 ’
’
P′(x) = (x – 𝑥0 )𝑄 ′ (𝑥 ) + (x – 𝑥0 ) 𝑅 (𝑥 ) + 𝑏0 ’ = 𝑏’0
𝑃 (𝑥 ) 𝑏
𝑥𝑛+1 = 𝑥𝑛 − 𝑃’(𝑥) = 𝑥𝑛 − 𝑏 0
’0
coeficientes 𝑎𝑖 son los dígitos de la representación del número dado en la base x — y puede
usarse también si x es una matriz, en cuyo caso la carga computacional se reduce aún más.
El algoritmo de Horner también puede considerarse como un algoritmo rápido para dividir
▪ Ventajas y desventajas
divisor esta es una ventaja sobre el método de Ruffini ya que en este se emplea cuando el
2013)
Los autores mencionan que por este método se pueden obtener raíces tanto
parte entera (si la hay) y luego la parte decimal, hasta que la raíz termine si esta es
cuales son casos particulares de la solución general del presento método justificante de
de las raíces dada por cantidades conocidas, esto es por el algoritmo de. Incrementar o
disminuir las raíces de una cantidad dada. La gran ventaja de este método es que las
Se ha visto que el método de aproximación dado por newton falla cuando las raíces
son casi iguales tales casos representan mucha más dificultad tanto para analizarlas como
25
para encontrarse solución. Con el método de Horner esto es posible, con más eficacia que
la necesaria en otros casos para encontrar la solución a tales ecuaciones. (Sierra, 2010)
Al realizar los cálculos para aproximar raíces por el método de Horner algunas
ecuaciones terminan en una etapa corta, cuando los cálculos son de gran longitud, sería
necesario encontrar las cifras sucesivas por sustitución y la labor del proceso podría ser
muy grande. Esto sin embargo no es necesario y una de las Ventajas más practicas del
primera) cifra de la raíz encontrada, la ecuación transformada sugiere ella misma por mera
d) Ejemplos
1. Hallar las raíces del Polinomio: P(x)=2𝑥 4 + 4𝑥 3 +2𝑥 2 − 2𝑥 − 24 con un error menor a
0.001.
Solución:
Sean: 𝑎4 = 2 𝑎2 = 2
𝑎0 = −24
𝑎3 = 4 𝑎1 = −1
Obtenemos los factores primos del término independiente.
24 2 3 3
12 2 1
6 2
Tomemos: 𝑥0 = 2
Entonces,
𝑏4 = 𝑎4 = 2
26
𝑏3 = 𝑎3 + 𝑏4 𝑥0 = 4 + 2(2) = 8
𝑏2 = 𝑎2 + 𝑏3 𝑥0 = 2 + 8(2) = 18
𝑏1 = 𝑎1 + 𝑏2 𝑥0 = −2 + 18(2) = 34
𝑏0 = 𝑎0 + 𝑏1 𝑥0 = −24 + 2(2) = 44
𝑏’3 = 𝑏4 = 2
𝑏’2 = 𝑏3 + 𝑏’3 𝑥0 = 8 + 2(2) = 12
Ahora calculamos 𝑥1 :
𝑏0 44
𝑥𝑛+1 = 𝑥𝑛 − =2− = 1.6271
𝑏’0 118
Solución:
3 𝑎+9
𝑛 = (1), n=3 𝑚 = (3𝑥3) = 9 m=3, 𝑑 = (3𝑥2) = 6. = −2 𝑎 = −11
1
c+2=. -3., c= -5
1 3 -11 1 5 -5
3 9 6
2 -6 -4
3 2
3 -2 1 4 -3
28
3−2+5−5
Por lo tanto + 3. = -1
3+1−2
e) Error de Aproximación
[𝑥𝑛−1 − 𝑥𝑛 ] < 𝜀
Cualquiera de los factores primos del término independiente es buena aproximación inicial.
(Gonzales, 2018)
menos n sumas y (𝑛2 + 𝑛)/2 multiplicaciones, si las potencias se calculan mediante la repetición
Se ha demostrado que el algoritmo de Horner es óptimo, de modo que cualquier algoritmo que
se use para evaluar un polinomio requerirá como mínimo el mismo número de operaciones. El
hecho de que el número de operaciones requeridas es mínimo fue demostrado por Alexander
Ostrowski en 1954, y que el número de multiplicaciones es mínimo por Víctor Pan en 1966.
A. Método de Jacobi
a) Detalles Históricos
Carl Gustav Jacob Jacobi (1804-1851) fue reconocido en primer lugar por su trabajo en el área
de la teoría de números y funciones elípticas, pero sus intereses matemáticos y capacidades eran
muy amplios. El método iterativo de Jacobi es un método clásico que data de finales del siglo
XVIII. Las técnicas iterativas casi nunca se usan para resolver sistemas lineales de dimensiones
pequeñas ya que el tiempo requerido para suficiente precisión excede el requerido para las técnicas
directas, como la eliminación gaussiana. Para grandes sistemas con un alto porcentaje de entradas
0, sin embargo, estas técnicas son eficientes en términos tanto de almacenamiento como de cálculo
computacional. Los sistemas de este tipo surgen con frecuencia en análisis de circuitos y en la
(𝑘)
Para cada 𝑘 ≥ 1, genere los componentes 𝑥𝑖 de 𝒙(𝑘) a partir de los componentes de 𝒙(𝑘−1)
por medio de
𝑛
(𝑘 ) 1 (𝑘−1
𝑥𝑖 = ∑(−𝑎𝑖𝑗 𝑥𝑗 + 𝑏𝑖 ) , 𝑝𝑎𝑟𝑎 𝑖 = 1,2, … 𝑛.
𝑎𝑖𝑖
𝑗=1
[ 𝑗≠𝑖 ]
30
En general, las técnicas iterativas para resolver sistemas lineales implican un proceso que
convierte el sistema 𝐴𝒙 = 𝒃 en un sistema equivalente de la forma 𝒙 = 𝑇𝒙(𝑘−1) + 𝒄 para una
matriz fija T y vector c. Después de seleccionar el vector inicial 𝒙(0), la sucesión de los vectores
aproximados se genera al calcular
𝒙(𝑘) = 𝑇𝒙(𝑘−1) + 𝒄,
Se divide en:
= 𝐷 − 𝐿 − 𝑈.
𝐷𝒙 = (𝐿 + 𝑈)𝒙 + 𝒃,
𝒙(𝑘) = 𝑇𝑗 𝒙(𝑘−1) + 𝒄𝑗 .
Un elemento en contra que tienen los métodos Jacobi sobre los métodos directos es que
calculan aproximaciones a la solución. Los métodos iterativos se usan cuando no se conoce un
método para obtener la solución de forma exacta. También se utilizan cuando el método para
determinar la solución exacta requiere mucho tiempo de cálculo, cuando una respuesta aproximada
es adecuada y cuando el número de iteraciones es reducido.
En comparación con respecto sobre los métodos de Gauss Simple, estos pueden presentar
errores de redondeo, es decir, en el uso de cifras significativas el error en los resultados puede
reducir o aumentar. El problema de los errores de redondeo llega a volverse particularmente
importante cuando se trata de resolver un gran número de ecuaciones. Esto se debe al hecho que
cada resultado depende del anterior.
d) Ejemplos
𝐸1 : 10𝑥1 − 𝑥2 + 2𝑥3 = 6,
𝐸2 : −𝑥1 + 11𝑥2 − 𝑥3 + 3𝑥4 = 25,
𝐸3 : 2𝑥1 − 𝑥2 + 10𝑥3 − 𝑥4 = −11,
𝐸4 : 3𝑥2 − 𝑥3 + 8𝑥4 = 15,
Tiene la solución única 𝒙 = (1, 2, −1, 1)𝑡 . Utilice la técnica iterativa de Jacobi para
encontrar aproximaciones 𝒙(𝑘) para x, que inicia con 𝒙(0) = (0, 0, 0, 0)𝑡 hasta
‖𝒙(𝑘) − 𝒙(𝑘−1) ‖∞
< 10−3 .
‖ 𝒙 (𝑘 ) ‖ ∞
Solución:
32
Primero resolvemos la ecuación Ei para xi, para cada i= 1,2,3,4, a fin de obtener:
1 1 3
𝑥1 = 𝑥 − 𝑥 +5
10 2 5 3
1 1 3 25
𝑥2 = 𝑥 + 11 𝑥3 − 𝑥 + 11
11 1 11 4
1 1 1 11
𝑥3 = − 𝑥1 + 𝑥 + 𝑥 −
5 10 2 10 4 10
3 1 15
𝑥4 = − 8 𝑥2 + 8 𝑥3 + 8
A partir de la aproximación inicial 𝒙(0) = (0, 0, 0, 0)𝑡 tenemos 𝒙(1) provista por:
( ) 1 (0) 1 ( 0) 3
𝑥11 = 𝑥 − 𝑥 + = 0.6000,
10 2 5 3 5
( ) 1 (0 ) 1 ( ) 3 ( 0) 25
𝑥21 = 𝑥 + 𝑥30 − 𝑥 + = 2.2727,
11 1 11 11 4 11
( ) 1 ( ) 1 (0) 1 ( ) 11
𝑥31 = − 𝑥10 + 𝑥 + 𝑥40 − = −1.1000,
5 10 2 10 10
( ) 3 ( ) 1 ( 0) 15
𝑥41 = − 𝑥20 + 𝑥 + = 1.8750,
8 8 3 8
( ) ( ) ( ) ( ) 𝑡
Las iteraciones adicionales, 𝒙(𝑘) = (𝑥1𝑘 , 𝑥2𝑘 , 𝑥3𝑘 , 𝑥4𝑘 ) , se generan de manera similar y se
k 0 1 2 3 4 5 6 7 8 9 10
( )
𝒙𝟏𝒌 0.000 0.6000 1.0473 0.9326 1.0152 0.9890 1.0032 0.9981 1.0006 0.9997 1.0001
( )
𝒙𝟐𝒌 0.0000 2.2727 1.7159 2.053 1.9537 2.0114 1.9922 2.0023 1.9987 2.0004 1.9998
(𝒌) 0.0000 -1.1000 -0.8052 -1.0493 -0.9681 -1.0103 -0.9945 -1.0020 -0.9990 -1.0004 -0.9998
𝒙𝟑
( )
𝒙𝟒𝒌 0.0000 1.8750 0.8852 1.1309 0.9739 1.0214 0.9944 1.0036 0.9989 1.0006 0.9998
2. Resolvemos el sistema:
33
7𝑥1 − 2𝑥2 + 𝑥3 = 17
𝑥1 − 9𝑥2 + 3𝑥3 − 𝑥4 = 13
2𝑥1 +10𝑥3 + 𝑥4 = 15
𝑥1 − 𝑥2 + 𝑥3 + 6𝑥4 = 10
Solución:
1
𝑥1 = (17 + 2𝑥2 − 𝑥3 )
7
1
𝑥2 = (−13 + 𝑥1 + 3𝑥3 − 𝑥4 )
9
1
𝑥3 = (15 − 2𝑥1 − 𝑥4 )
10
1
𝑥4 = (10 − 𝑥1 + 𝑥2 − 𝑥3 )
6
(𝑘+1) 1 (𝑘 ) (𝑘 )
𝑥1 = (17 + 2𝑥2 − 𝑥3 )
7
(𝑘+2) 1 (𝑘 ) (𝑘 ) (𝑘 )
𝑥2 = (−13 + 𝑥1 + 3𝑥3 − 𝑥4 )
9
( ) 1 ( ) ( )
𝑥3𝑘+1 = (15 − 2𝑥1𝑘 − 𝑥4𝑘 )
10
( ) 1 ( ) ( ) ( )
𝑥4𝑘+1 = (10 − 𝑥1𝑘 + 𝑥2𝑘 − 𝑥3𝑘 )
6
Sustituyendo 𝒙(0) = (0, 0, 0, 0)𝑇 en el lado derecho de cada una de las ecuaciones obtenemos
34
( ) 1
𝑥1𝑘+1 = (17 + 2(0) − 0) = 2.428571429
7
( ) 1
𝑥2𝑘+2 = (−13 + 0 + 3(0) − 0) = −1.444444444
9
( ) 1
𝑥3𝑘+1 = (15 − 2(0) − 0) = 1.5
10
( ) 1
𝑥4𝑘+1 = (10 − 0 + 0 − 0) = 1.666666667.
6
Con una tolerancia de 10−3 y utilizando la norma del máximo ‖𝒙‖∞ = max |𝑥𝑖 |.
𝑖=1,2,3,4
e) Error de Aproximación
Las iteraciones continúan hasta que se cumple la tolerancia a errores tol. ¿Qué criterio usamos
para determinar que el algoritmo ha cumplido con la tolerancia requerida? Una elección obvia es
‖𝐴𝑥𝑖 − 𝑏‖2 > 𝑡𝑜𝑙. Si, ‖𝐴−1‖2 es grande, ‖𝑥 − 𝑥𝑖 ‖ puede ser grande también. La mejor
‖𝑏−𝑥𝑖 ‖2
alternativa es aplicar una estimación de error relativo y finalizar cuando ‖𝑏‖
≤ 𝑡𝑜𝑙.
a) Detalles Históricos
Sin embargo, el método de gradiente conjugado es útil cuando se usa como método de
aproximación iterativa para resolver los sistemas dispersos grandes con entradas diferentes a cero
Cuando A es definida positiva, 〈𝒙, 𝐴𝒙〉 = 𝒙𝑡 𝐴𝒙 > 0 a menos que 𝒙 = 0. Además, puesto que A es
simétrica, tenemos 𝒙𝑡 𝐴𝒚 = 𝒙𝑡 𝐴𝑡 𝒚 = (𝐴𝒙)𝑡 𝒚, por lo que, además los resultados en el teorema 1,
tenemos, para cada x y y
Teorema: El vector 𝒙∗ es una solución para el sistema lineal definido positivo 𝐴𝒙 = 𝒃 sí y solo
si 𝒙∗ produce el valor mínimo de
Este método pertenece a una clase de métodos iterativos conocida con el nombre métodos de
equivalente a encontrar el mínimo de una función error definida sobre un espacio n-dimensional
en cada paso de este método se usa un conjunto de valores variables para generar un nuevo
por ejemplo en los métodos de mecánica molecular la evaluación analítica de las derivadas
segundas es rápida de forma que suponiendo que la molécula no sea grande se puede usar el
método de newton en el que el valor de la Hessiana se estima en lugar de calcularlo con exactitud,
para moléculas muy grandes se usa a menudo este método descrito anteriormente, cuando el
tamaño de la molécula impide el uso de los métodos anteriores la alternativa es usar métodos de
gradiente ya que con estos se elige cada nueva etapa una dirección usada en las etapas previas.
La principal ventaja de este método en esta aplicación es que en los casos de que la matriz sea
simétrica y definida positiva este suele requerir un menor número de iteraciones para encontrar la
solución del sistema, una desventaja sería el hecho de que necesita almacenar vectores adicionales
y que cada iteración podría consumir más tiempo de cálculo debido al mayor número de
operaciones matriciales.
Otra ventaja seria que, un método basado en el subespacio de Krylov no accede directamente
a los elementos de la matriz, si no que realiza la multiplicación matriz-vector para obtener vectores
problema correspondiente. Este resultado se convierte luego en una solución del problema original
37
d) Ejemplos
1. El sistema lineal
Solución:
4 3 0
𝐴 = [3 4 −1]
0 −1 4
Del sistema es definida positiva. Si 𝒗(1) = (1,0,0)𝑡 , 𝒗(2) = (−3⁄4 , 1,0)𝑡 , y 𝒗(3) =
3
4 3 0 −
〈𝒗(1) , 𝐴𝒗(2) 〉 = 𝒗(1)𝑡 𝐴𝒗(2) = (1,0,0) [3 4 −1] [ 4] = 0,
1
0 −1 4
0
3
4 3 0 −
4
〈𝒗(1), 𝐴𝒗(3) 〉 = (1,0,0) [3 4 −1] 4 = 0,
0 −1 4 7
[ 0 ]
y
3
−
3 4 3 0 7
〈𝒗(2), 𝐴𝒗(3) 〉 = (− , 1,0) [3 4 −1] 4 = 0,
4
0 −1 4 7
[ 0 ]
por lo que
24
〈𝒗(1), 𝒓(0) 〉 = 𝒗(1)𝑡 𝒓(0) = 24, 〈𝒗(1) , 𝐴𝒗(1) 〉 = 4, 𝑦 𝑡0 = = 6.
4
Por lo tanto,
Al continuar, tenemos
( 1) (1)
〈𝒗(2), 𝒓(0) 〉 12 48
𝒓 = 𝒃 − 𝐴𝒙 )𝑡
= (0,12, −24 , 𝑡1 = (2) ( ) = = ,
〈𝒗 , 𝐴𝒗 〉 7⁄4
2 7
𝑡 𝑡
48 3 6 48
𝒙(2) = 𝒙(1) + 𝑡1 𝒗(2) = (6,0,0)𝑡 + (− , 1,0) = ( , , 0) ,
7 4 7 7
120 〈𝒗(3), 𝒓(2) 〉 − 120⁄7
𝒓(2) = 𝒃 − 𝐴𝒙(2) = (0,0, − ), 𝑡2 = ( ) ( ) = = −5,
7 〈𝒗 3 , 𝐴𝒗 3 〉 24⁄7
y
𝑡 𝑡
( 3) ( 2) ( 3) 6 48 3 4
𝒙 =𝒙 + 𝑡1 𝒗 = ( , , 0) + (−5) (− , , 1) = (3,4, −5)𝑡 ,
7 7 7 7
Puesto que aplicamos la técnica n=3 veces, esta debe ser la solución real.
Tiene la solución (3, 4, −5)𝑡 . Utilice el método de gradiente conjugado con 𝒙(0) =
Solución:
∝= 〈𝒘, 𝒘〉 = 2052.
𝒘 = 𝐶 −1𝒓(1) = 𝒓(1) ;
𝛽 = 〈𝒘, 𝒘〉 = 443.19029651;
𝛽
𝑠1 = = 0.02153523222;
∝
𝒗(2) = 𝐶 −1 𝒘 + 𝑠1 𝒗(1) = (−2.807896697, −1.085901793, −6.006536293)𝑡 .
Establezca
∝= 𝛽 = 44.19029651.
𝑡2 = 0.2378157558;
40
𝒘 = 𝐶 −𝟏 𝒓(2) = 𝒓(2) ;
𝛽 = 0.03122766148;
𝑠2 = 0.0007066331363;
Determina ∝= 𝛽 = 0.03122766148.
La tercera iteración da
𝑡3 = 1.192628008;
significativamente el resultado.
e) Error de Aproximación
𝑘
1
√(𝐾 )𝑝 −1
𝐴
1
√
( (𝐾𝐴)𝑝 + 1)
Este enfoque también sugiere un error vinculado a una aproximación no iterativa a la solución
𝑝=1
de 𝐴𝒙 = 𝒃 dada una secuencia de vectores {𝐴𝑛⁄𝑝 𝑏}𝑛=1 nosotros podemos construir el polinomio
de mejor ajuste usando el procedimiento del método del gradiente conjugado. Esta aproximación
tendrá un error vinculado asintóticamente con 𝑘 = 𝑝 − 1. (Burden, Faires, & Burden, 2017)
41
a) Detalles Históricos
El filósofo aléate Zenón de Elea consideró el problema de sumar una serie infinita para lograr
un resultado finito, pero lo descartó por considerarlo imposible: el resultado fueron las paradojas
contenido matemático de esta no quedo resuelto hasta que lo retomaron Demócrito y después
Arquímedes. Fue a través del método exhaustivo de Arquímedes que un número infinito de
Independientemente, Liu Hui utilizó un método similar cientos de años después. En el siglo XIV,
los primeros ejemplos del uso de series de Taylor y métodos similares fueron dados por Madhava
de Sangama grama. A pesar de que hoy en día ningún registro de su trabajo ha sobrevivido a los
años, escritos de matemáticos hindúes posteriores sugieren que él encontró un número de casos
especiales de la serie de Taylor, incluidos aquellos para las funciones trigonométricas del seno,
coseno, tangente y arco tangente. En el siglo XVII, James Gregory también trabajó en esta área y
publicó varias series de Maclaurin. Pero recién en 1715 se presentó una forma general para
construir estas series para todas las funciones para las que existe y fue presentado por Brook
Existen varios métodos para obtener la derivada numérica, entre ellos los polinomios
interpoladores de Lagrange, de Newton o las series de Taylor, las que además de proporcionarnos
la fórmula para obtener la derivada nos dicen el posible error cometido. (Derivadas Numéricas,
2016)
es una representación o aproximación de una función como una suma de términos calculados de
42
los valores de sus derivadas en un mismo punto. Ésta se expande, al agregar más términos con el
objetivo de tener una mejor aproximación y como consecuencia, un resultado más acertado o con
de una función dada en un punto dado. Para ello, se hace uso del polinomio de Taylor, basado en
el siguiente teorema:
Teorema de Taylor
donde t = a es una variable muda. La primera ecuación se llama serie de Taylor o fórmula de
Taylor para f(x). En esencia, el teorema establece que cualquier función suave puede aproximarse
mediante un polinomio.
La segunda ecuación es sólo una manera, denominada la forma integral, mediante la cual
puede expresarse el residuo. Se obtiene una formulación alternativa basándose en el teorema del
valor medio para integrales. (La Serie de Taylor, 2006, págs. 78-80)
43
derivadas de orden superior, así que tomando términos adicionales se pueden generar formulas por
diferencias divididas.
Haciendo h= x-a, donde h es el tamaño del paso o incremento, esto es, la longitud del
intervalo sobre el cual se realiza la aproximación, se obtiene lo siguiente:
′(
f ′′ (a) 2 𝑓 ′′′(𝑎) 3 𝑓 ( 𝑛 ) (𝑎 ) 𝑛
𝑓 (𝑥 ) = 𝑓 (𝑎 ) + f 𝑎 ) ℎ + ℎ + ℎ + ⋯+ 𝑓 + 𝑅𝑛
2! 3! 𝑛!
Tomando los primeros tres términos del polinomio de Taylor y utilizando los puntos 𝑥 −
ℎ, 𝑥, 𝑥 + ℎ se obtiene:
f ′′ (a) 2
𝑓 (𝑥 − ℎ ) = 𝑓 ( 𝑎 ) − f ′ ( 𝑎 ) ℎ + ℎ
2!
𝑓 (𝑥 ) = 𝑓 ( 𝑎 )
f ′′ (a) 2
𝑓 (𝑥 + ℎ ) = 𝑓 ( 𝑎 ) + f ′ ( 𝑎 ) ℎ + ℎ
2!
Si multiplicamos cada ecuación por una constante (a, b, c) podemos formar un sistema de
Resolviendo el sistema obtenemos que a=1, b=-2 y c=1; por lo que al aplicar los valores y
despejando para f ′′ (a) nos genera la fórmula de la segunda derivada del punto medio de tres
puntos:
44
𝑓 (𝑥 − ℎ) − 2𝑓 (𝑥 ) + 𝑓(𝑥 + ℎ)
f ′′ (a) =
ℎ2
Para obtener la fórmula de cinco puntos centrada, se resuelve de la misma manera, con la
diferencia que los puntos que se utilizarán serán 𝑥 − 2ℎ, 𝑥 − ℎ, 𝑥, 𝑥 + ℎ, 𝑥 + 2ℎ y se debe utilizar
los primeros cinco términos del polinomio de Taylor. Después de resolver el sistema se obtiene
La fórmula de cinco puntos centrada para la tercera derivada se obtiene utilizando los puntos
Taylor. Resolviendo de la misma manera que hicimos anteriormente y despejando para la tercera
La fórmula para tres puntos la obtenemos a partir de la formula centrada de tres puntos
−𝑓(𝑥−ℎ)+𝑓(𝑥+ℎ)
3𝑓(𝑥−ℎ)−3𝑓(𝑥+ℎ) 6( ) 3𝑓(𝑥−ℎ)−3𝑓(𝑥+ℎ) 3𝑓(𝑥+ℎ)−3𝑓(𝑥−ℎ)
′′′ (
𝑓 𝑎) = + 2ℎ
=>𝑓 ′′′(𝑎) = +
2ℎ4 ℎ 3 2ℎ4 ℎ4
−3𝑓 (𝑥 − ℎ) + 3𝑓 (𝑥 + ℎ)
𝑓 ′′′(𝑎) =
2ℎ4
45
La diferenciación numérica es un método que sirve para evaluar las derivadas de una función
en aquellos casos en los que la derivada es difícil de obtener por un método directo, o si se cuenta
con los valores funcionales en puntos de datos discretos. (Diferenciación numérica de funciones,
Se consideran algunas técnicas de aproximación para derivar una función f(x) dada. Las reglas
que resultan son de grande importancia para la solución de ecuaciones diferenciales. Pueden ser
utilizadas para obtener aproximaciones numéricas de una derivada a partir de los valores de la
proceso inestable y no se puede esperar una buena aproximación aun cuando la información
original está bien aproximada, por lo que el error f’(x) – p’(x) puede ser muy grande especialmente
pero debemos permanecer conscientes que reducir el tamaño del paso no siempre mejorará la
aproximación. Ocurren dificultades como errores de redondeo con todas las fórmulas de
división por números pequeños tiende a exagerar el redondeo error, y esta operación debe evitarse
completo, aunque los métodos de orden superior reducen la dificultad. (Round-Off Error
de h necesario para reducir el error de truncamiento, hace que crezca el error de redondeo. Este es
la primera clase de métodos inestables que hemos encontrado, y estas técnicas se evitarían si fueron
46
posibles, sin embargo, además de usarse con fines computacionales, las fórmulas son necesarios
para aproximar las soluciones de ecuaciones diferenciales ordinarias y parciales. (Round-Off Error
d) Ejemplos
1. Calcule las aproximaciones por diferencia central con tres puntos de segundo orden para
F(x) = x3 + 4x – 15 en x = 0, h = 0.25
X F(x)
-0.25 -16.015625 (x-h)
𝑓(𝑥 − ℎ) − 2𝑓 (𝑥 ) + 𝑓(𝑥 + ℎ)
0 -15 (x) f ′′ (x) =
0.25 -13.984375 (x+h) ℎ2
𝑓 (−0.25)−2𝑓(0)+𝑓(0.25) (−16.015625)−2(−15)+(−13.984375)
f ′′ (x) = → f ′′ (x) = → 𝒇′′ (𝒙) = 𝟎
(0.25)2 (0.25)2
2. Calcule las aproximaciones por diferencia central con cinco puntos de tercer orden para la
X F(x) −𝑓(𝑥−2ℎ)+2𝑓(𝑥−ℎ)−2𝑓(𝑥+ℎ)+𝑓(𝑥+2ℎ)
f ′′′ (x) =
1.6 -0.144626 (x-2h) 2ℎ3
1.8 -1.374493 (x-h)
2 -3.074932 (x)
2.2 -5.311231 (x+h)
2.4 -8.128421 (x+2h) −𝑓(1.6)+2𝑓(1.8)−2𝑓(2.2)+𝑓(2.4)
f ′′′ (x) = 2(0.2)3
47
−(−0.144626)+2(−1.374493)−2(−5.311231)+(−8.128421)
𝑓 ( x) = → 𝒇′′′ (𝒙) = −𝟔. 𝟖𝟗𝟒𝟗𝟑𝟖
2(0.2)3
e) Error de Aproximación
Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un
procedimiento matemático exacto. Para explicar mejor el error, partiremos de el termino de orden
cero. Suponga que se trunca la expansión de la serie de Taylor después del término de orden cero
para obtener:
𝑓(𝑥𝑖+1 ) ≅ 𝑓(𝑥𝑖 )
El residuo o error de esta predicción consiste de la serie infinita de términos que fueron truncados:
′(
f ′′ (𝑥𝑖 ) 2 𝑓 ′′′(𝑥𝑖 ) 3 𝑓 (𝑛) (𝑥𝑖 ) 𝑛
𝑅0 = f 𝑥𝑖 )ℎ + ℎ + ℎ +⋯+ 𝑓
2! 3! 𝑛!
Al utilizar este teorema del valor medio para la derivada resulta fácil darse cuenta, de que
𝑅
la pendiente 𝑓 ′(𝜉 ) es igual al cociente de la elevación R0 entre el recorrido h, o 𝑓 ′(𝜉 ) = 0 que se
ℎ
puede reordenar para obtener 𝑅0 = f ′ (𝜉 )ℎ.
Por lo tanto, se ha obtenido la versión de orden cero de la ecuación.
Las versiones de orden superior son tan sólo una extensión lógica del razonamiento usado
anteriormente. (El residuo en la expansión de la serie de Taylor, 2006, págs. 84-85)
La versión de segundo orden y tercer orden son:
𝑓 ′′′(𝜉 ) 3
𝑅2 = ℎ
3!
𝑓 (4) (𝜉 ) 4
𝑅3 = ℎ
4!
48
A. Método de Romberg
a) Detalles Históricos
Romberg describió un método basado en el hecho de que si se conocen los dos resultados de
mejora de Richardson permite obtener una mejor aproximación al valor de la integral que los dos
valores iniciales. El método es iterativo y se puede aplicar hasta conseguir la precisión que se
general para la aceleración de convergencia ("solo" quería encontrar nuevas fórmulas para la
integración numérica), su artículo inspiró a muchos autores para trabajar en este campo y producir
algunos buenos resultados, que hoy en día influyen en muchas partes del análisis numérico. (Walz,
1991, pág. 9)
donde señala muy claramente que el método de extrapolación se puede aplicar a cualquier
secuencia de números {T (h)}, siempre que esta secuencia posea una expansión asintótica. Para
ilustrar esto, usa el método para el cálculo de log (x), para la diferenciación numérica y para la
El método de Romberg quizás tuvo que ser nombrado después de Kommerell o Saigey. Sin
embargo, hay que decir que el pequeño documento de Romberg dio la inicialización para el rápido
desarrollo de métodos de extrapolación en aquellos tiempos, y es por eso que este nombre está
𝑀 − 𝑁 (ℎ) = 𝐾1 ℎ + 𝐾2 ℎ + ⋯ + 𝐾𝑛 ℎ𝑛
En esta fórmula el error de truncamiento está dominado por 𝐾1 ℎ cuando h es pequeño y, por tanto,
prorrateo para producir fórmulas con un error de truncamiento de orden superior. Usaremos la
compuesta del trapecio para aproximar la integral de una función f en un intervalo [a, b] por medio
de m subintervalos es
𝑏 𝑚−1
ℎ (𝑏 − 𝑎 ) 2
∫ 𝑓 (𝑥 )𝑑𝑥 = [ 𝑓 (𝑎) + 𝑓 (𝑏) + 2 ∑ 𝑓(𝑥𝑗 )] − ℎ 𝑓′′(𝜇)
𝑎 2 12
𝑗=1
(𝑏−𝑎)
Donde 𝑎 < 𝜇. , < 𝑏, y 𝑥𝑗 = 𝑎 + 𝑗ℎ para cada 𝑗 = 0,1, . . . , 𝑚.
𝑚
Primero obtenemos las aproximaciones mediante la regla compuesta del trapecio, con 𝑚1 =
𝑏 2𝑘−1 −1
ℎ𝑘 (𝑏 − 𝑎) 2
∫ 𝑓(𝑥 )𝑑𝑥 = [𝑓(𝑎) + 𝑓(𝑏) + 2 ∑ 𝑓(𝑎 + 𝑖ℎ𝑘 )] − ℎ𝑘 𝑓’’(𝜇𝑘 )
𝑎 2 12
𝑖=1
Si introducimos la 𝑅𝑘,1 para denotar la parte de la ecuación con que se realiza la aproximación por
ℎ1 (𝑏 − 𝑎 )
𝑅1,1 = [𝑓(𝑎) + 𝑓(𝑏)] = [𝑓 (𝑎) + 𝑓(𝑏)];
2 2
ℎ2
𝑅2,1 = [𝑓 (𝑎) + 𝑓 (𝑏) + 2𝑓(𝑎 + ℎ2 )]
2
(𝑏 − 𝑎) (𝑏 − 𝑎 )
= [𝑓 (𝑎) + 𝑓 (𝑏) + 2𝑓 (𝑎 + )]
4 2
1
= [𝑅1,1 + ℎ1 𝑓 (𝑎 + ℎ2 )]
2
Y en general
2𝑘−2
1
𝑅𝑘,1 = [𝑅𝑘−1,1 + ℎ𝑘−1 ∑ 𝑓(𝑎 + (2𝑖 − 1)ℎ𝑘 )]
2
𝑖=1
Para cada 𝑘 = 2, 3, … , 𝑛.
Este método converge bastante lento, la extrapolación de Richardson servirá para agilizar
la convergencia.
Podemos demostrar, aunque ello no sea fácil (véase [RR, pp. 136- 138]) que si 𝑓 ∈ 𝐶 ∞[a,
b] entonces podemos escribir la regla compuesta del trapecio con un término de error alterno en la
forma:
51
𝑏 ∞ ∞
Con la regla compuesta del trapecio en esta forma, podemos suprimir el término que
contiene ℎ𝑘2 al combinar esta ecuación con su correspondiente que tiene ℎ𝑘 reemplazada por
ℎ𝑘+1 = ℎ𝑘/2 :
𝑏 ∞ ∞ ∞
2𝑖
𝐾𝑖 ℎ𝑘2𝑖 𝐾1 ℎ𝑘2 𝐾𝑖 ℎ𝑘2𝑖
∫ 𝑓 (𝑥 )𝑑𝑥 − 𝑅𝑘+1,1 = ∑ 𝐾𝑖 ℎ𝑘+1 = ∑ 2𝑖 = +∑ 𝑖
𝑎 2 4 4
𝑖=1 𝑖=2 𝑖=2
𝑂(ℎ𝑘4 ):
𝑏 ∞
𝑅𝑘+1,1 − 𝑅𝑘,1 𝐾𝑖 1 − 4𝑖−1
∫ 𝑓(𝑥 )𝑑𝑥 − [𝑅𝑘+1,1 + ] = ∑ ( 𝑖−1 )ℎ𝑘2𝑖
𝑎 3 3 4
𝑖=2
Ahora podemos aplicar la extrapolación a esta fórmula para obtener un resultado 𝑂(ℎ𝑘6 ) y
𝑅𝑘,1 − 𝑅𝑘−1,1
𝑅𝑘,2 = 𝑅𝑘,1 +
3
𝑅𝑘,𝑗−1 − 𝑅𝑘−1,𝑗−1
𝑅𝑘,𝑗 = 𝑅𝑘,𝑗−1 +
4𝑗−1 − 1
52
𝑅1,1
𝑅2,1 𝑅2,2
𝑅3,1 𝑅3,2 𝑅3,3
𝑅4,1 𝑅4,2 𝑅4,3 𝑅4,4
. . . .
. . . .
. . . .
𝑅𝑛,1 𝑅𝑛,2 𝑅𝑛,3 𝑅𝑛,2 …………. 𝑅𝑛,𝑛
un nuevo renglón de la tabla con sólo hacer una aplicación más de la regla compuesta del trapecio,
y luego promediar los valores previamente calculados para obtenerlos elementos sucesivos del
Física, la Química, las Ciencias Económicas y, prácticamente, en todas las ramas del saber, se ven
reflejadas cada día más en nuestra vida profesional, como en el cálculo de áreas, volúmenes,
construcción de edificios, los ingenieros necesitan realizar la evaluación de los elementos de las
matrices de flexibilidades, así como los giros de fijación, los cuales requieren del proceso
realizar la integración analítica resulta bastante tedioso y poco práctico, por lo que es más adecuada
la aplicación de integración numérica y Romberg es una buena opción para esta finalidad.
Por conveniencia, si consideramos que los datos están uniformemente espaciados (segmentos
en que se divide el intervalo de integración del mismo tamaño), por su sencillez la regla trapecial
53
puede ser la primera de las fórmulas de integración cerrada aplicable al problema por resolver.
Una de las ventajas del método es su sencillez y rápida convergencia gracias a la extrapolación de
Richard.
d) Ejemplos
Por medio del algoritmo desarrollado en Matlab de integración de Romberg calcule R3,3 para las
siguientes integrales:
Solución:
𝑏 2𝑘−1 −1
ℎ𝑘
∫ 𝑓 (𝑥 )𝑑𝑥 = [𝑓 (𝑎) + 𝑓 (𝑏) + 2 ∑ 𝑓(𝑎 + 𝑖ℎ𝑘 )]
𝑎 2
𝑖=1
ℎ𝑘 = (b - a) / 𝑚𝑘 = (b - a) /2𝑘−1
ℎ1 (𝑏 − 𝑎 )
𝑅1,1 = [𝑓(𝑎) + 𝑓 (𝑏)] = [𝑓(𝑎) + 𝑓(𝑏)]
2 2
2𝑘−2
1
𝑅𝑘,1 = [𝑅𝑘−1,1 + ℎ𝑘−1 ∑ 𝑓(𝑎 + (2𝑖 − 1)ℎ𝑘 )] ; 𝑑𝑜𝑛𝑑𝑒 𝑘 = 2,3,4, … 𝑛
2
𝑖=1
Aplicando el método:
54
ℎ1 = (𝑏 − 𝑎)/21−1
(1.5 − 1) 2
𝑅1,1 = [{1 ln(1) + 1.52 ln(1.5)}] = 0.22807
2
ℎ2 = (𝑏 − 𝑎)/22−1
22−2
1
𝑅2,1 = [𝑅2−1,1 + ℎ2−1 ∑ 𝑓(𝑎 + (2𝑖 − 1)ℎ2 ]
2
𝑖=1
1
= [𝑅 + ℎ1 ((1 + (2 ∗ 1 − 1)ℎ2 )2 ln(1 + (2 ∗ 1 − 1)ℎ2 )]
2 1,1
= 0.20120
ℎ3 = (𝑏 − 𝑎)/23−1
𝑅3,1 = 0.19449
𝑅𝑘,𝑗−1 − 𝑅𝑘−1,𝑗−1
𝑅𝑘,𝑗 = 𝑅𝑘,𝑗−1 +
4𝑗−1 − 1
𝑅2,2−1 − 𝑅2−1,2−1
𝑅2,2 = 𝑅2,2−1 + = 0.19225
42−1 − 1
𝑅3,2−1 − 𝑅3−1,2−1
𝑅3,2 = 𝑅3,2−1 + = 0.19226
42−1 − 1
𝑅3,3−1 − 𝑅−31,3−1
𝑅3,3 = 𝑅3,3−1 + = 0.19226
43−1 − 1
𝑹𝒌,𝒋 1 2 3
1 0.22807
2 0.20120 0.19225
3 0.19449 0.19226 0.19226
55
2
2. 𝑓 (𝑥 ) = 𝑥2 −4 en el intervalo [0,0.35]
Solución:
𝑏 2𝑘−1 −1
ℎ𝑘
∫ 𝑓 (𝑥 )𝑑𝑥 = [𝑓 (𝑎) + 𝑓 (𝑏) + 2 ∑ 𝑓(𝑎 + 𝑖ℎ𝑘 )]
𝑎 2
𝑖=1
ℎ𝑘 = (𝑏 − 𝑎)/ 𝑚𝑘 = (𝑏 − 𝑎)/2𝑘−1
ℎ1 (𝑏 − 𝑎 )
𝑅1,1 = [𝑓(𝑎) + 𝑓 (𝑏)] = [𝑓(𝑎) + 𝑓(𝑏)]
2 2
2𝑘−2
1
𝑅𝑘,1 = [𝑅𝑘−1,1 + ℎ𝑘−1 ∑ 𝑓(𝑎 + (2𝑖 − 1)ℎ𝑘 ] ; 𝑑𝑜𝑛𝑑𝑒 𝑘 = 2,3,4, … 𝑛
2
𝑖=1
Aplicando el método:
ℎ1 = (𝑏 − 𝑎)/21−1
(0.35 − 0) 2 2
𝑅1,1 = [{ 2 + ] = −0.17776
2 (0) − 4 (0.35)2 − 4
ℎ2 = (𝑏 − 𝑎)/22−1
22−2
1
𝑅2,1 = [𝑅2−1,1 + ℎ2−1 ∑ 𝑓(𝑎 + (2𝑖 − 1)ℎ2 ]
2
𝑖=1
1 2
= [𝑅1,1 + ℎ1 ( )]
2 (0 + (2 ∗ 1 − 1)ℎ2 )2 − 4
56
= −0.17705
ℎ3 = (𝑏 − 𝑎)/23−1
𝑅3,1 = −0.17688
𝑅𝑘,𝑗−1 − 𝑅𝑘−1,𝑗−1
𝑅𝑘,𝑗 = 𝑅𝑘,𝑗−1 +
4𝑗−1 − 1
𝑅2,2−1 − 𝑅2−1,2−1
𝑅2,2 = 𝑅2,2−1 + = −0.17682
42−1 − 1
𝑅3,2−1 − 𝑅3−1,2−1
𝑅3,2 = 𝑅3,2−1 + = −0.17682
42−1 − 1
𝑅3,3−1 − 𝑅−31,3−1
𝑅3,3 = 𝑅3,3−1 + = −0.17682
43−1 − 1
𝑹𝒌,𝒋 1 2 3
1 −0.17776
2 −0.17705 −0.17682
3 −0.17688 −0.17682 −0.17682
e) Error de Aproximación
renglones a generar. A menudo conviene más fijar una tolerancia de error de la aproximación y
generar n, dentro de una cota superior, hasta que las entradas diagonales consecutivas 𝑅𝑛−1,𝑛−1 y
𝑅𝑛,𝑛 concuerden en el margen de tolerancia. Para evitar la posibilidad de que dos elementos de
renglón consecutivos concuerden entre sí, pero no con el valor de la integral a aproximar,
generamos aproximaciones hasta que no sólo |𝑅𝑛−1,𝑛−1 − 𝑅𝑛,𝑛 | esté dentro de la tolerancia, sino
también |𝑅𝑛−2,𝑛−2 − 𝑅𝑛−1,𝑛−1 |. Aunque esta medida no es aplicable a todos los casos, nos
57
garantizará que dos conjuntos de aproximaciones generados en forma distinta concuerden dentro
del límite de la tolerancia especificada, antes de que aceptemos 𝑅𝑛,𝑛 como suficientemente exacto.
compuesta del trapecio tiene un término de error que podemos expresar en la forma de la ecuación
que usamos antes de aplicar la extrapolación de Richard; es decir, debemos tener 𝑓 ∈ 𝐶 2𝑘+2 [a, b]
para poder generar el k-ésima renglón. Romberg incluye una verificación en cada etapa para
cerciorarse de que la suposición se cumple. A estos métodos se les llama algoritmos cautelosos de
Romberg y se describen en [Joh]. En esa obra se explica también cuando se usa el método de
B. Método de Montecarlo
a) Detalles Históricos
(Romberg 1955). Inicialmente atrajo comparativamente poca atención; pero a principios de los
sobre varios aspectos y extensiones del método luego de investigaciones teóricas iniciales por F.
un documento conjunto (Bauer et al. 19631). Allí, y en el trabajo de S. Filippi en 1964, se señaló
desde hace muchos años, pero con frecuencia asociado en los tiempos modernos con su destacado
Se desea estimar la integral de una función G continua. Esta integral puede verse como el
cálculo del valor esperado de la función G cuando se aplica a una variable aleatoria con
distribución uniforme. Supongamos que el intervalo de integración es [0, 1] y sea X1, X2 hasta
1
∫ 𝑔(𝑥)𝑑𝑥 = 𝐸(𝐺 (𝑋))
0
De esta forma, con base en la Ley de los Grandes Números, esta integral se puede aproximar por:
1 𝑀
1
∫ 𝐺 (𝑥 )𝑑𝑥 ≈ ∑ 𝐺 (𝑥𝑖 )
0 𝑀
𝑖=1
Todo el problema se reduce a generar la muestra. Por otro lado, obsérvese que cualquier integral
sobre el intervalo [a, b] se puede transformar a una integral sobre el intervalo [0, 1] con el siguiente
𝑏 1 𝑀
(𝑏 − 𝑎)
∫ 𝑓(𝑥 )𝑑𝑥 = (𝑏 − 𝑎) ∫ 𝐺 (𝑎 + (𝑏 − 𝑎)𝑢)𝑑𝑢 ≈ ∑ 𝐺(𝑎 + (𝑏 − 𝑎)𝑢𝑖 )
𝑎 0 𝑀
𝑖=1
acertar o fallar. Muestreo de la media. Efectos del ruido. Técnicas de reducción de varianza.
El uso de los métodos de Montecarlo como herramienta de investigación, proviene del trabajo
el Laboratorio Nacional de Los Álamos en EE. UU. Este trabajo conllevaba la simulación de
imágenes 3D. La mayor desventaja de este método es la gran cantidad de iteración que se
iteraciones para generar una buena aproximación, en términos computacionales significa una
d) Ejemplos
Solución:
𝑏 1 𝑀
(𝑏 − 𝑎)
∫ 𝑓(𝑥 )𝑑𝑥 = (𝑏 − 𝑎) ∫ 𝐺 (𝑎 + (𝑏 − 𝑎)𝑢)𝑑𝑢 ≈ ∑ 𝐺(𝑎 + (𝑏 − 𝑎)𝑢𝑖 )
𝑎 0 𝑀
𝑖=1
Aplicándola:
5 (5 − 2)
∫ (𝑥 3 + 𝑥 2 + 1)𝑑𝑥 ≈ [{(2 + (5 − 2)0.8147)3 + (2 + (5 − 2)0.8147)2 + 1}
2 10
+ {(2 + (5 − 2)0.9058)3 + (2 + (5 − 2)0.9058)2 + 1}
+ {(2 + (5 − 2)0.9134)3 + (2 + (5 − 2)0.9134)2 + 1}
+ {(2 + (5 − 2)0.2785)3 + (2 + (5 − 2)0.2785)2 + 1}
+ {(2 + (5 − 2)0.9649)3 + (2 + (5 − 2)0.9649)2 + 1}
+ {(2 + (5 − 2)0.6324)3 + (2 + (5 − 2)0.6324)2 + 1}
+ {(2 + (5 − 2)0.5469)3 + (2 + (5 − 2)0.5469)2 + 1}
+ {(2 + (5 − 2)0.1576)3 + (2 + (5 − 2)0.1576)2 + 1}
= 193.45511
61
Solución:
𝑏 1 𝑀
(𝑏 − 𝑎)
∫ 𝑓(𝑥 )𝑑𝑥 = (𝑏 − 𝑎) ∫ 𝐺 (𝑎 + (𝑏 − 𝑎)𝑢)𝑑𝑢 ≈ ∑ 𝐺(𝑎 + (𝑏 − 𝑎)𝑢𝑖 )
𝑎 0 𝑀
𝑖=1
Aplicándola:
3
∫ (6𝑥 4 − 3 cos(𝑥 ) + 3.65 )𝑑𝑥
1
(3 − 1)
≈ [ {6(1 + (3 − 1)0.2572)4 − 3 cos(1 + (3 − 1)0.2572) + 3.65)}
10
+ {6(1 + (3 − 1)0.1419)4 − 3 cos(1 + (3 − 1)0.1419) + 3.65)}
+ {6(1 + (3 − 1)0.7922)4 − 3 cos(1 + (3 − 1)0.7922) + 3.65)}
+ {6(1 + (3 − 1)0.4854)4 − 3 cos(1 + (3 − 1)0.4854) + 3.65)}
+ {6(1 + (3 − 1)0.4218)4 − 3 cos(1 + (3 − 1)0.4218) + 3.65)}
+ {6(1 + (3 − 1)0.9595)4 − 3 cos(1 + (3 − 1)0.9595) + 3.65)}
+ {6(1 + (3 − 1)0.8003)4 − 3 cos(1 + (3 − 1)0.8003) + 3.65)}
+ {6(1 + (3 − 1)0.9157)4 − 3 cos(1 + (3 − 1)0.9157) + 3.65)}
+ {6(1 + (3 − 1)0.6557)4 − 3 cos(1 + (3 − 1)0.6557) + 3.65)}
+ {6(1 + (3 − 1)0.1578)4 − 3 cos(1 + (3 − 1)0.1578) + 3.65)}
= 353.35188
e) Error de Aproximación
Sea X una variable aleatoria con distribución F, con primero y segundo momento finitos,
g una función continua y sea I = E(g(X)). Sea 𝑥1 , 𝑥2 , . . . , 𝑥𝑛 una muestra de variables aleatorias
1
independientes con distribución F y denótese por 𝐼̂ 𝑀
𝑀 = 𝑀 ∑𝑖=1 𝑔(𝑋𝑖 ).
62
𝜎
Si σ es la desviación estándar de g(X), entonces se tiene que es la desviación estándar
√𝑀
de 𝐼̂
𝑀 , por ser las Xi variables aleatorias independientes.
(𝐼−𝐼̂
𝑀)
Por el Teorema del Límite Central se sabe que, para M grande, 𝑍𝑀 = 𝜎 se comporta como
( )
√𝑀
una variable aleatoria normal con media cero y varianza uno por lo que:
𝑐𝜎
𝑃(|𝐼 − 𝐼̂
𝑀| < ) = 𝑃 (|𝑍𝑀 | < 𝑐 ) ≈ 2Φ(𝑐 ),
√𝑀
1 𝑐 −𝑥 2 /2
Con Φ(𝑐 ) = ∫ 𝑒 𝑑𝑥 y c se selecciona dependiendo de la probabilidad que se desee
2𝜋 0
obtener. Por ejemplo, si se quiere que la probabilidad sea .95, se selecciona a c como 1.96.
𝜎
Por lo tanto, el error que se comete al usar el método de Monte-Carlo es aproximadamente .
√𝑀
Como se observa, si σ ≈ 1, se requiere de M = 104 para tener al menos dos cifras significativas.
c de tal forma que Φ(c) = α/2. De esta manera, con probabilidad α podemos asegurar que
𝑐𝜎 𝑐𝜎
[𝐼̂
𝑀− , 𝐼̂
𝑀+ .]
√𝑀 √𝑀
El problema para usar el resultado anterior es que hay que conocer el valor de la desviación
estándar de g(X). Lo que se hace en la práctica es estimarla por la varianza muestral. Con este
intervalo se determina el tamaño que se requiere que tenga M para tener la precisión deseada. Por
ejemplo, si se desea tener un intervalo de confianza del 95 % de longitud 10-2 se debe escoger M
insesgado ya que 𝐸(𝐼𝑀 ) = 𝐼. Por otro lado, el error cuadrático medio se define por
2
𝐸 ((𝐼 − 𝐼̂ ̂ 2 ̂
𝑀 ) ) = 𝐸(𝐼 − 𝐸(𝐼𝑀 )) + 𝑉𝑎𝑟(𝐼𝑀 )
dado que el estimador es insesgado, existe una constante C > 0 tal que
2 𝐶𝜎 2
𝐸 ((𝐼 − 𝐼̂ ̂
𝑀 ) ) = 𝑉𝑎𝑟(𝐼𝑀 ) ≈
𝑀
Si se desea reducir el error cuadrático medio lo que hay que hacer es reducir σ o incrementar
costoso incrementar la muestra, por lo que se ha optado por generar métodos para reducir la
varianza; estos métodos se conocen con el nombre de métodos de reducción de varianza. (Barrera,
2008)
64
Referencias
Burden, R. L., Faires, D. J., & Burden, A. M. (2017). Análisis Númerico. Cengage Learning.
https://cristiancastrop.files.wordpress.com/2010/09/catedra-metodos-numericos-2013-
unsch-041.pdf
Derivadas Numéricas. (2016). En T. F. Calderón, Métodos numéricos que deber saber (Primera
https://books.google.hn/books?id=yzSrDwAAQBAJ&pg=PT119&dq=para+que+podemo
s+usar+la+diferencia+numerica&hl=en&sa=X&ved=0ahUKEwjgkOLG_cHpAhUPVN8
KHcMGA38Q6AEIKTAA#v=onepage&q=para%20que%20podemos%20usar%20la%20
diferencia%20numerica&f=false
Obtenido de https://prezi.com/ywb5iv_but76/la-division-algebraica-por-el-metodo-de-
horner/
Obtenido de http://metodosnew.blogspot.com/
de-fluidos-y-termodinamica/segundo-corte/biografias/daniel-bernoulli/
https://sites.google.com/site/ittgiscfap/mtodo-secante
65
http://www.guiasdeapoyo.net/guias/cuart_mat_e/Serie%20de%20Taylor.pdf
https://books.google.hn/books?id=K1M4iJHKS1UC&printsec=frontcover#v=onepage&q
&f=false
Brooks/Cole.
Garcia, J. (2015). Métodos Geométricos para aproximar raíces de polinomios con aplicaciones a
procesamiento de señal.
http://lya.fciencias.unam.mx/gfgf/sc091/archivos/DiferenciacionNumerica.pdf
La Serie de Taylor. (2006). En S. Chapra, & R. Canale, Métodos Numéricos para Ingenieros
Medina, M. Á. (22 de octubre de 2013). La Historia del Método de Newton-Raphson y otro caso
historia-del-metodo-de-newton-raphson-y-otro-caso-mas-de-mala-documentacion-en-el-
cine/.
66
https://ocw.ehu.eus/file.php/81/capitulo-12.pdf
https://juncotic.com/metodo-de-horner-algoritmos-antiguos/
Numerical Methods for Roots of Polynomials. (2013). En J. McNamee, & V. Pan. Academic
Press-Elsevier.
https://chuchua79.wordpress.com/teorema-de-horner/
Round-Off Error Instability. (2011). En R. Borden, & D. Faires, Numerical Analysis (Novena ed.,
Vigil, J. C. (enero de 2011). Application of numerical methods to solve nonlinear equations for
numerical-methods-to-solve-nonlinear-equations-for-sea-wave-modeling.
67
Anexos
Códigos en Matlab
a. Método de la Secante
El método de la secante es similar al método de regla falsa, sólo que utiliza los puntos en sucesión
estricta Por esta razón, es necesario hacer la prueba de convergencia antes de su implementación,
%Impresion de resultados
if Ea<Es
fprintf('La raiz aproximada es: %0.8f\n',x1);
fprintf('error relativo: %i\n',Ea);
fprintf('Numero de iteraciones:%i\n',i);
else
fprintf('No hay convergencia despues de %i iteraciones\n',i)
fprintf('Error relativo %i\n',Ea);
end
b. Método de Bernoulli
c. Método de Newton-Horner
vectCoeficientes=linspace(0,0,n);
vectMultipliTemporales= linspace(0,0,n);
68
vectMultipliTemporales2= linspace(0,0,n-1);
vectSumasTemporales=linspace(0,0,n);
vectSumasTemporales2=linspace(0,0,n-1);
valoresX=linspace(0,0,n);
for i= 1: n
vectCoeficientes(i)=input(': ');
end
XoTemp =Xo;
%INICIA ITERACION
for i= 1: n
if (i==1)
vectSumasTemporales(i)=vectCoeficientes(i);
vectMultipliTemporales(i)=0;
end
if (i>1)
vectMultipliTemporales(i)=vectSumasTemporales(i-1)*Xo;
vectSumasTemporales(i)=vectCoeficientes(i)+(vectMultipliTemporales(i));
end
end
for i= 1: n-1
if (i==1)
vectSumasTemporales2(i)=vectSumasTemporales(i);
vectMultipliTemporales2(i)=0;
end
if (i>1)
vectMultipliTemporales2(i)=vectSumasTemporales2(i-1)*Xo;
vectSumasTemporales2(i)=vectSumasTemporales(i)+(vectMultipliTemporales2(i));
end
end
siguiente iteracion
vectSumasTemporales;
vectSumasTemporales2;
format long;
fprintf('*/*/*/*/*/ITERACION NO %d /*/*/*/*/*\n', j)
fprintf('%.13f \t',vectCoeficientes)
fprintf('\n')
fprintf('%.13f \t',vectMultipliTemporales)
fprintf('\n
_____________________________________________________________________________
____________ \n')
fprintf('%.13f \t',vectSumasTemporales)
fprintf('\n')
fprintf('%.13f \t',vectMultipliTemporales2)
fprintf('\n
________________________________________________________________\n')
70
fprintf('%.13f \t',vectSumasTemporales2)
fprintf('\n')
fprintf('\n')
operacion=((Xo - XoTemp)/Xo)*100;
fprintf('\n \n ')
end
valoresX;
d. Método de Jacobi
if re>1
disp('Radio Espectral mayor que 1')
disp('el método no converge')
return
end
fprintf('\nEl vector constante es::\n')
C=d^-1*b; % vector constante C, para el metodo
disp(C)
i=0;
err=tol+1;
z=[i,x(1),x(2),x(3),err]; %vector que me permite graficar la tabla
while err>tol & i<iter
xi=T*x+C;
%disp(xi)
err=norm(xi-x); %norma 2
%err=max(abs(xi-x)); %norma 1
%err=norm(xi-x)/norm(xi); %norma relativa
x=xi;
i=i+1;
z(i,1)=i;
z(i,2)=x(1);
z(i,3)=x(2);
z(i,4)=x(3);
z(i,5)=err;
end
fprintf('\nTABLA:\n\n n x1 x2 x3 Error\n\n ');
disp(z)%impresión de la tabla.
f. Derivación Numérica
syms x;
f2=subs(f,x+2*h);
f1=subs(f,x+h);
f0=subs(f,x);
f_1=subs(f,x-h);
f_2=subs(f,x-2*h);
segundaderivada3puntos=(f_1-2*f0+f1)/h^2
segundaderivada5puntos=(-f_2+16*f_1-30*f0+16*f1-f2)/(12*h^2)
terceraderivada3puntos=(-3*f_1+3*f1)/(2*h^4)
terceraderivada5puntos=(-f_2+2*f_1-2*f1+f2)/(2*h^3)
end
g. Método de Romberg
%-------Integracion de Romberg---------%
clear
clc
syms x;
h = b-a;
r = zeros(2,n+1);
r(1,1) = (h/2)*(subs(f,a)+subs(f,b));
73
for i = 2:n
sum = 0;
for k = 1:2^(i-2)
sum = sum+subs(f,a+(k-0.5)*h);
end
r(2,1) = (r(1,1)+h*sum)/2;
for j = 2:i
l = 2^(2*(j-1));
r(2,j) = r(2,j-1)+(r(2,j-1)-r(1,j-1))/(l-1);
end
for k = 1:i
fprintf(' %11.5f',r(2,k));
end
fprintf('\n\n');
h = h/2;
for j = 1:i
r(1,j) = r(2,j);
end
end
h. Método de Montecarlo
clear
74
clc
format long;
syms x;
m=input('Ingrese M: ');
g=0;
j=0;
for t=1:m
u=rand(1);
g=a+(u.*(b-a));
j=subs(f,g)+j;
s=j*((b-a)/m);
end