Documentos de Académico
Documentos de Profesional
Documentos de Cultura
edición
ANÁLISIS
NUMÉRICO
Impreso en México
1 2 3 4 5 6 7 20 19 18 17
Análisis numérico
DÉCIMA EDICIÓN
Richard L. Burden
Youngstown University
J. Douglas Faires
Youngstown University
Annette M. Burden
Youngstown University
Traducción:
Mara Paulina Suárez Moreno
Traductora profesional
Revisión técnica:
Wilmar Alberto Díaz Ossa
Mágister en matemáticas aplicadas
Profesor en la Universidad Distrital Francisco José de Caldas
Australia • Brasil • Corea • España • Estados Unidos • Japón • México • Reino Unido • Singapur
K Prueba 2
Contenido
Prefacio vii
iii
iv Contenido
Material en línea
•
• Preguntas de análisis
• Conceptos clave
• Revisión de capítulo
• Bibliografía
•
• Índice
• Índice de algoritmos
• Glosario de notación
• Trigonometría
•
Ingrese a www.cengage.com, busque el libro por el ISBN e ingrese el siguiente código de acceso:
Prefacio
Acerca del texto
Este texto se escribió para una secuencia de cursos sobre la teoría y la aplicación de técnicas
de aproximación numérica. Está diseñado principalmente para los estudiantes avanzados de
matemáticas y ciencias e ingeniería de nivel básico que han terminado por lo menos el pri-
mer año de la sucesión de cálculo universitario estándar. La familiaridad con los funda-
material introductorio sobre estos temas, por lo que los cursos relacionados con ellos no son
por fuerza requisitos previos.
Se han usado ediciones previas de Análisis numérico en distintas situaciones. En al-
gunos casos, el análisis matemático subyacente al desarrollo de técnicas de aproximación
recibió más énfasis que los métodos; en otros, el énfasis era inverso. El libro se ha utilizado
como referencia central para los cursos de nivel posgrado en ingeniería, matemáticas, pro-
gramas de ciencias de la computación y cursos de primer año sobre análisis introductorio
-
peramos que muchas personas lo usen solamente para un curso de un solo plazo. En dichos
-
damentales de métodos y algoritmos hasta generalizaciones y extensiones de la teoría. Ade-
vii
viii Prefacio
sistemas informáticos. Además, ahora existe Sage, un sistema de código abierto. La infor-
mación sobre este sistema se puede encontrar en el sitio
http://www.sagemath.org
Aunque existen diferencias entre los paquetes, tanto de desempeño como de precio,
todos efectúan operaciones de cálculo y algebraicas estándar.
Algoritmos y programas
En nuestra primera edición, presentamos una característica que en ese tiempo era innovado-
estos se encuentran en el sitio web que acompaña al libro (consulte “Complementos” [dispo-
nibles sólo para la edición en inglés y se venden por separado]).
Para cada algoritmo existe un programa escrito en Fortran, Pascal, C y Java. Además,
-
tadora comunes.
Todos los programas se ilustran con un programa muestra, correlacionado estrechamen-
para observar el formato de entrada y salida. A continuación, los programas se pueden mo-
son, en la medida de lo posible, iguales en cada uno de los sistemas de programación. Esto
permite al instructor usar los programas para analizarlos de manera genérica, de manera in-
dependiente del sistema de programación particular que use un solo estudiante.
-
-
dar. (En general, también reciben el nombre de archivos “sólo texto”.) Se incluyen archivos
del equipo informático. En nuestras revisiones del libro, hemos añadido técnicas nuevas, en
un intento por mantener nuestro trato actual. Para continuar con esta tendencia, realizamos
-
blemas impares se resuelven en la última parte del texto, si los problemas pares se asignan
-
tas antes de resolver el problema par.
• Incluimos preguntas de análisis después de cada sección del capítulo, principalmente para
uso del instructor en los cursos en línea.
• Renombramos la última sección de cada capítulo y la dividimos en cuatro subsecciones:
Software numérico, Preguntas de análisis, Conceptos clave y Revisión del capítulo (que
se encuentran disponibles en línea). La mayoría de las Preguntas de análisis llevan al es-
tudiante hacia áreas modernas de investigación en el desarrollo de software.
• Reorganizamos partes del texto para facilitar la instrucción en línea.
• Agregamos diapositivas en PowerPoint para complementar el material de lectura (dispo-
nibles sólo para la versión en inglés).
Como siempre con nuestras revisiones, examinamos todos los enunciados para determinar si
Complementos
Los autores crearon un sitio web que acompaña el libro, el cual contiene los materiales com-
plementarios que se mencionan más adelante. El sitio web se encuentra en
https://sites.google.com/site/numericalanalysis1burden/
es para estudiantes e instructores. Parte del material en el sitio web es sólo para uso del
instructor. Los instructores pueden acceder al material protegido al contactar a los autores
para obtener la contraseña (disponibles sólo para la versión en inglés y se venden por
separado).
x Prefacio
https://www.cengagebrain.com
1. Ejemplos del programa para estudiantes que contienen código Maple, Matlab y
Excel para que los estudiantes lo utilicen para resolver problemas del texto. Está
organizado en forma paralela al texto, capítulo por capítulo. Se ilustran los coman-
dos en estos sistemas. Los comandos se presentan en segmentos de programa muy
programación.
5. Diapositivas en PowerPoint para el instructor en formato PDF para uso del ins-
tructor, tanto para cursos tradicionales como en línea. Contacte a los autores para
obtener la contraseña.
6. Manual del instructor
en el libro. Los resultados de los cálculos en el Manual del Instructor se regeneraron
para esta edición mediante los programas en el sitio web para garantizar la compa-
tibilidad entre los diferentes sistemas de programación. Contacte a los autores para
obtener la contraseña.
7. Pruebas muestra para el instructor para uso del instructor. Contacte a los autores
para obtener la contraseña.
8.
de las secuencias posibles que se pueden generar a partir de este diagrama fueron enseñadas
por los autores en Youngstown State University.
Prefacio xi
El material en esta edición debe permitir a los instructores preparar un curso universita-
rio de álgebra lineal numérica para los estudiantes que no han estudiado análisis numérico
antes. Esto se puede realizar al cubrir los capítulos 1, 6, 7 y 9.
Capítulo 1
Capítulo 9
Capítulo 11
Capítulo 12
Reconocimientos
Afortunadamente obtuvimos las impresiones de muchos de nuestros estudiantes y colegas
sobre ediciones anteriores de este libro y hemos tomado estos comentarios muy en serio. He-
sumamente agradecidos con todos aquellos que se han tomado el tiempo para contactarnos y
Nos gustaría agradecer especialmente a las siguientes personas, cuyas sugerencias han
sido útiles para ésta y otras ediciones previas.
Douglas Carter,
John Carroll, Dublin University
Yavuz Duman, T.C. Istanbul Kultur Universitesi
Neil Goldman,
Christopher Harrison,
Teryn Jones, Youngstown State University
Aleksandar Samardzic, University of Belgrade
Mikhail M. Shvartsman, University of St. Thomas
Dennis C. Smolarski, Santa Clara University
Dale Smith, Comcast
Siguiendo nuestra práctica en las ediciones pasadas, hemos obtenido la ayuda de los
estudiantes de la Youngstown State University. Nuestro capaz asistente para esta edición
También nos gustaría expresar nuestra gratitud con nuestros colegas en la facultad y admi-
nistración de la Youngstown State University por darnos la oportunidad y las instalaciones
para completar este proyecto.
Nos gustaría agradecer a algunas de las personas que hicieron contribuciones importan-
tes a la historia de los métodos numéricos. Herman H. Goldstine escribió un libro excelente
titulado A History of Numerical Analysis from the 16th Through the 19th Century [Golds].
-
nor y Edmund F. Robertson y tiene la dirección de internet
http://www-gap.dcs.st-and.ac.uk/∼history/
Por último, gracias nuevamente a aquellos que han dedicado tiempo y esfuerzo en con-
tactarnos durante años. Ha sido grandioso escuchar a tantos estudiantes y docentes, quienes
utilizan nuestro libro para su primera exposición al estudio de métodos numéricos. Espera-
mos que esta edición continúe con este intercambio y se sume al deleite de los estudiantes de
rlburden@ysu.edu
amburden@ysu.edu
1 Preliminares matemáticos
y análisis de error
Introducción
Al comenzar los cursos de química, estudiamos la ley del gas ideal,
PV = NRT,
PV (1.00)(0.100)
T = = = 290.15 K = 17◦ C.
NR (0.00420)(0.08206)
Sin embargo, cuando medimos la temperatura del gas, encontramos que la verdadera tem-
peratura es 15◦C.
V1
V2
1
2 CAPÍTULO 1 Preliminares matemáticos y análisis de error
Claramente, se sospecha la ley de gas ideal, pero antes de concluir que la ley es inválida
en esta situación, deberíamos examinar los datos para observar si el error se puede atribuir
a los resultados del experimento. En este caso, podríamos determinar qué tan precisos de-
berían ser nuestros resultados experimentales para evitar que se presente un error de esta
magnitud.
El análisis del error involucrado en los cálculos es un tema importante en análisis nu-
mérico y se presenta en la sección 1.2. Esta aplicación particular se considera en el ejercicio
26 de esa sección.
Este capítulo contiene una revisión breve de los temas del cálculo de una sola variable
que se necesitarán en capítulos posteriores. Un conocimiento sólido de cálculo es fundamen-
tal para comprender el análisis de las técnicas numéricas y sería preciso efectuar una revi-
sión más rigurosa para quienes no han estado en contacto con este tema durante un tiempo.
Además, existe una introducción a la convergencia, el análisis de error, la representación
computacional.
Definición 1.1 Una función f X de números reales que tiene el límite L a x0, escrita
como
lím f (x) = L ,
x→x0
si, dado cualquier número real ε > 0, existe un número real δ > 0, de tal forma que
Figura 1.1
y
ε
y 5 f (x)
L 1e
L
L 2e
x0 2 d x0 x0 1 d x
1.1 Revisión de cálculo 3
lím xn = x, o xn → x en n → ∞,
n→∞
{xn }∞
n=1 converge a x.
a. f es continua en x0;
b. Si {xn }∞
n=1 es cualquier sucesión en X, que converge a x0, entonces
lím n→∞ f (xn ) = f (x0 ).
Se asumirá que las funciones que consideraremos al analizar los métodos numéricos son
continuas porque éste es el requisito mínimo para una conducta predecible. Las funciones
-
des al intentar aproximar la solución de un problema.
Diferenciabilidad
-
comportaría de forma más predecible que una con numerosas características irregulares. La
condición de uniformidad depende del concepto de la derivada.
existe. El número f (x0 ) recibe el nombre de derivada de f en x0. Una función que tiene una
derivada en cada número en un conjunto X es diferenciable en X.
Figura 1.2
y
f (x 0)
(x 0, f (x 0)) y 5 f (x)
x0 x
El teorema atribuido a Michel Los siguientes teoremas son de importancia fundamental al deducir los métodos para
estimación del cálculo de error. Las pruebas de estos teoremas y los otros resultados sin refe-
en 1691 en un tratado poco
conocido titulado Méthode pour
rencias en esta sección se pueden encontrar en cualquier texto de cálculo estándar.
résoundre les égalites (Método El conjunto de todas las funciones que tienen derivadas continuas n en X se denota como
para resolver las igualdades). Cn(X y el conjunto de funciones que tienen derivadas de todos los órdenes en X se denota
Originalmente, Rolle criticaba como C ∞ (X ). Las funciones polinomial, racional, trigonométrica, exponencial y logarítmi-
el cálculo desarrollado por Isaac
ca se encuentran en C ∞ (X ), donde X
Newton y Gottfried Leibniz, pero
después se convirtió en uno de las funciones. Cuando X es un intervalo de la recta real, de nuevo se omiten los paréntesis
sus defensores. en esta notación.
Figura 1.3
y
f 9(c) 5 0
y 5 f (x)
f(a) 5 f (b)
a c b x
f (b) − f (a)
f (c) = .
b−a
1.1 Revisión de cálculo 5
Figura 1.4
y
Líneas paralelas
Pendiente f 9(c)
y 5 f (x)
f (b) 2 f (a)
Pendiente
b2a
a c b x
Figura 1.5
y
y 5 f (x)
a c2 c1 b x
f (x = 2 − ex + 2x
f (x = −ex + 2.
ln (ex = x= ≈
6 CAPÍTULO 1 Preliminares matemáticos y análisis de error
f (0) = 2 − e0 + 2(0) = 1
También utilizaremos con frecuencia el teorema del valor intermedio. A pesar de que
esta declaración parece razonable, su prueba va más allá del alcance del curso habitual de
cálculo. Sin embargo, se puede encontrar en muchos textos de análisis (consulte, por ejem-
Figura 1.6
y
(a, f (a))
f (a)
y 5 f (x)
K
f (b)
(b, f (b))
a c b x
1.1 Revisión de cálculo 7
Solución f (x = x5 − 2x + x2 − 1. La función f es
continua en [0, 1]. Además,
f = −1 < 0 y 0<1=f .
Por lo tanto, el teorema del valor intermedio implica que existe un número c, con 0 , c , 1,
para el cual c5 − 2c + c2 − 1 = 0.
Como se observa en el ejemplo 2, el teorema del valor intermedio se utiliza para deter-
minar cuándo existen soluciones para ciertos problemas. Sin embargo, no provee un medio
Integración
El otro concepto básico del cálculo que se utilizará ampliamente es la integral de Riemann.
Definición 1.12 La integral de Riemann de la función f en el intervalo [a, b] es el siguiente límite, siempre
y cuando exista:
George Fredrich Berhard Riemann b n
Figura 1.7
y
y 5 f (x)
Se necesitarán otros dos resultados en nuestro estudio para análisis numérico. El primero
es una generalización del teorema del valor promedio para integrales.
8 CAPÍTULO 1 Preliminares matemáticos y análisis de error
Cuando g(x ≡
proporciona el valor promedio de la función f sobre el intervalo [a, b] como (consulte la
1 b
f (c) = f (x) d x.
b−a a
Figura 1.8
y
y 5 f (x)
f (c)
a c b x
f (n+1) (ξ(x))
Rn (x) = (x − x0 )n+1 .
(n + 1)!
donde ξ(x) x
Figura 1.9
y
1
y 5 cos x
p p
22 2
2 2
2p p x
1
y 5 P2(x) 5 1 2 2 x 2
2
10 CAPÍTULO 1 Preliminares matemáticos y análisis de error
1 1 10−6
cos 0.01 = 1 − (0.01)2 + (0.01)3 sen ξ(0.01) = 0.99995 + sen ξ(0.01).
2 6 6
Por lo tanto, la aproximación para cos 0.01 provista por el polinomio de Taylor es 0.99995.
El error de truncamiento, o término restante, relacionado con esta aproximación es
10−6
sen ξ(0.01) = 0.16 × 10−6 sen ξ(0.01),
6
donde la barra sobre el 6 en 0 .16 -
mente. A pesar de que no existe una forma de determinar sen ξ(0.01), sabemos que todos los
valores del seno se encuentran en el intervalo [−1, 1], por lo que el error que se presenta si
utilizamos la aproximación 0.99995 para el valor de cos 0.01 está limitado por
Por lo tanto, la aproximación 0.99995 corresponde por lo menos a los primeros cinco dígitos
de cos 0.01 y
0.9999483 < 0.99995 − 1.6 × 10−6 ≤ cos 0.01
≤ 0.99995 + 1.6 × 10−6 < 0.9999517.
El límite del error es mucho más grande que el error real. Esto se debe, en parte, al esca-
so límite que usamos para | sen ξ(x)|. En el ejercicio 27 se muestra que para todos los valores
de x, tenemos | sen x| ≤ |x|. Puesto que 0 ≤ ξ < 0.01, podríamos haber usado el hecho de
que | sen ξ(x)| ≤ 0.01 en la fórmula de error, lo cual produce el límite 0.16 × 10−8 .
b) Puesto que f (0) = 0, el tercer polinomio de Taylor con el término restante alre-
dedor de x0 = 0 es
1 1
cos x = 1 − x 2 + x 4 cos ξ̃ (x),
2 24
donde 0 < ξ̃ (x) < 0.01. El polinomio de aproximación sigue siendo el mismo y la aproxima-
ción sigue siendo 0.99995, pero ahora tenemos mayor precisión. Puesto que | cos ξ̃ (x)| ≤ 1
para todas las x, obtenemos
1 4 1
x cos ξ̃ (x) ≤ (0.01)4 (1) ≈ 4.2 × 10−10 .
24 24
por lo tanto
| cos 0.01 − 0.99995| ≤ 4.2 × 10−10 ,
y
Ilustración Podemos utilizar el tercer polinomio de Taylor y su término restante encontrado en el ejem-
0.1
0 cos x d x
. Tenemos
0.1 0.1 0.1
1 1
cos x d x = 1 − x2 dx + x 4 cos ξ̃ (x) d x
0 0 2 24 0
0.1 0.1
1 1
= x − x3 + x 4 cos ξ̃ (x) d x
6 0 24 0
0.1
1 1
= 0.1 − (0.1)3 + x 4 cos ξ̃ (x) d x.
6 24 0
Por lo tanto,
0.1
1
cos x d x ≈ 0.1 − (0.1)3 = 0.09983.
0 6
Un límite o cota para el error en esta aproximación se determina a partir de la integral del
término restante de Taylor y el hecho de que | cos ξ̃ (x)| ≤ 1 para todas las x:
0.1 0.1
1 1
x 4 cos ξ̃ (x) d x ≤ x 4 | cos ξ̃ (x)| d x
24 0 24 0
0.1
1 (0.1)5
≤ x4 dx = = 8.3 × 10−8 .
24 0 120
por lo que el error real para esta aproximación es 8. × 10−8, que se encuentra dentro
del límite del error.
√ -
ta de dígitos. La aritmética que usamos en este mundo 3 como el único número po-
El error debido al redondeo El error que se produce cuando se utiliza una calculadora o computadora para realizar
debería esperarse siempre que se cálculos con números reales recibe el nombre de error de redondeo. Se presenta porque la
realizan cálculos con números
que no son potencias de 2.
Mantener este error bajo control y esto da como resultado cálculos realizados únicamente con representaciones aproximadas
es en extremo importante cuando de los números reales. En una computadora, sólo un subconjunto relativamente pequeño del
el número de cálculos es grande. sistema de números reales se usa para la representación de todos los números reales. Este
subconjunto sólo contiene números racionales, tanto positivos como negativos, y almacena
la parte fraccionaria, junto con una parte exponencial.
(−1)s 2c−1023 (1 + f ).
0 10000000011 1011100100010000000000000000000000000000000000000000.
El bit más a la izquierda es s = 0, lo cual indica que es un número positivo. Los siguientes
11 bits, 10000000011, proveen la característica y son equivalentes al número decimal
1 3 4 5 8 12
1 1 1 1 1 1
f =1· +1· +1· +1· +1· +1· .
2 2 2 2 2 2
1.2 Errores de redondeo y aritmética computacional 13
0 10000000011 1011100100001111111111111111111111111111111111111111,
0 10000000011 1011100100010000000000000000000000000000000000000001.
el siguiente número de máquina más grande. Para ser preciso, representa cualquier número
Los números que se presentan en los cálculos que tienen una magnitud menor que
2−1022 · (1 + 0)
resultan en un subdesbordamiento -
riores a
21023 · (2 − 2−52 )
-
ros reales. Para examinar estos problemas, utilizaremos números decimales más familiares
decimal
±0.d1 d2 . . . dk × 10n , 1 ≤ d1 ≤ 9, y 0 ≤ di ≤ 9,
14 CAPÍTULO 1 Preliminares matemáticos y análisis de error
Ejemplo 1 π.
π = 0.314159265 . . . × 101 .
En general, el error relativo es a) π usando el recorte de cinco dígitos es
una mejor medición de precisión
que el error absoluto porque
considera el tamaño del número f l(π ) = 0.31415 × 101 = 3.1415.
que se va a aproximar.
b) El sexto dígito de la expansión decimal de π es un 9, por lo que el formato de punto
π con redondeo de cinco dígitos es
Definición 1.15 Suponga que p ∗ es una aproximación a p. El error real es p − p ∗, el error absoluto es
| p − p∗ |
| p − p ∗ |, y el error relativo es , siempre y cuando p = 0.
| p|
Considere los errores real, absoluto y relativo al representar p con p ∗ en el siguiente ejemplo.
Ejemplo 2 Determine los errores real, absoluto y relativo al aproximar p con p ∗ cuando
Solución
a) Para p = × 101 y p ∗ = × 101, el error real es 0.1, el error absoluto
es 0.1 y el error relativo es 0.3333 × 10−1.
b) Para p = × 10 y p ∗ = × 10 , el error real es 0.1 × 10 , el error
absoluto es 0.1 × 10 y el error relativo es 0.3333 × 10−1.
A menudo no podemos encontrar
c) Para p = × 10 y p ∗ = × × 10 , el error ab-
un valor preciso para el error soluto es 0.1 × 10 y, de nuevo, el error relativo es 0.3333 × 10−1 .
verdadero en una aproximación.
Por el contrario, encontramos Este ejemplo muestra que el mismo error relativo, 0.3333 × 10−1, se presenta para errores
una cota para el error, lo cual nos
proporciona un error del “peor
absolutos ampliamente variables. Como una medida de precisión, el error absoluto puede ser
caso”.
del valor.
Un límite de error es un número no negativo mayor que el error absoluto. Algunas ve-
ces se obtiene con los métodos de cálculo para encontrar el valor absoluto máximo de una
Tabla 1.1
p 0.1 0.5 100 1000 5000 9990 10000
y − f l(y)
.
y
entonces
y − f l(y) 1
≤ × 10−k = 10−k+1 .
y 0.1
De igual forma, un límite para el error relativo al utilizar aritmética de redondeo de dígitos k
es 0.5 × 10−k+1
Observe que los límites para el error relativo mediante aritmética de dígitos k son inde-
pendientes del número que se va a representar. Este resultado se debe a la forma en la que se
distribuyen los números de máquina a lo largo de la recta real. Debido al formato exponen-
cial de la característica, el mismo número de los números de máquina decimales se usa para
representar cada uno de los intervalos [0.1, 1], [1, 10] y [10, 100]. De hecho, dentro de los
límites de la máquina, el número de los números de máquina decimales en [10 n , 10n+1 ] es
constante para todos los enteros n.
-
tante de x y y
5
Ejemplo 3 Suponga que x = 7
y y = 13. Utilice el corte de cinco dígitos para calcular x + y, x − y, x × y,
y x ÷ y.
Por lo tanto,
5 1 22
El valor verdadero es x + y = 7
+ 3
= 21, por lo que tenemos
22
Error absoluto = − 0.10476 × 101 = 0.190 × 10−4
21
y
0.190 × 10−4
Error relativo = = 0.182 × 10−4 .
22/21
Tabla 1.2
Operación Resultado Valor real Error absoluto Error relativo
siguiente ejemplo.
5
Ejemplo 4 Suponga que además de x = 7
y y = 13 tenemos
Solución Estos números fueron seleccionados para ilustrar algunos problemas que pueden
x y u son casi iguales, su diferencia es
pequeña. El error absoluto para x u es
|(x − u) − (x u)| = |(x − u) − ( f l( f l(x) − f l(u)))|
5
= − 0.714251 − f l 0.71428 × 100 − 0.71425 × 100
7
= 0.347143 × 10−4 − f l 0.00003 × 100 = 0.47143 × 10−5 .
0.47143 × 10−5
≤ 0.136.
0.347143 × 10−4
Tabla 1.3
Operación Resultado Valor real Error absoluto Error relativo
Uno de los cálculos más comunes que producen errores implica la cancelación de dígi-
x − y es
donde
del error ocurre al dividir entre un número de menor magnitud (o, de manera equivalente, al
z tiene
z + δ, en donde el error δ se introduce por representación
o por cálculo previo. Ahora divida entre ε = 10−n, en donde n > 0. Entonces
z f l(z)
≈ fl = (z + δ) × 10n .
ε f l(ε)
El error absoluto en esta aproximación, |δ| × 10n, es el error absoluto original, |δ|, multipli-
cado por el factor 10n.
Ejemplo 5 Si p = 0. q = 0. p − q y de-
termine los errores absoluto y relativo mediante a) redondeo y b) corte.
|r − r ∗ | |0.00016 − 0.0002|
= = 0.25,
|r | |0.00016|
1.2 Errores de redondeo y aritmética computacional 19
b) Si se usa el corte para obtener los cuatro dígitos, la aproximación de cuatro dígitos
para p, q, y r son p ∗ = 0.5461, q ∗ = 0.5460, y r ∗ = p ∗ − q ∗ = 0.0001. Esto nos
da
|r − r ∗ | |0.00016 − 0.0001|
= = 0.375,
|r | |0.00016|
Considere esta fórmula aplicada a la ecuación x2 + 62.10x + 1 = 0, cuyas raíces son apro-
ximadamente
x1 = −0.01610723 y x2 = −62.08390.
Las raíces x1 y x2 de una Usaremos otra vez la aritmética de redondeo de cuatro dígitos en los cálculos para determi-
ecuación cuadrática general están nar la raíz. En esta ecuación, b2 ac, por lo que el numerador en el
cálculo para x1 implica la resta de números casi iguales. Ya que
por el hecho de que
x1 + x2 = −
b
y x1 x2 =
c
. b2 − 4ac = (62.10)2 − (4.000)(1.000)(1.000)
a a √ √
= 3856. − 4.000 = 3852. = 62.06,
las fórmulas de Vièta para los
tenemos
| − 0.01611 + 0.02000|
≈ 2.4 × 10−1 .
| − 0.01611|
√ Por otro lado, el cálculo para x2 implica la suma de los números casi iguales −b y
− b2 − 4ac. Esto no presenta problemas debido a que
−62.10 − 62.06 −124.2
f l(x2 ) = = = −62.10
2.000 2.000
−2c
x1 = √ .
b + b2 − 4ac
−2.000 −2.000
f l(x1 ) = = = −0.01610,
62.10 + 62.06 124.2
que tiene el error relativo pequeño 6.2 × 10−4 .
La técnica de racionalización también puede aplicarse para proporcionar la siguiente
fórmula cuadrática alterna para x2:
−2c
x2 = √ .
b − b2 − 4ac
Aritmética anidada
La pérdida de precisión debido a un error de redondeo también se puede reducir al reacomo-
dar los cálculos, como se muestra en el siguiente ejemplo.
Solución
Tabla 1.4
x x2 x3 6.1x 2 3.2x
Para ilustrar los cálculos, observemos los que participan para encontrar x usando la
aritmética de redondeo de tres dígitos. Primero encontramos
-
tica de corte tenemos
−14.263899 + 14.2
≈ 0.0045;
−14.263899
−14.263899 + 14.3
≈ 0.0025.
−14.263899
El anidado ha reducido el error relativo para la aproximación de corte a menos de 10% del
valor obtenido al inicio. Para la aproximación de redondeo, la mejora ha sido todavía más
drástica; el error, en este caso, se ha reducido más de 95 por ciento.
Los polinomios siempre deberían expresarse en forma anidada antes de realizar una
evaluación porque esta forma minimiza el número de cálculos aritméticos. La disminución
del error en la ilustración se debe a la reducción de los cálculos de cuatro multiplicaciones y
tres sumas a dos multiplicaciones y tres sumas. Una forma de disminuir el error de redondeo
es reducir el número de cálculos.
traducción latina de sus trabajos En los algoritmos se usan dos símbolos de puntuación:
comenzó con las palabras “Dixit
dice”.
La sangría se usa para indicar que los grupos de declaraciones se tratarán como una sola
entidad.
Las técnicas de ciclado en los algoritmos también son controladas por contador, como
Para i = 1, 2, . . . , n
tome xi = a + i · h
Mientras i < N
Si entonces o Si entonces
si no
Los pasos en los algoritmos siguen las reglas de la construcción del programa estruc-
turado. Se han ordenado de tal forma que no debería ser difícil traducir el pseudocódigo en
-
licas y se encuentran entre paréntesis para distinguirlos de las declaraciones algorítmicas.
N
Ilustración El siguiente algoritmo calcula x1 + x2 + · · · + x N = xi , dado N y los números
x1, x2, , xN i=1
ENTRADA N , x1 , x2 , . . . , xn .
N
SALIDA SUM = i=1 xi .
Paso 1 Tome SUM = 0. (Inicialice el acumulador. )
Paso 2 Para i = 1, 2, . . . , N hacer
Tome SUM = SUM + xi . (Añadir el siguiente término. )
Paso 3 SALIDA (SUM);
PARE.
1.3 Algoritmos y convergencia 23
y el valor de ln 1.
para determinar el valor mínimo de N requerido para
A partir del cálculo sabemos que si n=1 an es una serie alterna con límite A cu-
∞
Solución
N
yos términos disminuyen en magnitud, entonces A y la n-ésima suma parcial A N = n=1 an
(N + 1); es decir,
|A − A N | ≤ |a N +1 |.
Algoritmos de caracterización
Consideraremos diversos problemas de aproximación a lo largo del texto y en cada caso
para una amplia clase de problemas. Debido a las diferentes formas de derivar los métodos
Un criterio que impondremos en un algoritmo, siempre que sea posible, es que los pe-
queños cambios en los datos iniciales producen, de forma proporcional, pequeños cambios
La palabra estable tiene la misma estable; de lo contrario, es inestable. Algunos algoritmos son estables sólo para ciertas elec-
raíz que las palabras posición ciones de datos iniciales y reciben el nombre de estables condicionalmente
y estándar. En matemáticas, el
término estable aplicado a un
las propiedades de estabilidad de los algoritmos siempre que sea posible.
problema indica que un pequeño Para considerar más el tema del crecimiento del error de redondeo y su conexión con
cambio en los datos o las la estabilidad del algoritmo, suponga que se presenta un error con una magnitud E0 > 0 en
condiciones iniciales no resultan alguna etapa en los cálculos y que la magnitud del error después de n operaciones subsi-
en un cambio drástico en la
solución del problema.
guientes se denota con En. En la práctica, los dos casos que surgen con mayor frecuencia se
Definición 1.17 Suponga que E0 > 0 denota un error que se presenta en alguna etapa en los cálculos y En
representa la magnitud del error después de n operaciones subsiguientes.
Figura 1.10
En
E0
1 2 3 4 5 6 7 8 n
10
pn = pn−1 − pn−2 , para n = 2, 3, . . . .
3
Se puede observar que
n−1 n−2
10 10 1 1
pn−1 − pn−2 = c1 + c2 3n−1 − c1 + c2 3n−2
3 3 3 3
n−2
1 10 1 10
= c1 · − 1 + c2 3n−2 ·3−1
3 3 3 3
n−2 n
1 1 1
= c1 + c2 3n−2 (9) = c1 + c2 3n = pn .
3 9 3
n
1
p̂n = 1.0000 − 0.12500 × 10−5 (3)n ,
3
la tabla 1.5.
Tabla 1.5
n p̂n calculada pn corregida Error relativo
2
pn − p̂n = 0.66667 − n.
3
Tabla 1.6
n p̂n calculada pn corregida Error relativo
Los efectos del error de redondeo se pueden reducir con la aritmética de dígitos de orden
superior, como la opción de precisión doble o múltiple disponible en muchas computadoras.
Las desventajas de utilizar la aritmética de precisión doble son que requiere más tiempo de
cálculo y el crecimiento del error de redondeo no se elimina por completo.
Un enfoque para calcular el error de redondeo es usar la aritmética de intervalo (es decir,
un intervalo que contiene el valor verdadero. Por desgracia, podría ser necesario un intervalo
pequeño para la implementación razonable.
Tasas de convergencia
Puesto que con frecuencia se utilizan técnicas iterativas relacionadas con sucesiones, esta
sección concluye con un análisis breve sobre la terminología que se usa para describir la
rapidez con que ocurre la convergencia. En general, nos gustaría que la técnica converja tan
-
gencia de las sucesiones.
entonces decimos que {αn }∞ n=1 converge a α con una rapidez, u orden de convergencia
O(βn ). (Esta expresión se lee “O de βn αn = α + O(βn ).
1.3 Algoritmos y convergencia 27
{αn }∞
n=1 con una sucesión arbitraria
{βn }∞
n=1, en casi todas las situaciones usamos
1
βn = ,
np
para algún número p > 0. En general, nos interesa el valor más grande de p con
αn = α + O(1/n p ).
n+1 n+3
αn = y α̂n = .
n2 n3
aunque lím n→∞ αn = 0 y lím n→∞ α̂n = 0, la sucesión {α̂n } converge a este límite mucho
más rápido que la sucesión {αn }. Al usar la aritmética de redondeo de cinco dígitos, tenemos
los valores que se muestran en la tabla 1.7. Determine la rapidez de convergencia para estas
dos sucesiones.
Tabla 1.7
n 1 2 3 4 5 6 7
Existen muchas otras formas αn 2.00000 0.75000 0.44444 0.31250 0.24000 0.19444 0.16327
de describir el crecimiento de
α̂n 4.00000 0.62500 0.22222 0.10938 0.064000 0.041667 0.029155
las sucesiones y las funciones,
algunas requieren límites tanto
por encima como por debajo
de la sucesión o función que Solución βn = 1/n y β̂n = 1/n 2 . Entonces
se considera. Cualquier buen
libro que analiza algoritmos, por
n+1 n+n 1
ejemplo, [CLRS], incluiría esta
|αn − 0| = ≤ = 2 · = 2βn
información. n2 n2 n
y
n+3 n + 3n 1
|α̂n − 0| = ≤ = 4 · 2 = 4β̂n .
n3 n3 n
1 1
αn = 0 + O y α̂n = 0 + O .
n n2
Definición 1.19 Suponga que lím h→0 G(h) = 0 y lím h→0 F(h) = L. Si existe una constante positiva K con
En general, las funciones que utilizamos para comparar tienen la forma de G(h) = h p,
donde p > 0. Nos interesa el valor más grande de p, para el que F(h) = L + O(h p ).
28 CAPÍTULO 1 Preliminares matemáticos y análisis de error
1
Ejemplo 3 Use el tercer polinomio de Taylor alrededor de h = 0 para mostrar que cos h + h 2 = 1 +
O(h 4 ). 2
Solución
1 1
cos h = 1 − h 2 + h 4 cos ξ̃ (h),
2 24
1 1
cos h + h 2 = 1 + h 4 cos ξ̃ (h).
2 24
Por lo tanto,
1 1 1 4
cos h + h 2 −1 = cos ξ̃ (h) h 4 ≤ h ,
2 24 24
de modo que h → 0, cos h + 12 h 2 converge a este límite, 1, tan rápido como h converge a
0. Es decir,
1
cos h + h 2 = 1 + O(h 4 ).
2
La sección Conjunto de ejercicios 1.3 está disponible en línea. Encuentre la ruta de
acceso en las páginas preliminares.
https://sites.google.com/site/numericalanalysis1burden/
de la máquina, por lo que los paquetes de software de propósito general utilizan parámetros
Ilustración Para ilustrar algunas diferencias entre los programas incluidos en un paquete de propósito
general y un programa que nosotros proporcionaríamos en este libro, consideremos un al-
goritmo que calcula la norma euclidiana de un vector n dimensional x 5 (x1, x2, , xn t. A
n 1/2
||x||2 = xi2 .
i=1
1.4 Software numérico 29
La norma da una medida de la distancia del vector x y el vector 0. Por ejemplo, el vector
t
x5 tiene
√
||x||2 = [22 + 12 + 32 + (−2)2 + (−1)2 ]1/2 = 19,
√
por lo que su distancia a partir de 0 = (0, 0, 0, 0, 0)t es 19 ≈ 4.36.
Un algoritmo del tipo que presentaríamos para este problema se proporciona aquí. No
incluye parámetros dependientes de máquina y no ofrece garantías de precisión, pero apor-
tará resultados precisos “la mayor parte del tiempo”.
ENTRADA n, x1 , x2 , . . . , xn .
SALIDA NORM .
Paso 1 Haga SUM = 0.
Paso 2 Para i = 1, 2, . . . , n determine SUM = SUM + xi2 .
Paso 3 Determine NORM = SUM1/2 .
Paso 4 SALIDA (NORM );
PARE.
Un programa con base en nuestro algoritmo es fácil de escribir y comprender. Sin embar-
magnitud de algunos números podría ser demasiado grande o pequeña para representarse con
-
zar los cálculos quizá no produzca los resultados más precisos, o que la rutina para obtener
la raíz cuadrada podría no ser la mejor disponible para el problema. Los diseñadores del
algoritmo consideran asuntos de este tipo al escribir programas para software de propósito
general. A menudo, estos programas contienen subprogramas para resolver problemas más
amplios, por lo que deben incluir controles que nosotros no necesitaremos.
Los parámetros y y Y -
damiento-desbordamiento al sumar y elevar al cuadrado los números de magnitud media.
Elevar al cuadrado los números de magnitud pequeña puede causar subdesbordamiento, por
lo que se utiliza un factor de escala S mucho mayor a 1 con el resultado (sx 2 que evita el
subdesbordamiento incluso cuando x2 no lo hace. Sumar y elevar al cuadrado los números
que tienen una magnitud grande puede causar desbordamiento. Por lo que, en este caso, se
utiliza un factor de escala positivo s mucho menor a 1 para garantizar que (sx 2 no cause
desbordamiento al calcularlo o incluirlo en una suma, a pesar de que x2 lo haría.
Para evitar escalamiento innecesario, y y Y se seleccionan de tal forma que el rango de
números de magnitud media sea tan largo como sea posible. El siguiente algoritmo es una mo-
los componentes escalados del vector, que son de magnitud pequeña hasta encontrar un com-
ponente de magnitud media. Entonces se elimina la escala de la suma previa y continúa al ele-
var al cuadrado y sumar los números pequeños y medianos hasta encontrar un componente con
una magnitud grande. Una vez que el componente con magnitud grande aparece, el algoritmo
escala la suma anterior y procede a escalar, elevar al cuadrado y sumar los números restantes.
El algoritmo supone que, en la transición desde números pequeños a medianos, los nú-
meros pequeños no escalados son despreciables, al compararlos con números medianos. De
igual forma, en la transición desde números medianos a grandes, los números medianos no
escalados son despreciables, al compararlos con números grandes. Por lo tanto, las seleccio-
nes de los parámetros de escalamiento se deben realizar de tal forma que se igualen a 0 sólo
cuando son verdaderamente despreciables. Las relaciones comunes entre las características
de máquina, como se describen en t, σ , λ, emín y emáx y los parámetros del algoritmo N, s,
S, y y Y se determinan después del algoritmo.
El algoritmo usa tres indicadores para señalar las diferentes etapas en el proceso de
se encuentra un número mediano por primera vez, y regresa a 0 cuando se encuentra un nú-
ENTRADA N , s, S, y, Y, λ, n, x1 , x2 , . . . , xn .
SALIDA NORM o un mensaje de error apropiado.
Paso 1 Si n ≤ 0 entonces SALIDA (‘El entero n debe ser positivo.’)
PARE.
Paso 2 Si n ≥ N entonces SALIDA (‘El entero n es demasiado grande.’)
PARE.
1.4 Software numérico 31
Las relaciones entre las características de máquina t λ, emín y emáx y los parámetros
del algoritmo N, s, S, y y Y
los manuales publicados por Springer-Verlag como parte de sus Lecture Notes (Notas de
clase) en la serie Computer Science (Ciencias computacionales) [Sm, B] y [Gar]. Las subru-
tinas FORTRAN se utilizan para calcular los valores propios y los vectores propios para una
variedad de diferentes tipos de matrices.
-
-
-
minio público. Como alternativa para netlib, puede utilizar Xnetlib para buscar en la base de
La ingeniería de software se
estableció como disciplina de datos y recuperar software. Encuentre más información en el artículo Software Distribution
laboratorio durante las décadas Using Netlib de Dongarra Roman y Wade [DRW].
-
desarrolló en Argonne Labs
nera meticulosa y la documentación está disponible fácilmente. A pesar de que los paquetes
principios de la década de 1980, son portátiles, es una buena idea investigar la dependencia de la máquina y leer la documen-
Argonne fue reconocido en el tación con todo detalle. Los programas prueban casi todas las contingencias especiales que
ámbito internacional como líder
mundial en cálculos simbólicos y
paquetes de propósito general adecuados.
numéricos.
Los paquetes comercialmente disponibles también representan los métodos numéricos
de vanguardia. A menudo, su contenido está basado en los paquetes de dominio público, pero
incluyen métodos en bibliotecas para casi cualquier tipo de problemas.
Las IMSL (International Mathematical and Statistical Libraries; Bibliotecas Estadísticas
en Reino Unido desde 1970. NAG ofrece más de 1000 subrutinas en una biblioteca FOR-
una biblioteca FORTRAN 90 y una biblioteca MPI FORTRAN para máquinas paralelas y
agrupaciones de estaciones de trabajo o computadoras personales. Una introducción útil para
El Numerical Algorithms Group las rutinas NAG es [Ph]. La biblioteca NAG contiene rutinas para realizar la mayor parte
de las tareas de análisis numérico estándar de manera similar a la de IMSL. También incluye
Unido en 1971 y desarrolló la
primera biblioteca de software
-
matemático. Actualmente
tiene más de 10 000 usuarios ros que desean llamar subrutinas de alta calidad de C, Java o FORTRAN desde dentro de un
a nivel mundial y contiene programa. La documentación disponible con los paquetes comerciales ilustra el programa
más de 1000 funciones activador común, requerido para utilizar las rutinas de la librería. Los siguientes tres paque-
matemáticas y estadísticas
tes de software son ambientes autónomos. Cuando se activan, los usuarios introducen co-
que van desde software de
simulación estadística, simbólica, mandos para hacer que el paquete resuelva un problema. Sin embargo, cada paquete permite
visualización y numérica hasta programar dentro del lenguaje de comando.
compiladores y herramientas de MATLAB es una matriz de laboratorio que, originalmente, era un programa Fortran
desarrollo de aplicaciones.
publicado por Cleve Moler [Mo] en la década de 1980. El laboratorio está basado princi-
-
ciones, como sistemas no lineales, integración numérica, splines cúbicos, ajuste de curvas,
optimización, ecuaciones diferenciales
MATLAB está escrito en C y lenguaje ensamblador y la versión para PC de este paquete
requiere un coprocesador numérico. La estructura básica es realizar operaciones de matriz,
como encontrar los valores propios de una matriz introducida desde la línea de comando o
Originalmente, MATLAB se
escribió para proporcionar poderoso que es especialmente útil para instrucción en un curso de álgebra lineal aplicada.
acceso al software de matriz El segundo paquete es GAUSS, un sistema matemático y estadístico producido por Lee
desarrollado en proyectos
-
primera versión se escribió a
utilizarse en cursos de teoría de GAUSS se orienta menos hacia la enseñanza de álgebra lineal y más hacia el análisis esta-
matriz, álgebra lineal y análisis
numérico. Actualmente, existen
dístico de datos. Este paquete también utiliza un coprocesador numérico, cuando existe uno.
más de 500 000 usuarios de El tercer paquete es Maple, un sistema de álgebra computacional desarrollado en 1980
MATLAB en más de 100 países. -
versity of Waterloo. El diseño para el sistema original Maple se presenta en el artículo de
Las rutinas NAG son
compatibles con Maple, desde la
versión 9.0. Maple, escrito en C, tiene la capacidad de manipular información de manera simbóli-
ca. Esta manipulación simbólica permite al usuario obtener respuestas exactas, en lugar de
valores numéricos. Maple puede proporcionar respuestas exactas a problemas matemáticos
como integrales, ecuaciones diferenciales y sistemas lineales. Contiene una estructura de
programación y permite texto, así como comandos, para guardarlos en sus archivos de hojas
de trabajo. Estas hojas de trabajo se pueden cargar a Maple y ejecutar los comandos.
El igualmente popular Mathematica, liberado en 1988, es similar a Maple.
para la PC. Sin embargo, éstos no deberían confundirse con el software de propósito general
que se ha mencionado aquí. Si está interesado en uno de estos paquetes, debería leer Super-
calculators on the PC (Supercalculadoras en la PC) de B. Simon y R. M. Wilson [SW].
Información adicional sobre el software y las bibliotecas de software se puede encontrar
Las secciones Pregunta de análisis, Conceptos clave y Revisión del capítulo están dispo-
nibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
CAPÍTULO
Introducción
A menudo, el crecimiento de una población se puede modelar sobre periodos breves al asu-
mir que aumenta de manera continua con el tiempo a una tasa proporcional al número actual
en ese momento. Suponga que N (t) denota el número en la población en el tiempo t y λ
denota la tasa constante de natalidad. Entonces, dicha población satisface la ecuación dife-
rencial
d N (t)
= λN (t),
dt
N(!)
3000
Población (miles)
435 !
2000 N(!) 5 1000e! 1 (e 2 1)
!
1564
1435
1000
1 !
Índice de natalidad
Este modelo exponencial sólo es válido cuando la población está aislada, sin inmigra-
ción. Si se permite inmigración a una tasa constante v, entonces la ecuación diferencial se
convierte en
d N (t)
= λN (t) + v,
dt
cuya solución es
v λt
N (t) = N0 eλt + (e − 1).
λ
35
36 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
Suponga que, en un inicio, cierta población contiene N(0) 5 1 000 000 individuos, que
435 000 individuos inmigran a la comunidad durante el primer año y que existen N(1) 5
-
tamos encontrar l en la ecuación
435 000 λ
1 564 000 = 1 000 000eλ + (e − 1).
λ
En esta ecuación no es posible resolver de manera explícita para λ, pero los métodos
numéricos que se analizan en este capítulo se pueden utilizar para aproximar las solu-
ciones de las ecuaciones de este tipo con una precisión arbitrariamente alta. Las solución a
este problema particular se considera en el ejercicio 22 de la sección 2.3.
Técnica de bisección
En las ciencias computacionales, La primera técnica, basada en el teorema de valor intermedio, recibe el nombre de bisección,
al proceso que consiste en dividir o método de búsqueda binaria.
a la mitad un conjunto de manera
continua para buscar la solución Suponga que f a, b] con f (a) y f (b)
de un problema, como lo hace de signos opuestos. El teorema de valor intermedio implica que existe un número p en (a,
el método de bisección, se le b) con f ( p) 5 0. A pesar de que el procedimiento operará cuando haya más de una raíz en el
conoce como procedimiento de intervalo (a, b), para simplicidad, nosotros asumimos que la raíz en este intervalo es única.
búsqueda binaria.
El método realiza repetidamente una reducción a la mitad (o bisección) de los subintervalos
a, b] y, en cada paso, localizar la mitad que contiene p.
a1 5 a y b1 5 b y sea p1 a, b], es decir,
b1 − a 1 a 1 + b1
p1 = a 1 + = .
2 2
Figura 2.1
y
f (b)
y 5 f (x)
f ( p1) p3
a 5 a1 p2 pp b 5 b1 x
1
f ( p2)
f (a)
a1 p1 b1
a2 p2 b2
a3 p3 b3
ALGORITMO Bisección
2.1 f(x) 5 0 dada la función continua determinada f en el intervalo
a, b], donde f (a) y f (b) tienen signos opuestos:
∈ > 0 y generar p1, , pN hasta que se cumpla una de las siguientes condiciones:
38 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
| p N − p N −1 | (2.1)
| p N − p N −1 |
p N = 0, o (2.2)
| pN |
| f ( p N )| (2.3)
{ pn }∞
n=0 con la propiedad de que las diferencias
pn − pn−1 convergen a cero mientras la sucesión misma diverge (consulte el ejercicio 19).
También es posible que f(pn) esté cerca de cero mientras pn p
(consulte el ejercicio 20). Sin conocimiento adicional sobre f o p, la desigualdad (2.2) es el
-
guración de un límite superior sobre el número de iteraciones. Esto elimina la posibilidad
del algoritmo 2.1, donde se estableció el límite N0 y se concluyó el procedimiento si i > N0.
a, b]
con f(a) ? f(b) < 0. En cada paso, la longitud del intervalo conocida por contener un cero de
f a, b] tan
f(x) 5 2x3 2 x3 1 x 2 1, tenemos
2 -
24, 4] reduciremos en 3 el número de iteraciones
Tabla 2.1 n an bn pn f ( pn )
1 1.0 2.0 1.5 2.375
2 1.0 1.5 1.25 −1.79687
3 1.25 1.5 1.375 0.16211
4 1.25 1.375 1.3125 −0.84839
5 1.3125 1.375 1.34375 −0.35098
6 1.34375 1.375 1.359375 −0.09641
7 1.359375 1.375 1.3671875 0.03236
8 1.359375 1.3671875 1.36328125 −0.03215
9 1.36328125 1.3671875 1.365234375 0.000072
10 1.36328125 1.365234375 1.364257813 −0.01605
11 1.364257813 1.365234375 1.364746094 −0.00799
12 1.364746094 1.365234375 1.364990235 −0.00396
13 1.364990235 1.365234375 1.365112305 −0.00194
de modo que la aproximación es correcta por lo menos dentro de 1024. El valor correcto de p
para nueve lugares decimales es p 5 1. 365230013. Observe que p9 está más cerca de p que es
p13. Se podría sospechar que esto es verdad porque | f ( p9 )| < | f ( p13 )|,
pero no podemos asegurarlo a menos que conozcamos la respuesta verdadera.
El método de bisección, a pesar de que está conceptualmente claro, tiene desventajas
N se puede volver bastan-
te grande antes de que | p − p N | -
tidamente una buena aproximación intermedia. Sin embargo, el método tiene la importante
propiedad de que siempre converge a una solución y por esta razón con frecuencia se utiliza
Teorema 2.1 Suponga que f ∈ C[a, b] y f (a) · f (b) < 0. El método de bisección genera una sucesión
{ pn }∞
n=1 que se aproxima a cero p de f con
b−a
| pn − p| ≤ , cuando n ≥ 1.
2n
Demostración n $ 1, se tiene
1
bn − an = (b − a) y p ∈ (an , bn ).
2n−1
1 b−a
| pn − p| ≤ (bn − an ) = .
2 2n
porque
1
| pn − p| ≤ (b − a) ,
2n
1
n=1 converge en p con una razón de convergencia O
la sucesión { pn }∞ 2n
; es decir
1
pn = p + O .
2n
Es importante señalar que el teorema 2.1 sólo provee una cota para el error de aproxima-
40 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
2−1
| p − p9 | ≤ ≈ 2 × 10−3 ,
29
Los logaritmos para cualquier base bastarían, pero usaremos logaritmos base 10 porque la
tolerancia se determina como una potencia de 10. Ya que 22N < 1023 implica que log10 22N
< log10 1023 5 23, tenemos
3
−N log10 2 < −3 y N> ≈ 9.96.
log10 2
23
.
La tabla 2.1 muestra que el valor de p9 5 1.365234375 es exacto dentro de 1024. De
nuevo, es importante considerar que el análisis de error sólo proporciona una cota para el nú-
mero de iteraciones. En muchos casos, la cota es mucho mayor que el número real requerido.
La cota para el número de iteraciones en el método de bisección supone que los cálculos
bn − a n a n + bn
pn = a n + en lugar de pn = .
2 2
La primera ecuación añade una pequeña corrección, (bn 2 an)/2, al valor conocido an. Cuan-
do bn 2 an está cerca de la precisión máxima de la máquina, esta corrección podría ser un
pn. Sin embargo, es
posible que (bn 5 an)/2 regrese a un punto medio que no se encuentra dentro del intervalo
an, bn].
La palabra en latín signum an, bn] contiene una raíz de
f, es mejor utilizar la función signum
lo que la función signum retorna
de forma bastante natural el
−1, si x < 0,
signo de un número (a menos que
el número sea cero). sgn(x) = 0, si x = 0,
1, si x > 0.
Utilizar
f (x) = x − g(x)
tiene un cero en p.
A pesar de que los problemas que queremos resolver se encuentran en la forma para
Ejemplo 1 g(x) = x 2 − 2.
g y 5 g(x
de y 5 x, por lo que g p 5 21 y el otro en p 5 2. Éstos se
42 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
Figura 2.2
y
5 y 5 x2 2 2
4
3 y5x
2
1
23 22 2 3 x
23
Teorema 2.3 i) Si g ∈ C a, b] y g(x) ∈ a, b] para todas x ∈ a, b], entonces g tiene por lo menos un
a, b].
ii) Si, además, g9(x) existe en (a, b) y hay una constante positiva k < 1 con
a, b].
Figura 2.3
y
y5x
b
p 5 g( p)
y 5 g(x)
a
a p b x
Demostración
El teorema de valor intermedio implica que existe p ∈ (a, b) para la cual h(p) 5 0.
Este número p g porque
0 = h( p) = g( p) − p implica que g( p) = p.
g( p) − g(q)
= g (ξ ).
p−q
Solución Los valores máximo y mínimo de g(x) para x 21, 1] deben ocurrir ya sea
cuando x g (x) = 2x/3,
la función g es continua y g9(x 21, 1]. Los valores máximo y mínimo de g(x) se
presentan en x 5 21, x 5 0 o x 5 g(21) 5 0, g(1) 5 0 y g(0) 5 21/3, por lo que un
máximo absoluto para g(x x 5 21 y x 5 1 y un mínimo absoluto
en x 5 0.
Además,
2x 2
|g (x)| = ≤ , para todas las x ∈ (−1, 1).
3 3
De este modo g
21, 1].
p 21, 1] se puede
determinar de manera algebraica. Si
p2 − 1
p = g( p) = , entonces p 2 − 3 p − 1 = 0,
3
1 √
p= (3 − 13).
2
√
Observe que g p = 12 (3+ 13)
8
Sin embargo, g(4) = 5 y g (4) = 3
> 1, por lo que g no satisface la hipótesis del teorema
44 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
Figura 2.4
y y
x2 2 1 x2 2 1
4 y5 4 y5
3 3
3 3
y5x y5x
2 2
1 1
1 2 3 4 x 1 2 3 4 x
21 21
1
g(1) = ≤ g(x) ≤ 1 = g(0), para 0 ≤ x ≤ 1.
3
x∈ g(x) ∈
Sin embargo,
g (0) = − ln 3 = −1.098612289,
por lo que |g (x)| ≤ 1 en (0, 1), y el teorema 2.3 no se puede usar para determinar la uni-
g
único.
Figura 2.5
y
y5x
1
y 5 32x
1 x
2.2 Iteración de punto fijo 45
y se obtiene una solución para x 5 g(x). Esta técnica recibe el nombre de o itera-
ción funcional
Figura 2.6
y y
y5x y5x
( p2, p3) y 5 g(x)
p3 5 g( p2)
( p1, p2)
p2 5 g( p1) ( p2, p2) p2 5 g( p1) ( p2, p2)
p3 5 g( p2) ( p0, p1)
(p1, p1) p1 5 g( p0) ( p1, p1)
p1 5 g( p0) ( p0, p1)
y 5 g(x)
p 1 p3 p2 p0 x p0 p1 p2 x
a) b)
Ilustración La ecuación x 3 + 4x 2 − 10 = 0
x 5 g(x) mediante una simple manipulación
g descrita en la parte c), podemos manipular
la ecuación x 3 + 4x 2 − 10 = 0 como sigue:
1 1
4x 2 = 10 − x 3 , por lo que x 2 = (10 − x 3 ), y x = ± (10 − x 3 )1/2 .
4 2
1/2
a) x = g1 (x) = x − x 3 − 4x 2 + 10 10
b) x = g2 (x) = − 4x
x
1 10 1/2
c) x = g3 (x) = (10 − x 3 )1/2 d) x = g4 (x) =
2 4+x
x 3 + 4x 2 − 10
e) x = g5 (x) = x −
3x 2 + 8x
Con p0 5 1.5,
selecciones de g.
de un número negativo.
2.2 Iteración de punto fijo 47
para el mismo problema de encontrar la raíz, varían ampliamente como técnicas para aproxi-
mar la solución a este último. Su objetivo es ilustrar lo que se debe contestar:
raíz determinada?
El siguiente teorema y su corolario nos proporcionan algunas claves respecto a los proce-
dimientos que deberíamos seguir y, tal vez más importante, algunos que deberíamos rechazar.
pn = g( pn−1 ), n ≥ 1,
p a, b].
Demostración El teorema 2.3 implica que existe un único punto p a, b] con g(p) 5 p.
Ya que g a, b] en sí mismo, la sucesión { pn }∞
n=0 n ≥ 0, y
pn ∈ [a, b] para todas las n. Al utilizar el hecho de que |g (x)| ≤ k y el teorema de valor
medio 1.8, tenemos, para cada n,
lím | pn − p| ≤ lím k n | p0 − p| = 0.
n→∞ n→∞
{ pn }∞
n=0 converge a p.
Corolario 2.5 Si g satisface las hipótesis del teorema 2.4, entonces las cotas del error relacionado con el uso
de pn para aproximar p, están dadas por por
| pn − p| ≤ k n máx{ p0 − a, b − p0 } (2.5)
kn
| pn − p| ≤ | p1 − p0 |, para toda n ≥ 1. (2.6)
1−k
| pn − p| ≤ k n | p0 − p| ≤ k n máx{ p0 − a, b − p0 }.
m > n ≥ 1,
∞
k i es una serie geométrica con radio k y 0 < k < 1. Esta sucesión converge a
i=0
1 (1 2 k), lo que nos da la segunda cota:
kn
| p − pn | ≤ | p1 − p0 |.
1−k
Ilustración
3
g3 (x) = − x 2 (10 − x 3 )−1/2 < 0 en [1, 2],
4
por lo que g3 |g3 (2)| ≈ 2.12,
por lo que la condición |g3 (x)| ≤ k < 1
la sucesión { pn }∞
n=0 comenzando con p0 5
−5 5
|g4 (x)| = √ ≤√ < 0.15, para todas las x ∈ [1, 2].
10(4 + x)3/2 10(5)3/2
x 3 + 4x 2 − 10
g5 (x) = x −
3x 2 + 8x
converge mucho más rápido que nuestras otras elecciones. En las siguientes seccio-
nes, observaremos de dónde proviene esta elección y porqué es tan efectiva.
encontrar la raíz?
podríamos tener la
( p − p0 )2
f ( p) = f ( p0 ) + ( p − p0 ) f ( p0 ) + f (ξ( p)),
2
50 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
( p − p0 )2
0 = f ( p0 ) + ( p − p 0 ) f ( p 0 ) + f (ξ( p)).
2
0 ≈ f ( p0 ) + ( p − p0 ) f ( p0 ).
Joseph Raphson (1648–1715)
proporcionó una descripción Al resolver para p obtenemos
del método atribuido a Isaac
Newton en 1690 y reconoció
f ( p0 )
a Newton como la fuente p ≈ p0 − ≡ p1 .
del descubrimiento. Ni f ( p0 )
Newton ni Raphson utilizaron
explícitamente la derivada en Esto constituye la base para el método de Newton, que empieza con una aproximación
su descripción ya que ambos inicial p0 y genera la sucesión { pn }∞
n=0, mediante
sólo consideraron polinomios.
Otros matemáticos, en especial
f ( pn−1 )
James Gregory (1636–1675), pn = pn−1 − , para n ≥ 1. (2.7)
estaban conscientes del proceso f ( pn−1 )
subyacente en esa época o antes.
(Además observe el ejercicio 31.) Al empezar con la aproximación inicial p0, la aproxima-
ción p1 es la intersección con el eje x f en (p0, f (p0)). La
aproximación p2 es la intersección con el eje x f en (p1, f (p1))
y así sucesivamente. El algoritmo 2.3 implementa este procedimiento.
Figura 2.7
y
( p1, f ( p1))
p0 Pendiente f 9( p0)
p
p2 p1 x
( p0, f ( p0))
| p N − p N −1 | < ε, (2.8)
| p N − p N −1 |
< ε, p N = 0, (2.9)
| pN |
o
| f ( p N )| < ε. (2.10)
Una forma de la desigualdad (2.8) se usa en el paso 4 del algoritmo 2.3. Observe que nin-
guna de las desigualdades (2.8), (2.9) o (2.10) dan información precisa sobre el error real
| p N − p|. (Consulte los ejercicios 19 y 20 en la sección 2.1).
El método de Newton es una técnica de iteración funcional con pn = g( pn−1 ), para la
que
f ( pn−1 )
g( pn−1 ) = pn−1 − , para n ≥ 1. (2.11)
f ( pn−1 )
De hecho, esta es la técnica de iteración funcional que se usó para proporcionar la conver-
gencia rápida que vimos en la columna e) de la tabla 2.2 en la sección 2.2.
A partir de la ecuación (2.7) es claro que el método de Newton no se puede continuar si
f ( pn−1 ) = 0 para alguna n. f9
está acotada lejos de cero y cerca de p.
Ejemplo 1 Considere la función f(x) 5 cos x 2 x 5 0. Aproxime una raíz de f usando a) el método de
b) el método de Newton.
Solución a) Una solución para este problema de encontrar la raíz también es una solución
x 5 cos x
p p/2].
52 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
Figura 2.8
y
y5x
contrario.
1 x
Tabla 2.3
n pn
0 0.7853981635
p0 5 p/4. Lo mejor
1 0.7071067810
que podríamos concluir a partir de estos resultados es que p ≈ 0.74.
2 0.7602445972
3 0.7246674808 b) f9(x) 5 2sen x 2 1.
4 0.7487198858 Al iniciar de nuevo en p0 5 p/4, tenemos
5 0.7325608446
6 0.7434642113
p0
p1 = p0 −
7 0.7361282565 f ( p0 )
π cos(π/4) − π/4
= −
4 − sen(π/4) − 1
√
π 2/2 − π/4
= − √
4 − 2/2 − 1
= 0.7395361337
cos( p1 ) − p1
p2 = p1 −
− sen( p1 ) − 1
= 0.7390851781
Ahora es momento de examinar el método de Newton para descubrir porqué es tan eficaz.
La derivación del método de Newton por medio de la serie de Taylor al inicio de la sec-
ción señala la importancia de una aproximación inicial precisa. La suposición crucial es que
el término relacionado con (p 2 p0)2 es, en comparación con | p − p0 |, tan pequeño que se
puede eliminar. Claramente esto será falso a menos que p0 sea una buena aproximación para
p. Si p0
que el método de Newton convergerá en la raíz. Sin embargo, en algunos casos, incluso las
malas aproximaciones iniciales producirán convergencia. (Los ejercicios 15 y 16 ilustran
algunas de las posibilidades.)
2.3 Método de Newton y sus extensiones 53
f (x)
g(x) = x − .
f (x)
f ( p) f ( p)
g ( p) = = 0.
[ f ( p)]2
f ( pn−1 )
pn = g( pn−1 ) = pn−1 − , para n ≥ 1,
f ( pn−1 )
El método de la secante
El método de Newton es una técnica en extremo poderosa, pero tiene una debilidad impor-
tante: la necesidad de conocer el valor de la derivada de f en cada aproximación. Con fre-
cuencia, f 9(x) es mucho más difícil y necesita más operaciones aritméticas para calcular f (x).
-
f (x) − f ( pn−1 )
f ( pn−1 ) = lím .
x→ pn−1 x − pn−1
la secante usa una línea secante, Esta técnica recibe el nombre de método de la secante y se presenta en el algoritmo 2.4
que une dos puntos que cortan la p0 y p1, la aproxima-
curva, para aproximar una raíz.
ción p2 es la intersección en x de la recta que une los puntos (p0, f(p0)) y (p1, f(p1)). La apro-
ximación p3 es la intersección en x de la recta que une los puntos (p1, f(p1)) y (p2, f(p2)) y así
sucesivamente. Observe que sólo se necesita una evaluación de la función por cada paso para
el método de la secante después de haber determinado p2. En contraste, cada paso del método
de Newton requiere una evaluación tanto de la función como de su derivada.
Figura 2.9
y
y 5 f (x)
p3
p0 p2 p
p4 p1 x
Ejemplo 2 Use el método de la secante para encontrar una solución para x = cos x y compare las aproxi-
maciones con las determinadas en el ejemplo 1, el cual aplica el método de Newton.
Solución -
ton con la aproximación inicial p0 5 π/4. étodo de la secante, necesitamos dos
aproximaciones iniciales.
( p1 − p0 )(cos p1 − p1 )
p 2 = p1 −
(cos p1 − p1 ) − (cos p2 − p2 )
π (π/4 − 0.5)(cos(π/4) − π/4)
= −
4 (cos(π/4) − π/4) − (cos 0.5 − 0.5)
Tabla 2.5 = 0.7363841388.
Secante
Las aproximaciones sucesivas se generan con la fórmula
n pn
0 0.5
( pn−1 − pn−2 )(cos pn−1 − pn−1 )
pn = pn−1 − , para n ≥ 2.
1 0.7853981635 (cos pn−1 − pn−1 ) − (cos pn−2 − pn−2 )
2 0.7363841388
3 0.7390581392 Esto proporciona los resultados en la tabla 2.5. Observamos que a pesar de que la fórmula
4 0.7390851493 para p2 parece indicar un cálculo repetido, una vez que se calcula f (p0) y f(p1), no se calculan
5 0.7390851332 de nuevo.
Newton Al comparar los resultados en la tabla 2.5 a partir del método de la secante y el método
n pn de Newton, observamos que la aproximación p5 del método de la secante es precisa hasta la
0 0.7853981635 décima cifra decimal, mientras que con el método de Newton se obtuvo esta precisión por
1 0.7395361337 p3 étodo de la secante es mucho más rápida que la
2 0.7390851781 iteración funcional, pero ligeramente más lenta que el método de Newton. Éste es, en gene-
3 0.7390851332 ral, el caso. (Consulte el ejercicio 14 de la sección 2.4.)
4 0.7390851332 El método de Newton o el método de la
respuesta obtenida con otra técnica, como el método de bisección, ya que estos métodos re-
quieren una primera aproximación adecuada pero, en general, proveen convergencia rápida.
56 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
1
| pn − p| < |an − bn |,
2
lo cual provee una cota del error fácilmente calculable para las aproximaciones.
La agrupación de raíces no está garantizada para el método de Newton ni para el
método de la secante. En el ejemplo 1, el método de Newton se aplicó a f(x) 5 cos x 2 x y
se encontró que la raíz aproximada es 0.7390851332. La tabla 25 muestra que esta raíz no
se agrupa mediante p0 y p1 o p1 y p2. Las aproximaciones del método de la secante para este
problema también se determinan en la tabla 2.5. En este caso, las aproximaciones iniciales
El término Regula Falsi,
p0 y p1 agrupan la raíz, pero el par de aproximaciones p3 y p4 fallan al hacerlo.
El método de posición falsa (también llamado Regula Falsi) genera aproximaciones
una técnica en la que se usan de la misma manera que el método de la secante, pero incluye una prueba para garantizar que
resultados que se sabe son falsos,
la raíz siempre se agrupa entre iteraciones sucesivas. A pesar de que no es un método que por
para obtener convergencia lo general recomendamos, ilustra cómo se puede integrar la agrupación.
a un resultado verdadero. En primer lugar, seleccionamos las aproximaciones iniciales p0 y p1 con f (p0) ? f(p1) < 0.
Los problemas de posición La aproximación p2 se selecciona de la misma forma que en el método de la secante como la
falsa se pueden encontrar en intersección en x de la recta que une (p0, f (p0)) y (p1, f(p1
el papiro Rhind, que data de
aproximadamente 1650 a.C. se usa para calcular p3, considere f (p2) ? f(p1) o, más correctamente, sgn f(p2) ? sgn f (p1).
• Si sgn f(p2) ? sgn f(p1) < 0, entonces p1 y p2 agrupan una raíz. Seleccione p3 como la in-
tersección en x de la recta que une (p1, f(p1)) y (p2, f(p2)).
• Si no, seleccionamos p3 como la intersección en x de la recta que une (p0, f(p0)) y (p2,
f(p2)) y, a continuación intercambia los índices en p0 y p1.
De manera similar, una vez que se encuentra p3, el signo de f (p3) ? f(p2) determina si usamos
p2 y p3 o p3 y p1 para calcular p4. En el último caso, se vuelve a etiquetar p2 y p1. Reetiquetar
garantiza que la raíz se agrupa entre iteraciones sucesivas. El proceso, como se describe en
é-
todo de la secante. En esta ilustración, las primeras tres aproximaciones son iguales, pero la
Figura 2.10
y y
y 5 f (x) y 5 f (x)
p2 p3 p2 p3
p0 p4 p1 x p0 p4 p1 x
2.3 Método de Newton y sus extensiones 57
Ejemplo 3 Use el método de posición falsa para encontrar una solución a x 5 cos x y compare las apro-
Solución
iniciales que en el método de la secante; es decir p0 5 0.5 y p1 5 π/4. La tabla 2.6 muestra los
resultados del método de posición falsa aplicado a f(x) 5 cos x 2 x junto con los obtenidos
mediante los métodos de la secante y de Newton. Observe que las aproximaciones de posición
falsa y de la secante concuerdan a través de p3 y que el método de posición falsa requiere una
iteración adicional para obtener la misma precisión que el método de la secante.
Comúnmente, la seguridad adicional del método de posición falsa requiere más cálculos
Orden de convergencia
Definición 2.7 Suponga que { pn }∞n=0 es una sucesión que converge a p, con pn = p para todas las n. Si
existen constantes positivas λ y α con
| pn+1 − p|
lím = λ,
n→∞ | pn − p|α
Entonces { pn }∞
n=0 converge a p de orden a, con constante de error asintótica l.
La siguiente ilustración compara una linealmente convergente con una que es cuadrá-
ticamente convergente. Y se muestra por qué tratamos de encontrar métodos que producen
sucesiones convergentes de orden superior.
| pn+1 |
lím = 0.5
n→∞ | pn |
Y que { p̃n }∞
n=0 es cuadráticamente convergente a 0 con la misma constante de error asintó-
tico,
| p̃n+1 |
lím = 0.5.
n→∞ | p̃n |2
n, tenemos
| pn+1 | | p̃n+1 |
≈ 0.5 y ≈ 0.5.
| pn | | p̃n |2
2.4 Análisis de error para métodos iterativos 59
Se espera que las sucesiones cuadráticamente convergentes converjan mucho más rá-
pido que las que sólo convergen linealmente, pero el siguiente resultado implica que una
ólo lo hace linealmente.
Teorema 2.8 Sea g ∈ a, b] tal que g(x) ∈ a, b] para todas las x ∈ a, b]. Suponga además que g9 es con-
tinua en (a, b) y que existe una constante positiva k , 1 con
pn = g( pn−1 ), para n ≥ 1,
Converge só p a, b].
Demostración
converge a p g9 en (a, b), podemos aplicar el teorema del valor medio para
g para demostrar que para cualquier n,
pn+1 − p = g( pn ) − g( p) = g (ξn )( pn − p),
pn+1 − p | pn+1 − p|
lím = lím g (ξn ) = g ( p) y lím = |g ( p)|.
n→∞ pn − p n→∞ n→∞ | pn − p|
De este modo, si g ( p) = 0,
asintótico constante |g ( p)|.
El teorema 2.8 implica que la convergencia de orden superior para los métodos de punto
g(p) 5 p sólo se puede presentar cuando g9(p) 5 0. El siguiente resultado
describe condiciones adicionales que garantizan la convergencia cuadrática que buscamos.
Teorema 2.9 Sea p una solución de la ecuación x 5 g(x). Suponga que g9(p) 5 0 y que g0 es continua con
|g (x)| < M en un intervalo abierto I que contiene a p. Entonces existe d > 0 tal que para p0
∈ p 2 d, p 1 d], pn = g(pn21), cuando n ≥ 1, converge, por lo menos
cuadráticamente a p n,
M
| pn+1 − p| < | pn − p|2 .
2
g (ξ )
g(x) = g( p) + g ( p)(x − p) + (x − p)2 ,
2
donde j se encuentra entre x y p. Las hipótesis g(p) 5 p y g9(p) 5 0 implican que
g (ξ )
g(x) = p + (x − p)2 .
2
En especial, cuando x 5 pn,
g (ξn )
pn+1 = g( pn ) = p + ( pn − p)2 ,
2
con jn entre pn y p
g (ξn )
pn+1 − p = ( pn − p)2 .
2
|g (x)| ≤ k < 1 p 2 d, p 1 d] y g p 2 d, p 1 d] en sí mismo, por el
{ p n }∞
n=0 converge a p jn se encuentra entre p
y pn para cada n, entonces {ξn }∞
n=0 también convergen a p y
| pn+1 − p| |g ( p)|
lím = .
n→∞ | pn − p|2 2
convergen cuadráticamente deberían señalar hacia funciones cuyas derivadas son cero en el
g(p)
5 p como g9(p) 5 0.
para g en la forma de
y f(p) 5 0, tenemos
f ( pn−1 )
pn = g( pn−1 ) = pn−1 − .
f ( pn−1 )
• Si f(p) 5 0 y f ( p) = 0, p, el méto-
do de Newton convergerá por lo menos cuadráticamente.
Raíces múltiples
En el análisis anterior se efectuó una restricción en la que f ( p) = 0, donde p es la solución
de f(x) 5 0. En especial, el método de Newton y el método de la secante, en general, dan
problemas si f 9(p) 5 0 cuando f(p) 5 -
p es un cero de En esencia, q(x) representa la porción de f (x) que no contribuye con el cero de f. El
multiplicidad m de f, si simples de
f (x) = (x − p)m q(x), donde
q( p) 0.
una función, aquellos que tienen multiplicidad uno.
62 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
Teorema 2.11 La función f ∈ C1 a, b] tiene un cero simple en p en (a, b) si y sólo si f(p) 5 0, pero f ( p) = 0.
Solución a) Tenemos
por lo que
f ( p0 ) e−2
p1 = p0 − =1− ≈ 0.58198
f ( p0 ) e−1
y
f ( p1 ) 0.20760
p2 = p 1 − ≈ 0.58198 − ≈ 0.31906.
f ( p1 ) 0.78957
Los primeros ocho términos de la sucesión generada por el método de Newton se muestran
en la tabla 2.8. La sucesión es claramente convergente a 0, pero no cuadráticamente. La grá-
f
2.4 Análisis de error para métodos iterativos 63
Figura 2.11
f (x)
Tabla 2.8
1
n pn
(1, e 2 2)
0 1.0 e22
1 0.58198 (21, e21)
2 0.31906 e21
3 0.16800 f (x) 5 e x 2 x 2 1
4 0.08635
5 0.04380 21 1 x
6 0.02206
7 0.01107
8 0.005545
9 2.7750 × 10−3
10 1.3881 × 10−3
11 6.9411 × 10−4 Un método para manejar el problema de raíces múltiples de una función f
12 3.4703 × 10−4
13 1.7416 × 10−4 f (x)
14 8.8041 × 10−5
µ(x) = .
f (x)
15 4.2610 × 10−5
16 1.9142 × 10−6 Si p es un cero de f de multiplicidad m con f (x) 5 (x 2 p) m q(x), entonces
(x − p)m q(x)
µ(x) =
m(x − p)m−1 q(x) + (x − p)m q (x)
q(x)
= (x − p)
mq(x) + (x − p)q (x)
y p es un cero simple de m(x). Entonces, el método de Newton se puede aplicar a m(x) para
proporcionar
f (x) f (x)
g(x) = x − . (2.13)
[ f (x)]2 − f (x) f (x)
n pn f ( p0 ) f ( p 0 ) (e − 2)(e − 1)
p 1 = p0 − =1− ≈ −2.3421061 × 10−1 .
1 −2.3421061 × 10−1 f ( p0 )2 − f ( p0 ) f ( p0 ) (e − 1)2 −( e − 2)e
2 −8.4582788 × 10−3
3 −1.1889524 × 10−5 Esto está considerablemente más cerca de 0 que el primer término al usar el método de Newton,
4 −6.8638230 × 10−6 que era 0.58918. La tabla 2.9 enumera las primeras cinco aproximaciones para el doble cero
5 −2.8085217 × 10−7 en x 5 0. Los resultados se obtuvieron a partir de un sistema con 10 dígitos de precisión. La
falta relativa de mejora en las últimas dos entradas se debe al hecho de que al usar este siste-
3
pn−1 + 4 pn−1
2
− 10
i) pn = pn−1 − , a partir del método de Newton,
3 pn−1 + 8 pn−1
2
3
( pn−1 + 4 pn−1
2
− 10)(3 pn−1
2
+ 8 pn−1 )
ii) pn = pn−1 − .
(3 pn−1 + 8 pn−1 ) − ( pn−1 + 4 pn−1 − 10)(6 pn−1 + 8)
2 2 3 2
Método de Newton
Método D2 de Aitken
Suponga { pn }∞
n=0 es una sucesión linealmente convergente con límite p
construcción de una sucesión { p̂n }∞
n=0 que converge más rápidamente a p que { pn }n=0
∞
2.5 Convergencia acelerada 65
Alexander Aitken (1895–1967) suponga que los signos de pn − p, pn+1 − p, y pn+2 − p concuerdan y que n -
usó esta técnica en 1926 para mente grande para que
acelerar la tasa de convergencia
de una serie en un artículo sobre pn+1 − p pn+2 − p
≈ .
Este proceso es similar al que pn − p pn+1 − p
Entonces
usó mucho antes el matemático
japonés Takakazu Seki Kowa
(1642–1708).
( pn+1 − p)2 ≈ ( pn+2 − p)( pn − p),
por lo que
2
pn+1 − 2 pn+1 p + p 2 ≈ pn+2 pn − ( pn + pn+2 ) p + p 2
y
2
( pn+2 + pn − 2 pn+1 ) p ≈ pn+2 pn − pn+1 .
Al resolver p obtenemos
2
pn+2 pn − pn+1
p≈ .
pn+2 − 2 pn+1 + pn
Al sumar y restar los términos pn2 y 2 pn pn+1 en el numerador y agrupar los términos ade-
cuadamente obtenemos
( pn+1 − pn )2
p̂n = pn − , (2.14)
pn+2 − 2 pn+1 + pn
Definición 2.13 { p n }∞
n=0 determinada, la diferencia hacia adelante !pn
pn
pn = pn+1 − pn , para n ≥ 0.
66 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
2
pn = pn+1 − pn ) = pn+1 − pn = ( pn+2 − pn+1 ) − ( pn+1 − pn ).
pn )2
p̂n = pn − 2p
, para n ≥ 0. (2.15)
n
En este punto de nuestro análisis del método !2 de Aitken, hemos establecido que la
sucesión { p̂n }∞
n=0 converge a p más rápidamente que la sucesión original { pn }n=0, pero no
∞
pn+1 − p
lím < 1.
n→∞ pn − p
2
de Aitken { p̂n }∞
n=0 converge a p más rápido que { pn }n=0 en el sen-
∞
tido en que
p̂n − p
lím = 0.
n→∞ pn − p
Método de Steffensen
Johan Frederik Steffensen (1873–
1961) escribió un prestigioso
método !2 de Aitken a una sucesión linealmente convergen-
libro titulado Interpolation en -
1927.
la aplicación del método !2 de Aitken directamente para la sucesión de iteración de punto
!2 de Aitken construye los términos en el orden:
2
p0 , p1 = g( p0 ), p2 = g( p1 ), p̂0 = { }( p0 ),
2
p3 = g( p2 ), p̂1 = { }( p1 ), . . . ,
donde {!2} indica que se usa la ecuación (2.15). El método de Steffensen construye los
primeros cuatro términos p0, p1, p2 y p̂0. Sin embargo, en este paso suponemos que p̂0 es una
mejor aproximación a p que es p2 p̂0 en lugar de a p2.
Con esta notación, la sucesión generada es
2
p0(0) , p1(0) = g( p0(0) ), p2(0) = g( p1(0) ), p0(1) = { }( p0(0) ), p1(1) = g( p0(1) ), . . . .
Cada tercer término de la sucesión de Steffensen se genera con la ecuación (2.15); los
otros usan la iteración de punto fijo en el término previo. El proceso se describe en el
algoritmo 2.6.
2.5 Convergencia acelerada 67
d) de la sección 2.2.
Al aplicar el procedimiento de Steffensen con p0 5 1.5 obtenemos los valores en la ta-
bla 2.11. La iteración p0 = 1.365230013 es exacta hasta el noveno lugar decimal. En este
(2)
ejemplo, el método de Steffensen ofrece casi la misma precisión que el método de Newton
la sección 2.4.
Teorema 2.15 Suponga que x 5 g(x) tiene la solución p con g ( p) = 1. Si existe una d > 0 tal que g ∈ C 3
p 2 d, p 1 d], entonces el método de Steffensen proporciona convergencia cuadrática para
cualquier p0 ∈ p 2 d, p 1 d].
Polinomios algebraicos
Teorema 2.16 (Teorema fundamental de álgebra)
Si P(x) es un polinomio de grado n ≥ P(x)
5 0 tiene por lo menos una raíz (posiblemente compleja).
A pesar de que el teorema fundamental de álgebra es básico para cualquier estudio de
las funciones elementales, la prueba usual requiere técnicas a partir del estudio de la teoría
-
sarrollo sistemático de los temas necesarios para mejorar este teorema.
Ejemplo 1 Determine todos los ceros del polinomio P(x) 5 x3 2 5x2 1 17x 2 13.
P(x) = an (x − x1 )m 1 (x − x2 )m 2 · · · (x − xk )m k .
Mediante el corolario 2.17, la colección de ceros de un polinomio es única y, si cada
cero xi se cuenta tantas veces como su multiplicidad mi, un polinomio de grado n tiene exac-
tamente n ceros.
El siguiente corolario del teorema fundamental de álgebra se usa con frecuencia en esta
sección y en capítulos posteriores.
Corolario 2.18 Sean P(x) y Q(x) polinomios de grado a lo más n. Si x1, x2, , xk, con k > n, son números dis-
tintos con P(xi) 5 Q(xi) para i 5 1, 2, , k, entonces P(x) 5 Q(x) para todos los valores de x.
Este resultado implica que para mostrar que dos polinomios de grado menor o igual que
n son iguales, sólo necesitamos mostrar que concuerdan en n 1 1 valores. Esto se usará con
mucha frecuencia, especialmente en los capítulos 3 y 8.
Ejemplo 2 Use el método de Horner para evaluar P(x) 5 2x4 2 3x2 1 3x 2 4 en x0 5 22.
Por lo que,
raíces en diferentes lenguajes.
En inglés estándar, por lo general P(x) = (x + 2)(2x 3 − 4x 2 + 5x − 7) + 10.
provee un sentido de algo
Una ventaja adicional del uso del procedimiento de Horner (o de división sintética) es
Sin embargo, en matemáticas
que, ya que
toma la forma de algo que
P(x) = (x − x0 )Q(x) + b0 ,
sintética trata las formas como
un todo en lugar de cómo objetos
individuales, que es como se donde
usa en geometría analítica. En la
división sintética de polinomios, Q(x) = bn x n−1 + bn−1 x n−2 + · · · + b2 x + b1 ,
las diferentes potencias de las
variables no se proporcionan al diferenciar respecto a x obtenemos
de modo explícito, pero se
mantienen juntas.
P (x) = Q(x) + (x − x0 )Q (x) y P (x0 ) = Q(x0 ). (2.16)
P(x) = 2x 4 − 3x 2 + 3x − 4,
usando el método de Newton con x0 5 22 y la división sintética para evaluar P(xn) y P9(xn)
para cada iteración xn.
x0 = −2 2 0 −3 3 −4
−4 8 −10 14
2 −4 5 −7 10 = P(−2).
x0 = −2 2 −4 5 −7
−4 16 −42
2 −8 21 −49 = Q(−2) = P (−2)
2.6 Ceros de polinomios y método de Müller 71
y
P(x0 ) P(x0 ) 10
x1 = x0 − = x0 − = −2 − ≈ −1.796.
P (x0 ) Q(x0 ) −49
Al repetir el procedimiento para encontrar x2 obtenemos
−1.796 2 0 −3 3 −4
−3.592 6.451 −6.197 5.742
2 −3.592 3.451 −3.197 1.742 = P(x1 )
−3.592 12.902 −29.368
2 −7.184 16.353 −32.565 = Q(x1 ) = P (x1 ).
De manera similar, x3 5 21.73897, y un cero real con cinco cifras decimales es 21.73896.
Observe que el polinomio Q(x) depende de la aproximación que se usa y cambia de una
iteración a otra.
Y su derivada en x0:
Si P(x) es un polinomio de enésimo grado con n ceros reales, este procedimiento aplica-
n 2 2) ceros aproximados de P y un factor cuadrático
aproximado Q n−2 (x). En esta etapa, Q n−2 (x) = 0 puede resolverse con la fórmula cuadrá-
tica para encontrar por lo menos dos ceros aproximados de P. A pesar de que este método se
puede usar para encontrar todos los ceros aproximados, depende del uso repetido de aproxi-
maciones y puede conducir a resultados imprecisos.
El procedimiento que se ha descrito recientemente recibe el nombre de . La
las aproximaciones subsiguientes también serán números reales. Una forma de superar esta
con aritmética compleja. Un enfoque alterno tiene sus bases en el siguiente teorema.
Una división sintética mediante polinomios cuadráticos se puede concebir para factori-
zar aproximadamente el polinomio, de modo que un término será un polinomio cuadrático
cuyas raíces complejas son aproximaciones a las raíces del polinomio original. Esta técnica
El método de Müller es similar
al método de la secante. Sin
embargo, mientras en el método
de la secante se usa una recta que técnica se puede usar para cualquier problema de encontrar la raíz, pero es especialmente útil
pasa por dos puntos en la curva para aproximar las raíces de los polinomios.
para aproximar la raíz, en el
método de Müller se utiliza una
El método de la secante comienza con dos aproximaciones iniciales p0 y p1 y determi-
parábola a lo largo de tres puntos na la siguiente aproximación p2, como la intersección del eje x con la recta que pasa por
en la curva para la aproximación. (p0, f(p0)) y (p1, f(p1
aproximaciones iniciales, p0, p1 y p2, y determina la siguiente aproximación p3 al considerar
la intersección del eje x con la parábola a través de (p0, f( p0)), (p1, f( p1)) y ( p2, f( p2)). (Con-
2.6 Ceros de polinomios y método de Müller 73
Figura 2.12
y y
p0 p1 p2 x p0 p1 p2 p3 x
f f
a) b)
f ( p0 ) = a( p0 − p2 )2 + b( p0 − p2 ) + c, (2.17)
f ( p1 ) = a( p1 − p2 )2 + b( p1 − p2 ) + c, (2.18)
y
f ( p 2 ) = a · 02 + b · 0 + c = c (2.19)
para ser
c = f ( p2 ), (2.20)
( p0 − p2 )2 [ f ( p1 ) − f ( p2 )] − ( p1 − p2 )2 [ f ( p0 ) − f ( p2 )]
b= , (2.21)
( p0 − p2 )( p1 − p2 )( p0 − p1 )
y
( p1 − p2 )[ f ( p0 ) − f ( p2 )] − ( p0 − p2 )[ f ( p1 ) − f ( p2 )]
a= . (2.22)
( p0 − p2 )( p1 − p2 )( p0 − p1 )
−2c
p3 − p2 = √ .
b ± b2 − 4ac
Esta fórmula proporciona dos posibilidades para p3, dependiendo del signo que precede al
término radical. En el método de Müller, el signo se selecciona de acuerdo con el signo de b.
74 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
2c
p 3 = p2 − √ ,
b + sgn(b) b2 − 4ac
Figura 2.13
y
3
2
y 5 x4 2 3x3 1 x 1 x 1 1
2
21 1 2 3 x
21
Tres conjuntos de tres puntos iniciales se usarán con el algoritmo 2.8 y TOL 5 1025 para
aproximar los ceros de f. El primer conjunto usará p0 5 0.5, p1 5 20.5 y p2 5 0. La parábola
que pasa a través de estos puntos tiene raíces complejas porque no interseca el eje x. La tabla
2.12 provee aproximaciones para los ceros complejos correspondientes de f.
La tabla 2.13 nos da aproximaciones para los dos ceros reales de f. El más pequeño de
éstos usa p0 5 0.5, p1 5 1.0 y p2 5 1.5, y la raíz más grande se aproxima cuando p0 5 1.5,
p1 5 2.0 y p2 5 2.5.
Los valores en las tablas son aproximaciones precisas para los lugares enumerados.
76 CAPÍTULO 2 Soluciones de las ecuaciones en una variable
La ilustración muestra que el método de Müller puede aproximar las raíces de los poli-
nomios con una variedad de valores iniciales. De hecho, el método de Müller por lo general
converge con la raíz de un polinomio para cualquier selección de aproximación inicial, a
pesar de que se pueden construir problemas para los cuales la convergencia no se presenta-
i tenemos f ( pi ) = f ( pi+1 ) = f ( pi+2 ) = 0.
Entonces, la ecuación cuadrática se reduce a una función constante diferente de cero y nunca
interseca el eje x. Sin embargo, esto no es normalmente el caso, y los paquetes de software
de propósito general que usan el método de Müller sólo requieren una aproximación inicial
por raíz e incluso proporcionarán esta aproximación como una opción.
La biblioteca netlib contiene una subrutina que usa una combinación de los métodos
de bisección y de secante desarrollada por T. J. Dekker para aproximar un cero real de la
usa una combinación del método de bisección, la interpolación y la extrapolación para en-
contrar un cero real de la función en el intervalo.
Observe que a pesar de la diversidad de los métodos, los paquetes escritos de manera
profesional están basados principalmente en métodos y principios que se analizan en este
capítulo. Usted debería ser capaz de utilizar estos paquetes al leer los manuales adjuntos para
Existen tres libros que consideramos clásicos para la solución de ecuaciones no linea-
actualidad.
Las secciones Preguntas de análisis, Conceptos clave y Revisión del capítulo están dis-
ponibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
CAPÍTULO
Introducción
Se realiza un censo de la población de Estados Unidos cada 10 años. La siguiente tabla
muestra la población, en miles de personas, desde 1960 hasta 2010, y los datos también se
P(t)
3 3 10 8
2 3 10 8
Población
1 3 10 8
Al revisar estos datos, podríamos preguntar si se podrían usar para efectuar un cálculo
razonable de la población, digamos, en 1975 o incluso en el año 2020. Las predicciones de
este tipo pueden obtenerse por medio de una función que se ajuste a los datos proporcio-
nados. Este proceso recibe el nombre de interpolación y es el tema de este capítulo. Este
problema de población se considera a lo largo del capítulo y en los ejercicios 19 de la sección
3.1, 17 de la sección 3.3 y 24 de la sección 3.5.
77
78 CAPÍTULO 3 Interpolación y aproximación polinomial
donde n es un entero positivo y a0, , an son constantes reales. Una razón de su importancia
es que se aproximan de manera uniforme a las funciones continuas. Con esto queremos decir
polinomio que está tan “cerca” de la función dada como se desee. Este resultado se expresa
Figura 3.1
y
y 5 f(x) 1
y 5 P(x)
y 5 f(x)
y 5 f(x) 2
a b x
primeros seis polinomios de Taylor alrededor de x0 5 0 para f (x) 5 e x. Ya que las derivadas
de f (x) son todas ex, que evaluadas en x0 5 0 dan 1, los polinomios de Taylor son
x2 x2 x3
Se publicó muy poco del trabajo P0 (x) = 1, P1 (x) = 1 + x, P2 (x) = 1 + x + , P3 (x) = 1 + x + + ,
de Weierstrass durante su vida; 2 2 6
no obstante, sus conferencias,
x2 x3 x4 x2 x3 x4 x5
en especial sobre la teoría de las P4 (x) = 1 + x + + + , y P5 (x) = 1 + x + + + + .
2 6 24 2 6 24 120
completa de estudiantes.
los polinomios de grado más alto, el error empeora progresivamente conforme nos alejamos
de cero).
Figura 3.2
y
20
y 5 P5(x)
y 5 ex
y 5 P4(x)
15
y 5 P3(x)
10
y 5 P2(x)
5
y 5 P1(x)
y 5 P0(x)
21 1 2 3 x
y, en general,
Para aproximar f (3) 5 1/3 mediante P n (3) para valores cada vez mayores de n, obtenemos
los valores en la tabla 3.1 (¡un terrible fracaso!). Cuando aproximamos f (3) 5 1/3 mediante
P n (3) y para valores más grandes de n, la aproximación se vuelve cada vez más imprecisa.
Tabla 3.1 n 0 1 2 3 4 5 6 7
Pn (3) 1 −1 3 −5 11 −21 43 −85
80 CAPÍTULO 3 Interpolación y aproximación polinomial
x − x1 x − x0
L 0 (x) = y L 1 (x) = .
x0 − x1 x1 − x0
Observe que
Por lo que P es el único polinomio de grado a lo más 1 que pasa por (x0, y0) y (x1, y1).
Ejemplo 1 Determine el polinomio de interpolación de Lagrange que pasa por los puntos (2, 4) y (5, 1).
x −5 1 x −2 1
L 0 (x) = = − (x − 5) y L 1 (x) = = (x − 2),
2−5 3 5−2 3
por lo que
1 1 4 20 1 2
P(x) = − (x − 5) · 4 + (x − 2) · 1 = − x + + x − = −x + 6.
3 3 3 3 3 3
y 5 P(x
3.1 Interpolación y el polinomio de Lagrange 81
Figura 3.3
y
(2,4)
4
3
2
y 5 P(x) = 2x 1 6
(5,1)
1
1 2 3 4 5 x
Figura 3.4
y
y 5 f (x)
y 5 P(x)
x0 x1 x2 xn x
En este caso, primero construimos, para cada k 5 0, 1, , n, una función L n,k (x) con la
propiedad de que Ln,k (xi ) = 0 cuando i = k y L n,k (x k) 5 1. Para satisfacer Ln,k (xi ) = 0 para
cada i = k se requiere que el numerador de L n,k (x) contenga el término
Para satisfacer L n,k (x k) 5 1, el denominador de L n,k (x) debe ser el mismo término, pero
evaluado en x 5 xk. Por lo tanto,
L n,k (cuando n
82 CAPÍTULO 3 Interpolación y aproximación polinomial
Figura 3.5
L n,k(x)
Teorema 3.2 Si x0, x1, , x n son n 1 1 números distintos y f es una función cuyos valores están determi-
nados en estos números, entonces existe un único polinomio P(x) de grado a lo sumo n con
La fórmula de interpolación
nombrada por Joseph Louis f (xk ) = P(xk ), para cada k = 0, 1, . . . , n.
Lagrange (1736–1813)
probablemente era conocida
por Newton alrededor de 1675,
Este polinomio está determinado por
pero al parecer fue publicada por
n
primera vez en 1779 por Edward
Waring (1736–1798). Lagrange P(x) = f (x0 )L n,0 (x) + · · · + f (xn )L n,n (x) = f (xk )L n,k (x), (3.1)
escribió mucho sobre el tema de k=0
interpolación y su trabajo tuvo
donde, para cada k = 0, 1, . . . , n,
los matemáticos posteriores. Él (x − x0 )(x − x1 ) · · · (x − xk−1 )(x − xk+1 ) · · · (x − xn )
publicó este resultado en 1795. L n,k (x) = (3.2)
(xk − x0 )(xk − x1 ) · · · (xk − xk−1 )(xk − xk+1 ) · · · (xk − xn )
El símbolo se usa para escribir n
productos de manera compacta y (x − xi )
= .
es similar al símbolo , que se
i=0
(xk − xi )
utiliza para escribir sumas. Por i =k
ejemplo
3
i=0 ai = a1 ∗ a2 ∗ a3 . Escribiremos Ln,k (x) simplemente como L k (x) cuando no haya confusión en cuanto a
su grado.
Además, f (x0 ) = f (2) = 1/2, f (x1 ) = f (2.75) = 4/11, y f (x2 ) = f (4) = 1/4, por lo
que
2
P(x) = f (xk )L k (x)
k=0
1 64 1
= (x − 2.75)(x − 4) − (x − 2)(x − 4) + (x − 2)(x − 2.75)
3 165 10
1 2 35 49
= x − x+ .
22 88 44
b) Una aproximación para f (3) = 1/3 (véase la figura 3.6) es
9 105 49 29
f (3) ≈ P(3) = − + = ≈ 0.32955.
22 88 44 88
Recuerde que en la sección de apertura de este capítulo (consulte la tabla 3.1), encontramos
que ninguna expansión en polinomios de Taylor alrededor de x0 5 1 se puede usar para
aproximar razonablemente f(x) 5 1/x en x 5 3.
Figura 3.6
y
2 y 5 f (x)
1
y 5 P(x)
1 2 3 4 5 x
f (n+1) (ξ(x))
Existen otras formas de expresar f (x) = P(x) + (x − x0 )(x − x1 ) · · · (x − xn ), (3.3)
el término de error para el (n + 1)!
polinomio de Lagrange, pero
ésta puede ser la forma más donde P(x) es el polinomio de interpolación determinado en la ecuación (3.1).
útil y la que concuerda más
estrechamente con la forma de
error del polinomio estándar
Demostración Primero observe que si x 5 x k para cualquier k 5 0, 1, , n, entonces f(xk ) 5
de Taylor. P(x k ) y al elegir ξ (x k )de manera arbitraria en (a, b) se obtiene la ecuación (3.3).
84 CAPÍTULO 3 Interpolación y aproximación polinomial
(t − x0 )(t − x1 ) · · · (t − xn )
g(t) = f (t) − P(t) − [ f (x) − P(x)]
(x − x0 )(x − x1 ) · · · (x − xn )
n
(t − xi )
= f (t) − P(t) − [ f (x) − P(x)] .
i=0
(x − xi )
Puesto que f ∈ C n+1 [a, b], y P ∈ C ∞ [a, b], se sigue que g ∈ C n+1 [a, b]. Para t = xk ,
tenemos
n
(xk − xi )
g(xk ) = f (xk ) − P(xk ) − [ f (x) − P(x)] = 0 − [ f (x) − P(x)] · 0 = 0.
i=0
(x − xi )
Además,
n
(x − xi )
g(x) = f (x) − P(x) − [ f (x) − P(x)] = f (x) − P(x) − [ f (x) − P(x)] = 0.
i=0
(x − xi )
Por lo tanto, g ∈ C n+1 [a, b], y g se anula en los n 1 2 números distintos x, x0 , x1 , . . . , xn.
Por el teorema generalizado de Rolle 1.10, existe un número ξ en (a, b) para el que
g (n+1) (ξ ) = 0.Por lo que,
n
d n+1 (t − xi )
0 = g (n + 1) (ξ ) = f (n+1) (ξ ) − P (n+1) (ξ ) − [ f (x) − P(x)] . (3.4)
dt n+1 i=0
(x − xi )
t=ξ
Sin embargo, P(x) es un polinomio de grado a lo sumo n, por lo que la derivada (n 1 1),
n
P (n+1) (x), es cero. Además i=0 [(t − xi )/(x − xi )] es un polinomio de grado (n 1 1), por
lo que
n
(t − xi ) 1
= n t n+1 + (términos de menor grado en t),
i=0
(x − xi ) i=0 (x − xi )
y
n
d n+1 (t − xi ) (n + 1)!
= n .
dt n+1 i=0
(x − xi ) − xi )
i=0 (x
El polinomio de Lagrange de grado n utiliza información en los distintos números x0, x1,
, xn y, en lugar de (x 2 x0)n su fórmula de error utiliza el producto de los n 1 1 términos
(x − x0 ), (x − x1 ), . . . , (x − xn ):
f (n+1) (ξ(x))
(x − x0 )(x − x1 ) · · · (x − xn ).
(n + 1)!
f (ξ(x))
(x− x0 )(x− x1 )(x− x2 ) = − (ξ(x))−4 (x− 2)(x− 2.75)(x− 4), para ξ(x)en(2, 4).
3!
35 2 49
g(x) = (x − 2)(x − 2.75)(x − 4) = x 3 − x + x − 22.
4 2
Como
35 2 49 35 49 1
Dx x3 − x + x − 22 = 3x 2 − x+ = (3x − 7)(2x − 7),
4 2 2 2 2
los puntos críticos se presentan en
7 7 25 7 7 9
x= , con g = , y x= , con g =− .
3 3 108 2 2 16
Por lo tanto, el error máximo es
f (ξ(x)) 1 9 9
|(x − x0 )(x − x1 )(x − x2 )| ≤ − = ≈ 0.03515625.
3! 16 16 256
El siguiente ejemplo ilustra cómo se puede usar la fórmula del error para preparar una
tabla de datos que garantizará un error de interpolación dentro de una cota establecida.
Ejemplo 4 Suponga que se va a preparar una tabla para la función f (x) = e x , para x en [0, 1]. Imagine
que el número de lugares decimales proporcionado por entrada es d $ 8 y que h, el tamaño
del paso es la diferencia entre valores adyacentes x. ¿Qué tamaño de paso h garantizará que
la interpolación lineal proporcione un error absoluto a lo máximo de 10–6 para todas las x
f (2) (ξ ) | f (2) (ξ )|
| f (x) − P(x)| = (x − x j )(x − x j+1 ) = |(x − x j )||(x − x j+1 )|.
2! 2
Como el tamaño del paso es h, entonces x j = j h, x j+1 = ( j + 1)h, y
| f (2) (ξ )|
| f (x) − P(x)| ≤ |(x − j h)(x − ( j + 1)h)|.
2!
86 CAPÍTULO 3 Interpolación y aproximación polinomial
Por lo tanto,
máxξ ∈[0,1] eξ
| f (x) − P(x)| ≤ máx |(x − j h)(x − ( j + 1)h)|
2 x j ≤x≤x j+1
e
≤ máx |(x − j h)(x − ( j + 1)h)|.
2 x j ≤x≤x j+1
Considere la función g(x) = (x − j h)(x − ( j + 1)h), para j h ≤ x ≤ ( j + 1)h. Luego
h
g (x) = (x − ( j + 1)h) + (x − j h) = 2 x − j h − ,
2
e e h2 eh 2
| f (x) − P(x)| ≤ máx |g(x)| ≤ · = .
2 x j ≤x≤x j+1 2 4 8
Por consiguiente, para garantizar que el error en la interpolación lineal está acotado por
1026 h de tal forma que
eh 2
≤ 10−6 . Esto implica que h < 1.72 × 10−3 .
8
Puesto que n 5 (1 2 0)/h debe ser un entero, una selección razonable para el tamaño del
paso es h 5 0.001.
se conozca, por lo que la forma explícita del error no se puede usar. Ahora, ilustraremos una
aplicación práctica de interpolación en dicha situación.
Ilustración La tabla 3.2 lista los valores de una función f en diferentes puntos. Las aproximaciones para
f (1.5) obtenidas con distintos polinomios de Lagrange que usan estos datos se comparará
para probar y determinar la precisión de la aproximación.
Tabla 3.2
El polinomio lineal más apropiado usa x0 5 1.3 y x1 5 1.6 porque 1.5 se encuentra entre 1.3
x f (x) y 1.6. El valor del polinomio de interpolación en 1.5 es
1.0 0.7651977 (1.5 − 1.6) (1.5 − 1.3)
1.3 0.6200860 P1 (1.5) = f (1.3) + f (1.6)
1.6 0.4554022 (1.3 − 1.6) (1.6 − 1.3)
1.9 0.2818186 (1.5 − 1.6) (1.5 − 1.3)
2.2 0.1103623 = (0.6200860) + (0.4554022) = 0.5102968.
(1.3 − 1.6) (1.6 − 1.3)
3.2 Aproximación de datos y método de Neville 87
Es posible usar razonablemente dos polinomios de grado dos, uno con x0 5 1.3, x1 5 1.6 y
x2 5 1.9, lo cual nos da
y uno con x0 5 1.0, x1 5 1.3 y x2 5 1.6, lo cual nos da P̂2 (1.5) = 0.5124715.
En el caso de tercer grado, también hay dos opciones razonables para el polinomio, una
con x0 5 1.3, x1 5 1.6, x2 5 1.9 y x3 5 2.2, lo cual nos da P3(1.5) 5 0.5118302. La segunda
aproximación de tercer grado se obtiene con x0 51.0, x1 5 1.3, x2 5 1.6 y x3 5 1.9, lo cual
nos da P̂3 (1.5) = 0.5118127.
El polinomio de Lagrange de cuarto grado usa todas las entradas en la tabla. Con
x0 5 1.0, x1 5 1.3, x2 = 1.6, x3 5 1.9 y x4 5 2.2, la aproximación es P4(1.5) = 0.5118200.
Puesto que P3(1.5), P̂3 (1.5) y P4(1.5) concuerdan con una exactitud de 2 3 1025 unida-
des, esperamos este grado de precisión para estas aproximaciones. También esperamos que
P4(1.5) sea la aproximación más precisa ya que usa la mayor parte de los datos proporcio-
nados.
clase de orden cero, cuyo valor en 1.5 se conoce como 0.5118277. Por lo tanto, las verdade-
ras precisiones de las aproximaciones son las siguientes:
Método de Neville
de aplicar, por lo que el grado del polinomio que se necesita para la precisión deseada en
general se desconoce hasta que se realizan los cálculos. Una práctica común es calcular los
resultados dados a partir de diferentes polinomios hasta que se obtiene el acuerdo apropia-
do, como se hizo en la ilustración anterior. Sin embargo, el trabajo efectuado al calcular la
aproximación con el segundo polinomio no disminuye el trabajo necesario para calcular
la tercera aproximación, ni la cuarta aproximación es fácil de obtener una vez que se conoce la
tercera aproximación y así sucesivamente. Ahora, derivaremos estos polinomios de aproxi-
mación de una manera que use los cálculos previos para una mayor ventaja.
Teorema 3.5 Sea f x0, x1, , xk y sean xj y xi dos números distintos en este conjunto. Entonces
es el k-ésimo polinomio de Lagrange que interpola f en los puntos k 1 1 x0, x1, , xk.
El teorema 3.5 implica que los polinomios de interpolación pueden generarse de manera
recursiva. Por ejemplo, tenemos
1 1
P0,1 = [(x − x0 )P1 + (x − x1 )P0 ], P1,2 = [(x − x1 )P2 + (x − x2 )P1 ],
x1 − x0 x2 − x1
1
P0,1,2 = [(x − x0 )P1,2 + (x − x2 )P0,1 ],
x2 − x0
y así sucesivamente. Estos se generan de la manera que se muestra en la tabla 3.3, donde
3.2 Aproximación de datos y método de Neville 89
Tabla 3.3 x0 P0
x1 P1 P0,1
x2 P2 P1,2 P0,1,2
x3 P3 P2,3 P1,2,3 P0,1,2,3
x4 P4 P3,4 P2,3,4 P1,2,3,4 P0,1,2,3,4
El procedimiento que usa el resultado del teorema 3.5 para generar recursivamente las
aproximaciones de polinomios de interpolación recibe el nombre de método de Neville. La
notación P que se usa en la tabla 3.3 es pesada debido al número de subíndices que se utilizan
para representar las entradas. Observe, sin embargo, que mientras se construye un arreglo,
sólo se necesitan dos subíndices. El procedimiento hacia abajo en la tabla corresponde al
uso consecutivo de los puntos xi con una i más grande, y el procedimiento hacia la derecha
corresponde al incremento del grado del polinomio de interpolación. Puesto que los puntos
aparecen de manera consecutiva en cada entrada, necesitamos describir sólo un punto de
Eric Harold Neville (1889–1961)
inicio y el número de puntos adicionales que se usan en la construcción de la aproximación.
la fórmula de Lagrange en un Para evitar los múltiples índices, dejamos que Qi,j (x) para 0 ≤ j ≤ i, denote el polinomio
de interpolación de grado j en los números ( j + 1) xi− j , xi− j+1 , . . . , xi−1 , xi ; es decir
Se espera que la mejor aproximación lineal sea Q2,1 porque 1.5 se encuentra entre
x1 5 1.3 y x2 5 1.6.
De manera similar, las aproximaciones usando polinomios de grado superior están dadas por
Entonces Q4,4, Q5,4 y Q5,5 podrían compararse para determinar la precisión posterior.
Ejemplo 3 La tabla 3.7 lista los valores de f(x) 5 ln x precisos para los lugares dados. Use el método
de Neville y la aritmética de redondeo de cuatro dígitos para aproximar f (2.1) 5 ln 2.1 al
Tabla 3.7 completar la tabla de Neville.
i xi ln xi
Solución Puesto que x 2 x0 5 0.1, x 2 x1 5 20.1 y x 2 x2 5 20.2, tenemos Q0,0 5 0.6931,
0 2.0 0.6931 Q1,0 5 0.7885 y Q2,0 5 0.8329,
1 2.2 0.7885
2 2.3 0.8329 1 0.1482
Q 1,1 = [(0.1)0.7885 − (−0.1)0.6931] = = 0.7410
0.2 0.2
y
1 0.07441
Q 2,1 = [(−0.1)0.8329 − (−0.2)0.7885] = = 0.7441.
0.1 0.1
La aproximación final que podemos obtener a partir de estos datos es
1 0.2276
Q 2,1 = [(0.1)0.7441 − (−0.2)0.7410] = = 0.7420.
0.3 0.3
Estos valores se muestran en la tabla 3.8.
Tabla 3.8 i xi x − xi Q i0 Q i1 Q i2
0 2.0 0.1 0.6931
1 2.2 −0.1 0.7885 0.7410
2 2.3 −0.2 0.8329 0.7441 0.7420
3.3 Diferencias divididas 91
En el ejemplo anterior, tenemos f(2.1) 5 ln 2.1 5 0.7419 para cuatro lugares decimales,
por lo que el error absoluto es
Sin embargo, f (x) = 1/x, f (x) = −1/x 2 , y f (x) = 2/x 3, por lo que la fórmula de error
de Lagrange (3.3) en el teorema 3.3 nos da la cota del de error
f (ξ(2.1))
| f (2.1) − P2 (2.1)| = (x − x 0 )(x − x1 )(x − x2 )
3!
1 0.002
= (0.1)(−0.1)(−0.2) ≤ = 8.3 × 10−5 .
3 (ξ(2.1))3 3(2)3
Observe que el error real, 1024, excede la cota del error, 8.3 × 10−5. Esta aparente con-
-
mética de redondeo de cuatro dígitos, y la fórmula del error de Lagrange (3.3) supone la
de error teórico.
• Recuerde: No puede esperar mayor precisión de la proporcionada por la aritmética.
dividida que se presentan en esta sección se usan para generar sucesivamente los polinomios
en sí mismos.
Diferencias divididas
Suponga que Pn(x) es el enésimo polinomio de interpolación que concuerda con la función f
en los diferentes números x0, x1, , xn. A pesar de que este polinomio es único, existen re-
92 CAPÍTULO 3 Interpolación y aproximación polinomial
presentaciones algebraicas que son útiles en ciertas situaciones. Las diferencias divididas de
f respecto a x0, x1, , xn se usan para expresar Pn(x) en la forma
Pn (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) + · · · + an (x − x0 ) · · · (x − xn−1 ), (3.5)
para constantes apropiadas a0, a1, , an. Para determinar la primera de estas constantes, a0,
observe que si Pn(x) se escribe en la forma de la ecuación (3.5), entonces evaluando Pn(x) en
x0 queda sólo el término constante a0; es decir,
a0 = Pn (x0 ) = f (x0 ).
Como en muchas áreas, Isaac
Newton es prominente en Similarmente, cuando P(x) se evalúa en x1, los únicos términos diferentes de cero en la
el estudio de ecuaciones de evaluación de Pn(x1) son los términos constante y lineal,
diferencia. Desarrolló fórmulas
de interpolación desde 1675, f (x0 ) + a1 (x1 − x0 ) = Pn (x1 ) = f (x1 );
usando su notación ! en tablas
de diferencias. Adoptó un por lo que
enfoque muy general hacia las
fórmulas de diferencias, por lo f (x1 ) − f (x0 )
que los ejemplos explícitos que a1 = . (3.6)
produjo, incluyendo las fórmulas x1 − x0
de Lagrange, a menudo son
conocidas con otros nombres. Ahora presentaremos la notación de diferencias divididas, que se relaciona con la no-
tación !2 de Aitkens que se usó en la sección 2.5. La ceroésima diferencia dividida de la
función f respecto a xi, denotada f xi], es simplemente el valor de f en xi:
primera diferencia
dividida de f respecto a xi y xi+1 se denota f [xi , xi+1 ]
f [xi+1 ] − f [xi ]
f [xi , xi+1 ] = . (3.8)
xi+1 − xi
Debido a la ecuación (3.6), podemos escribir a1 = f [x0 , x1 ], justo cuando a0 se puede ex-
presar como a0 = f (x0 ) = f [x0 ]. Por lo tanto, el polinomio de interpolación en la ecuación
(3.5) es
Como se puede esperar a partir de la evaluación de a0 y a1, las constantes requeridas son
ak = f [x0 , x1 , x2 , . . . , xk ],
para cada k 5 0, 1, , n. Por lo que Pn (x), se puede reescribir en una forma llamada dife-
rencias divididas de Newton:
n
Pn (x) = f [x0 ] + f [x0 , x1 , . . . , xk ](x − x0 ) · · · (x − xk−1 ). (3.10)
k=1
El valor de f x0, x1, , xk] es independiente del orden de los números x0, x1, , xk, como se
muestra en el ejercicio 23.
La generación de las diferencias divididas se describe en la tabla 3.9. A partir de estos
datos, también se pueden determinar dos cuartas y una quinta diferencia.
Tabla 3.9
Primeras Segundas Terceras
x f (x) diferencias divididas diferencias divididas diferencias divididas
x0 f [x0 ]
f [x1 ] − f [x0 ]
f [x0 , x1 ] =
x1 − x0
f [x1 , x2 ] − f [x0 , x1 ]
x1 f [x1 ] f [x0 , x1 , x2 ] =
x2 − x0
f [x2 ] − f [x1 ] f [x1 , x2 , x3 ] − f [x0 , x1 , x2 ]
f [x1 , x2 ] = f [x0 , x1 , x2 , x3 ] =
x2 − x1 x3 − x0
f [x2 , x3 ] − f [x1 , x2 ]
x2 f [x2 ] f [x1 , x2 , x3 ] =
x3 − x1
f [x3 ] − f [x2 ] f [x2 , x3 , x4 ] − f [x1 , x2 , x3 ]
f [x2 , x3 ] = f [x1 , x2 , x3 , x4 ] =
x3 − x2 x4 − x1
f [x3 , x4 ] − f [x2 , x3 ]
x3 f [x3 ] f [x2 , x3 , x4 ] =
x4 − x2
f [x4 ] − f [x3 ] f [x3 , x4 , x5 ] − f [x2 , x3 , x4 ]
f [x3 , x4 ] = f [x2 , x3 , x4 , x5 ] =
x4 − x3 x5 − x2
f [x4 , x5 ] − f [x3 , x4 ]
x4 f [x4 ] f [x3 , x4 , x5 ] =
x5 − x3
f [x5 ] − f [x4 ]
f [x4 , x5 ] =
x5 − x4
x5 f [x5 ]
Ejemplo 1 Complete la tabla de diferencias divididas para los datos utilizados en el ejemplo 1 de la
sección 3.2 y reproducidos en la tabla 3.10, y construya el polinomio de interpolación que
Tabla 3.10 usa todos estos datos.
x f (x)
Solución La primera diferencia dividida relacionada con x0 y x1 es
1.0 0.7651977
1.3 0.6200860 f [x1 ] − f [x0 ] 0.6200860 − 0.7651977
1.6 0.4554022 f [x0 , x1 ] = = = −0.4837057.
1.9 0.2818186
x1 − x0 1.3 − 1.0
2.2 0.1103623
Las restantes primeras diferencias divididas se calculan de la misma forma y se muestran en
la cuarta columna en la tabla 3.11
Observe que el valor P4(1.5) 5 0.5118200 concuerda con el resultado en la tabla 3.6 para el
ejemplo 2 de la sección 3.2, ya que los polinomios son los mismos.
3.3 Diferencias divididas 95
implica que cuando existe f , f [x0 , x1 ] = f (ξ ) para algún número ξ entre x0 y x1. El
siguiente teorema generaliza este resultado.
f (n) (ξ )
f [x0 , x1 , . . . , xn ] = .
n!
Demostración Sea
Puesto que f (xi ) = Pn (xi ) para cada i = 0, 1, . . . , n, la función g tiene n + 1 ceros distin-
a, b]. El teorema generalizado de Rolle 1.10 implica que existe un número ξ en (a, b)
con g (n) (ξ ) = 0, por lo que
0 = f (n) (ξ ) − Pn(n) (ξ ).
-
cada cuando los nodos se ordenan de manera consecutiva con igual espaciado. En este caso,
introducimos la notación h = xi+1 − xi , para cada i = 0, 1, . . . , n − 1 y sea x = x0 + sh .
Entonces la diferencia x 2 xi es x 2 xi 5 (s 2 i)h. Por lo que la ecuación (3.10) se convierte en
f (x1 ) − f (x0 ) 1 1
f [x0 , x1 ] = = ( f (x1 ) − f (x0 )) = f (x0 )
x1 − x0 h h
1 f (x1 ) − f (x0 ) 1 2
f [x0 , x1 , x2 ] = = f (x0 ),
2h h 2h 2
y, en general,
1
f [x0 , x1 , . . . , xk ] = k
f (x0 ).
k!h k
Puesto que f [x0 ] = f (x0 ), la ecuación (3.11) tiene la siguiente forma.
Pn (x) = f [xn ] + f [xn , xn−1 ](x − xn ) + f [xn , xn−1 , xn−2 ](x − xn )(x − xn−1 )
+ · · · + f [xn , . . . , x0 ](x − xn )(x − xn−1 ) · · · (x − x1 ).
Si, además, los nodos tienen el mismo espaciado con x = xn +sh y x = xi +(s +n −i)h,
entonces
Esto se usa para deducir una fórmula comúnmente aplicada conocida como fórmula
de diferencias hacia atrás de Newton. Para analizar esta fórmula, necesitamos la siguiente
∇ pn = pn − pn−1 , para n ≥ 1.
Las potencias superiores se definen de manera recursiva con
∇ k pn = ∇(∇ k−1 pn ), para k ≥ 2.
Por consiguiente,
s(s + 1) 2 s(s + 1) · · · (s + n − 1) n
Pn (x) = f [xn ] + s∇ f (xn ) + ∇ f (xn ) + · · · + ∇ f (xn ).
2 n!
Si extendemos la notación del coeficiente binomial para incluir todos los valores reales de s
al tomar
−s −s(−s − 1) · · · (−s − k + 1) s(s + 1) · · · (s + k − 1)
= = (−1)k ,
k k! k!
entonces
−s −s −s
Pn (x) = f [xn ]+(−1)1 ∇ f (xn )+(−1)2 ∇ 2 f (xn )+ · · · +(−1)n ∇ n f (xn ).
1 2 n
Esto nos da el siguiente resultado.
Solamente un polinomio de interpolación de grado, a lo sumo, cuatro, usa estos cinco puntos
de datos, pero nosotros organizaremos los nodos para obtener mejores aproximaciones de
interpolación de grados uno, dos y tres. Esto nos dará un sentido de precisión para la aproxi-
mación de cuarto grado para el valor dado de x.
Si se requiere una aproximación para f(1.1), la opción razonable para los nodos sería x0
5 1.0, x1 5 1.3, x2 5 1.6, x3 5 1.9 y x4 5 2.2, puesto que esta opción usa lo antes posible
los puntos de datos más cercanos a x 5 1.1 y también usa la cuarta diferencia dividida. Esto
1
implica que h 5 0.3 y s 5 , por lo que la fórmula de diferencias dividas hacia adelante de
3
Newton se utiliza con las diferencias divididas que tienen un subrayado sólido (___) en la
tabla 3.12:
1
P4 (1.1) = P4 (1.0 + (0.3))
3
1 1 2
= 0.7651977 + (0.3)(−0.4837057) + − (0.3)2 (−0.1087339)
3 3 3
1 2 5
+ − − (0.3)3 (0.0658784)
3 3 3
98 CAPÍTULO 3 Interpolación y aproximación polinomial
1 2 5 8
+ − − − (0.3)4 (0.0018251)
3 3 3 3
= 0.7196460.
Para aproximar un valor cuando x
x 5 2.0, de nuevo nos gustaría usar lo antes posible los puntos de datos con s = − 23 y las
diferencias divididas en la tabla 3.12 que tienen un subrayado ondulado ( ). Observe que
la cuarta diferencia dividida se usa en ambas fórmulas:
2
P4 (2.0) = P4 2.2 − (0.3)
3
2 2 1
= 0.1103623 − (0.3)(−0.5715210) − (0.3)2 (0.0118183)
3 3 3
2 1 4 2 1 4 7
− (0.3)3 (0.0680685) − (0.3)4 (0.0018251)
3 3 3 3 3 3 3
= 0.2238754.
Diferencias centradas
Las fórmulas de diferencias hacia adelante y hacia atrás de Newton no son adecuadas para
aproximar f(x) cuando x se encuentra cerca del centro de la tabla porque ninguna permitirá
que la diferencia de orden superior tenga x0 cerca de x. Existen varias fórmulas de diferen-
cias divididas para este caso, cada una de las cuales incluye situaciones en las que se pueden
usar para una máxima ventaja. Estos métodos reciben el nombre de fórmulas de diferencias
centradas. Nosotros sólo consideraremos una fórmula de diferencias centradas, el método
de Stirling.
Para las fórmulas de diferencias centradas seleccionamos x0 cerca del punto que se va a
aproximar y etiquetamos los nodos directamente bajo x0 como x1, x2, y aquellos directa-
mente arriba como x21, x22, … Con esta convención la fórmula de Stirling está dada por
sh
Pn (x) = P2m+1 (x) = f [x0 ] + ( f [x−1 , x0 ] + f [x0 , x1 ]) + s 2 h 2 f [x−1 , x0 , x1 ] (3.14)
2
s(s 2 − 1)h 3
+ f [x−2 , x−1 , x0 , x1 ] + f [x−1 , x0 , x1 , x2 ])
2
+ · · · + s 2 (s 2 − 1)(s 2 − 4) · · · (s 2 − (m − 1)2 )h 2m f [x−m , . . . , xm ]
James Stirling (1692–1770)
publicó ésta y muchas otras s(s 2 − 1) · · · (s 2 − m 2 )h 2m+1
+ ( f [x−m−1 , . . . , xm ] + f [x−m , . . . , xm+1 ]),
2
fórmulas en Methodus
Differentialis en 1720. En este
trabajo se incluyen las técnicas
para acelerar la convergencia de si n 5 2m 1 1 es impar. Si n 5 2m es par, usamos la misma fórmula pero borramos la última
diferentes series. línea. Las entradas utilizadas para esta fórmula están subrayadas en la tabla 3.13.
Ejemplo 2 Considere la tabla de datos dada en los ejemplos anteriores. Use la fórmula de Stirling para
aproximar f(1.5) con x0 5 1.6.
Solución Para aplicar la fórmula de Stirling, usamos las entradas subrayadas en la tabla de
diferencias 3.14.
1.0 0.7651977
−0.4837057
1.3 0.6200860 −0.1087339
−0.5489460 0.0658784
1.6 0.4554022 −0.0494433 0.0018251
−0.5786120 0.0680685
1.9 0.2818186 0.0118183
−0.5715210
2.2 0.1103623
Muchos textos sobre análisis numérico, escritos antes del uso generalizado de las compu-
tadoras, incluyen amplios tratamientos de los métodos de diferencias divididas. Si se necesita
especialmente buena.
n
Ya que el número de condiciones que se satisfacen es i=0 m i + (n + 1) y un polinomio
de grado M tiene M 1 1
0, si i = j,
L n, j (xi ) =
1, si i = j.
Por consiguiente,
n n
H2n+1 (xi ) = f (x j ) · 0 + f (xi ) · 1 + f (x j ) · 0 = f (xi ),
j=0 j=0
j =i
Hn,i (xi ) = −2L n,i (xi ) · L 2n,i (xi ) + [1 − 2(xi − xi )L n,i (xi )]2L n,i (xi )L n,i (xi )
= −2L n,i (xi ) + 2L n,i (xi ) = 0.
por lo que Ĥn, j (xi ) = 0 si i = j y Ĥn,i (xi ) = 1. Al combinar estos hechos, tenemos
n n
H2n+1 (xi ) = f (x j ) · 0 + f (x j ) · 0 + f (xi ) · 1 = f (xi ).
j=0 j=0
j =i
Ejemplo 1 Use el polinomio de Hermite que concuerda con los datos listados en la tabla 3.5 para encon-
trar una aproximación de f(1.5).
Solución Primero calculamos los polinomios de Lagrange y sus derivadas. Esto nos da
y
2
50 2 145 104
Ĥ2,2 (x) = (x − 1.9) x − x+ .
9 9 9
Finalmente,
H5 (x) = 0.6200860H2,0 (x) + 0.4554022H2,1 (x) + 0.2818186H2,2 (x)
− 0.5220232 Ĥ2,0 (x) − 0.5698959 Ĥ2,1 (x) − 0.5811571 Ĥ2,2 (x)
y
4 64 5
H5 (1.5) = 0.6200860 + 0.4554022 + 0.2818186
27 81 81
4 −32 −2
− 0.5220232 − 0.5698959 − 0.5811571 = 0.5118277,
405 405 405
A pesar de que el teorema 3.9 proporciona una descripción completa de los polinomios
de Hermite, a partir del ejemplo 1 es claro que la necesidad de determinar y evaluar los poli-
nomios de Lagrange y sus derivadas hace que el procedimientos sea tedioso para los valores
pequeños de n.
El método alterno utiliza la conexión entre la enésima diferencia dividida y la enésima deri-
vada de f, como se describe en el teorema 3.6 en la sección 3.3.
Suponga que los diferentes números x0, x1, , xn están dados junto con los valores de f
y f9 z0, z1, …, z2n11 mediante
y construya la tabla de diferencias divididas en la forma de la tabla 3.9 que usa z0, z1, …,
z2n11.
Puesto que z 2i = z 2i+1 = xi para cada i f [z 2i , z 2i+1 ] con la fórmu-
la de diferencias divididas. Sin embargo, si suponemos, con base en el teorema 3.6, que la
sustitución razonable en estas situaciones es f [z 2i , z 2i+1 ] = f (z 2i ) = f (xi ), podemos usar
las entradas
f [z 0 , z 1 ], f [z 2 , z 3 ], . . . , f [z 2n , z 2n+1 ].
Las diferencias divididas restantes se producen de la manera común y las diferencias dividi-
das adecuadas se usan en la fórmula de diferencias divididas de interpolación de Newton. La
tabla 3.16 muestra las entradas que se utilizan para las primeras tres columnas de diferencias
divididas al determinar el polinomio de Hermite H5(x) para x0, x1 y x2. Las entradas restantes
se generan de la manera que se muestra en la tabla 3.9. El polinomio de Hermite está dado por
2n+1
H2n+1 (x) = f [z 0 ] + f [z 0 , . . . , z k ](x − z 0 )(x − z 1 ) · · · (x − z k−1 ).
k=1
Ejemplo 2 Use los datos que se proporcionan en el ejemplo 1 y el método de diferencias divididas para
determinar la aproximación polinomial de Hermite en x 5 1.5.
Solución Las entradas subrayadas en las primeras tres columnas de la tabla 3.17 son los
datos que se proporcionaron en el ejemplo 1. Las entradas restantes en esta tabla se generan
con la fórmula de diferencias divididas estándar (3.9).
Por ejemplo, para la segunda entrada en la tercera columna usamos la segunda entrada
1.3 en la segunda columna y la primera entrada 1.6 en esa columna para obtener
0.4554022 − 0.6200860
= −0.5489460.
1.6 − 1.3
104 CAPÍTULO 3 Interpolación y aproximación polinomial
Para la primera entrada en la cuarta columna, usamos la primera entrada 1.3 en la tercera
columna y la primera entrada 1.6 en esa columna para obtener
−0.5489460 − (−0.5220232)
= −0.0897427.
1.6 − 1.3
La técnica que se usa en el algoritmo 3.3 se puede ampliar para su uso en la determina-
ción de otros polinomios osculantes. Es posible encontrar un análisis conciso de los proce-
Figura 3.7
y 5 f (x)
1
Las pruebas de los teoremas en esta sección dependen de los resultados en el capítulo 6.
106 CAPÍTULO 3 Interpolación y aproximación polinomial
a partir de las condiciones físicas, que se requiere suavidad, por lo que la función de aproxi-
mación debe ser continuamente diferenciable.
Un procedimiento alterno es usar un polinomio por tramos de tipo Hermite. Por
ejemplo, si se conocen los valores de f y de f 9 en cada uno de los puntos x0 , x1 ,
, xn, se puede usar un polinomio cúbico de Hermite en cada uno de los subintervalos
[x0 , x1 ], [x1 , x2 ], . . . , [xn−1 , xn ] para obtener una función que tiene una derivada continua
x0, xn].
Determinar el polinomio cúbico de Hermite adecuado en un intervalo dado es simple-
mente cuestión de calcular H3(x) para ese intervalo. Los polinomios de interpolación de
Lagrange necesarios para determinar H3, son de primer grado, por lo que esto se puede lograr
Isaac Jacob Schoenberg (1903– interpolación general, necesitamos conocer la derivada de la función que se va a aproximar
1990) desarrolló su trabajo y esto con frecuencia no está disponible.
sobre splines durante la Segunda El resto de esta sección considera que la aproximación usa polinomios por tramos que
Guerra Mundial mientras estaba
de licencia en la Universidad de
Pennsylvania para trabajar en intervalo en el que la función se aproxima.
El tipo más simple de función polinomial por tramos diferenciable en un intervalo com-
Laboratory (Laboratorio de x0, x1] es la función obtenida al ajustar un polinomio cuadrático entre cada par su-
Ejército) en Aberdeen, Maryland.
x0, x1] que concuerda con la
Su trabajo original implicaba función en x0 y x1, x1, x2] que concuerda con la función en x1 y x2, y así
procedimientos numéricos sucesivamente. Un polinomio cuadrático general tiene tres constantes arbitrarias: el término
para resolver ecuaciones x x2, y sólo se requieren dos condiciones para
diferenciales. La aplicación
mucho más amplia de los splines
en las áreas de ajuste de datos permite seleccionar las cuadráticas de tal forma que el interpolante tenga una derivada conti-
y diseño de geometría asistida x0, xn
por computador se volvieron sobre la derivada del interpolante en los extremos x0 y xn
evidentes con la disponibilidad
generalizada de las computadoras
constantes para garantizar que las condiciones se satisfagan (consulte el ejercicio 34).
en la década de 1960.
Splines cúbicos
La raíz de la palabra “spline”
es la misma que la de “splint”.
Originalmente, era una tira
La aproximación polinomial por tramos más común usa polinomios cúbicos entre cada par
pequeña de madera que se puede sucesivo de nodos y recibe el nombre de interpolación de spline cúbico. Un polinomio
utilizar para unir dos tablas. Más -
adelante, la palabra se usó para dimiento de spline cúbico para garantizar que el interpolante no sólo es continuamente dife-
dibujar curvas suaves y continuas
al forzar que la tira pasara a
renciable en el intervalo, sino también tiene una segunda derivada continua. Sin embargo, la
construcción del spline cúbico no supone que las derivadas del interpolante concuerdan con
siguiera a lo largo de la curva.
Figura 3.8
S(x)
S n22
S n21
S1 Sj
S j11
S0
S j (x j11) 5 f (x j11) 5 S j11(x j11)
S 9j (x j11) 5 S9j11(x j11)
S j0(x j11) 5 S j11
0 (x j11)
Definición 3.10 Dada una función f a, b] y un conjunto de nodos a = x0 < x1 < · · · < xn = b,
un interpolante de spline cúbico S para f es una función que satisface las siguientes condi-
ciones:
-
nes de frontera libres, el spline recibe el nombre de spline natural
Figura 3.9 datos {(x0 , f (x0 )), (x1 , f (x1 )), . . . , (xn , f (xn ))}.
En general, las condiciones de frontera condicionada conducen a aproximaciones más
precisas porque incluyen más información sobre la función. Sin embargo, para mantener
este tipo de condición de frontera, es necesario tener, ya sea los valores de la derivada en los
extremos o una aproximación precisa para esos valores.
Ejemplo 1 Construya un spline cúbico natural que pase por los puntos (1, 2), (2, 3) y (3, 5).
Solución
denota
Existen ocho constantes que se van a determinar y esto requiere ocho condiciones. Cuatro
condiciones a partir del hecho de que los splines deben concordar con los datos en los nodos.
Por lo tanto,
S j (x) = a j + b j (x − x j ) + c j (x − x j )2 + d j (x − x j )3 ,
S j (x) = b j + 2c j (x − x j ) + 3d j (x − x j )2
implica que S j (x j ) = b j , para cada j 5 0, 1, …, n 2 1. Al aplicar la condición en la parte
d) obtenemos
b j+1 = b j + 2c j h j + 3d j h 2j , (3.16)
para cada j 5 0, 1, , n 2 1.
Sj cn 5 S0(xn)/2 y aplicar la
condición en la parte e). Entonces, para cada j 5 0, 1, , n 2 1,
c j+1 = c j + 3d j h j . (3.17)
Resolviendo para dj en la ecuación (3.17) y sustituyendo este valor en las ecuaciones
(3.15) y (3.16) obtenemos, para cada j 5 0, 1, , n 2 1, las nuevas ecuaciones
h 2j
a j+1 = a j + b j h j + (2c j + c j+1 ) (3.18)
3
1 hj
bj = (a j+1 − a j ) − (2c j + c j+1 ), (3.20)
hj 3
3.5 Interpolación de spline cúbico 109
y entonces, con una reducción del índice, para bj21. Esto nos da
1 h j−1
b j−1 = (a j − a j−1 ) − (2c j−1 + c j ).
h j−1 3
Al sustituir estos valores en la ecuación obtenida de la ecuación (3.19), con el índice reduci-
do en uno, obtenemos el sistema lineal de ecuaciones
3 3
h j−1 c j−1 + 2(h j−1 + h j )c j + h j c j+1 = (a j+1 − a j ) − (a j − a j−1 ), (3.21)
hj h j−1
Para cada j = 1, 2, …, n – 1. Este sistema sólo tiene los {c j }nj=0 como incógnitas. Los valores
n
j=0 y {a j } j=0 están dados, respectivamente, por el espaciado de los nodos {x j } j=0 y
de {h j }n−1 n
los valores de f en los nodos. Por lo que, una vez que se determinan los valores de {c j }nj=0, es
sencillo encontrar el resto de las constantes {b j }n−1 n−1
j=0 a partir de la ecuación (3.20) y {d j } j=0 a
j=0 .
partir de la ecuación (3.17). Entonces podemos construir los polinomios cúbicos {S j (x)}n−1
La pregunta más importante que surge en relación con esta construcción es si los valores
de {c j }nj=0 se pueden encontrar usando el sistema de ecuaciones dado en la ecuación (3.21) y,
en este caso, si estos valores son únicos. Los siguientes teoremas indican que éste es el caso
-
ción. Las demostraciones de estos teoremas requieren material a partir del álgebra lineal, la
cual se analiza en el capítulo 6.
Splines naturales
Teorema 3.11 Si f a = x0 < x1 < · · · < xn = b, entonces f tiene un spline natural único
que interpola S en los nodos x0 , x1 , . . . , xn; es decir, un spline interpolante que satisface las
condiciones de frontera natural S (a) = 0 y S (b) = 0.
Demostración Las condiciones de frontera en este caso implican que cn = S (xn )/2 = 0
y que
por lo que c0 5 0. Las dos ecuaciones c0 5 0 y cn 5 0 junto con las ecuaciones en (3.21)
producen un sistema lineal descrito por la ecuación matriz-vector Ax = b, donde A es la
matriz (n 1 1) 3 (n 1 1)
1 0 0 . .. .. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0.
.... ..
.... ..
h 0 2(h 0 + h 1 ) ....
h1 .... ..
....
. .... .
..
. . . . h 1 . . . . . . . 2(h 1 .+. . h. .2.). h 2 . . . . . . .
0. . . .
....
A= .
.. .... . .... .... . . . .
.... ....... .... .... ,
. ... .... 0
.. .... .... ...
. .
. . . .... .
.. 2(h
.... h n−2 n−2 + h n−1 ) h n−1
. ..
0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . 0. 0 1
110 CAPÍTULO 3 Interpolación y aproximación polinomial
0
3 3
h1 2
(a − a1 ) − − a0 )
h0 1
(a c0
c1
b= y x = . .
..
3 .
..
3
h n−1 (an − an−1 ) − h n−2 (an−1 − an−2 )
cn
0
La matriz A
magnitud de la entrada diagonal excede la suma de las magnitudes de todas las otras entradas
La solución para el problema del spline cúbico con las condiciones de frontera S (x0 ) =
S (xn ) = 0 se puede obtener al aplicar el algoritmo 3.4.
Ejemplo 2 Al inicio del capítulo 3, proporcionamos algunos polinomios de Taylor para aproximar la ex-
ponencial f (x) = e x. Use los puntos (0, 1), (1, e), (2, e2 ), y (3, e3 ) para formar un spline
natural S(x) que se aproxima a f (x) = e x .
1 0 0 0 0 c0
1 4 1 0 3(e2 − 2e + 1) c1
A= , b= 3 , y x=
0 1 4 1 3(e − 2e2 + e)
.
c2
0 0 0 1 0 c3
c0 = 0,
c0 + 4c1 + c2 = 3(e2 − 2e + 1),
c1 + 4c2 + c3 = 3(e3 − 2e2 + e),
c3 = 0.
1 h0
b0 = (a1 − a0 ) − (c1 + 2c0 )
h0 3
1
= (e − 1) − (−e3 + 6e2 − 9e + 4) ≈ 1.46600,
15
1 h1
b1 = (a2 − a1 ) − (c2 + 2c1 )
h1 3
1
= (e2 − e) − (2e3 + 3e2 − 12e + 7) ≈ 2.22285,
15
1 h2
b2 = (a3 − a2 ) − (c3 + 2c2 )
h2 3
1
= (e3 − e2 ) − (8e3 − 18e2 + 12e − 2) ≈ 8.80977,
15
1 1
d0 = (c1 − c0 ) = (−e3 + 6e2 − 9e + 4) ≈ 0.25228,
3h 0 15
1 1
d1 = (c2 − c1 ) = (e3 − 3e2 + 3e − 1) ≈ 1.69107,
3h 1 3
y
1 1
d2 = (c3 − c1 ) = (−4e3 + 9e2 − 6e + 1) ≈ −1.94336.
3h 2 15
112 CAPÍTULO 3 Interpolación y aproximación polinomial
El spline y f (x) 5 ex
Figura 3.10
y
e3
y = S(x)
y = ex
e2
e
1
1 2 3 x
Una vez que hemos determinado un spline para una aproximación de una función, pode-
mos usarlo para aproximar otras propiedades de la función. La siguiente ilustración implica
la integral del spline que encontramos en el ejemplo previo.
Ilustración Para aproximar la integral de f (x) = e x en [0, 3], que tiene el valor
3
e x d x = e3 − 1 ≈ 20.08553692 − 1 = 19.08553692,
0
podemos integrar por tramos el spline que aproxima f en este intervalo. Esto nos da
3 1
S(x) = 1 + 1.46600x + 0.25228x 3 d x
0 0
2
+ 2.71828 + 2.22285(x − 1) + 0.75685(x − 1)2 + 1.69107(x − 1)3 d x
1
3
+ 7.38906 + 8.80977(x − 2) + 5.83007(x − 2)2 − 1.94336(x − 2)3 d x.
2
3.5 Interpolación de spline cúbico 113
2
(x−1)2 (x−1)3 (x−1)4
+ 2.71828(x−1) + 2.22285 + 0.75685 + 1.69107
2 3 4 1
3
(x−2)2 (x−2)3 (x−2)4
+ 7.38906(x−2) + 8.80977 + 5.83007 − 1.94336
2 3 4 2
1
= (1 + 2.71828 + 7.38906) + (1.46600 + 2.22285 + 8.80977)
2
1 1
+ (0.75685 + 5.83007) + (0.25228 + 1.69107 − 1.94336)
3 4
= 19.55229.
Puesto que los nodos están espaciados de manera equivalente en este ejemplo, la aproxima-
ción de la integral es simplemente
3
1 1 1
S(x) d x = (a0 + a1 + a2 ) + (b0 + b1 + b2 ) + (c0 + c1 + c2 ) + (d0 + d1 + d2 ).
0 2 3 4
(3.22)
Splines condicionados
Ejemplo 3 En el ejemplo 1 encontramos un spline natural S que pasa por los puntos (1, 2), (2, 3) y (3, 5).
Construir un spline condicionado s que pase por esos puntos y que cumpla s (1) = 2 y
s (3) = 1.
Solución Si
Entonces, la mayoría de las condiciones para determinar ocho constantes son iguales a las
del ejemplo 1. Es decir,
Demostración Puesto que f (a) = S (a) = S (x0 ) = b0, la ecuación (3.20) con j 5 0 impli-
ca que
1 h0
f (a) = (a1 − a0 ) − (2c0 + c1 ).
h0 3
Por consiguiente,
3
2h 0 c0 + h 0 c1 = (a1 − a0 ) − 3 f (a).
h0
De igual forma,
an − an−1 h n−1
f (b) = − (2cn−1 + cn ) + h n−1 (cn−1 + cn )
h n−1 3
an − an−1 h n−1
= + (cn−1 + 2cn ),
h n−1 3
y
3
h n−1 cn−1 + 2h n−1 cn = 3 f (b) − (an − an−1 ).
h n−1
3
2h 0 c0 + h 0 c1 = (a1 − a0 ) − 3 f (a)
h0
y
3
h n−1 cn−1 + 2h n−1 cn = 3 f (b) − (an − an−1 )
h n−1
3.5 Interpolación de spline cúbico 115
2h 0 0 . .. .. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0.
h0
.... ..
.... ..
h 0 2(h 0 + h 1 ) ....
h1 .... ..
....
0. . . . . .... ..
h 1 . . . . 2(h 1 .+. . h 2 ) h2 . . . .
.
. . . . . . . . . . . ...
A = . . .... .... .... ....
.
. . . .... . . .... . .... . . .... ,
0
. . . . . .
. . .... .... ... ....
.... .. ...
. ....
.. 2(h
.... h n−2 n−2 + h n−1 ) h n−1
. ..
0 ................................ 0 2h n−1
h n−1
3
(a − a0 ) − 3 f (a)
h0 1
3
(a − a1 ) − h3 (a1 − a0 ) c0
h1 2
0
c1
b = , y x = .. .
..
. .
3 3
h n−1 (an − an−1 ) − h n−2 (an−1 − an−2 )
cn
3 f (b) − h 3 (an − an−1 )
n−1
Esta matriz A también es estrictamente dominante de manera diagonal, por lo que satis-
face las condiciones del teorema 6.21 en la sección 6.6. Por lo tanto, el sistema lineal tiene
una solución única para c0 , c1 , . . . , cn .
La solución del problema de spline cúbico con condiciones de frontera S (x0 ) = f (x0 )
y S (xn ) = f (xn ) se puede obtener al aplicar el algoritmo 3.5.
Ejemplo 4 En el ejemplo 2 se usó un spline natural y los puntos de datos (0, 1), (1, e), (2, e2) y (3, e3)
para formar una nueva función de aproximación S(x). Determine el spline condicionado s(x)
que utiliza estos datos y la información adicional, f (x) = e x , f (0) = 1 y f (3) = e3 .
0 0 1 2 3e2 c3
1
c0 = (2e3 − 12e2 + 42e − 59) = 0.44468,
15
1
c1 = (−4e3 + 24e2 − 39e + 28) = 1.26548,
15
1
c2 = (14e3 − 39e2 + 24e − 8) = 3.35087,
15
1
c3 = (−7e3 + 42e2 − 12e + 4) = 9.40815.
15
Al resolver para las constantes restantes de la misma manera que en el ejemplo 2 obtenemos
Puesto que los datos están igualmente espaciados, integrar por tramos el spline condicionado
resulta en la misma fórmula que en (3.22); es decir,
3
1
s(x) d x = (a0 + a1 + a2 ) + (b0 + b1 + b2 )
0 2
1 1
+ (c0 + c1 + c2 ) + (d0 + d1 + d2 ).
3 4
Por lo tanto, la aproximación de integral es
3
1
s(x) d x = (1 + 2.71828 + 7.38906) + (1 + 2.71016 + 7.32652)
0 2
1 1
+ (0.44468 + 1.26548 + 3.35087) + (0.27360 + 0.69513 + 2.01909)
3 4
= 19.05965.
El error absoluto en la aproximación integral usando los splines naturales y condicionados es
La siguiente ilustración usa un spline para aproximar una curva que no tiene una repre-
sentación funcional.
Ilustración
hemos seleccionado puntos a lo largo de la curva por los cuales queremos que pase la curva
de aproximación. La tabla 3.18 enumera las coordenadas de 21 puntos de datos relativos al
más puntos cuando la curva cambia rápidamente que cuando lo hace más despacio.
118 CAPÍTULO 3 Interpolación y aproximación polinomial
Figura 3.11
Tabla 3.18
x 0.9 1.3 1.9 2.1 2.6 3.0 3.9 4.4 4.7 5.0 6.0 7.0 8.0 9.2 10.5 11.3 11.6 12.0 12.6 13.0 13.3
f (x) 1.3 1.5 1.85 2.1 2.6 2.7 2.4 2.15 2.05 2.1 2.25 2.3 2.25 1.95 1.4 0.9 0.7 0.6 0.5 0.4 0.25
Figura 3.12
f (x)
4
3
2
1
1 2 3 4 5 6 7 8 9 10 11 12 13 x
El uso del algoritmo 3.4 para generar el spline cúbico natural para estos datos produce
3.5 Interpolación de spline cúbico 119
Tabla 3.19 j xj aj bj cj dj
0 0.9 1.3 0.54 0.00 −0.25
1 1.3 1.5 0.42 −0.30 0.95
2 1.9 1.85 1.09 1.41 −2.96
3 2.1 2.1 1.29 −0.37 −0.45
4 2.6 2.6 0.59 −1.04 0.45
5 3.0 2.7 −0.02 −0.50 0.17
6 3.9 2.4 −0.50 −0.03 0.08
7 4.4 2.15 −0.48 0.08 1.31
8 4.7 2.05 −0.07 1.27 −1.58
9 5.0 2.1 0.26 −0.16 0.04
10 6.0 2.25 0.08 −0.03 0.00
11 7.0 2.3 0.01 −0.04 −0.02
12 8.0 2.25 −0.14 −0.11 0.02
13 9.2 1.95 −0.34 −0.05 −0.01
14 10.5 1.4 −0.53 −0.10 −0.02
15 11.3 0.9 −0.73 −0.15 1.21
16 11.6 0.7 −0.49 0.94 −0.84
17 12.0 0.6 −0.14 −0.06 0.04
18 12.6 0.5 −0.18 0.00 −0.45
19 13.0 0.4 −0.39 −0.54 0.60
20 13.3 0.25
Figura 3.13
f (x)
4
3
2
1
1 2 3 4 5 6 7 8 9 10 11 12 13 x
que se genera con un polinomio de interpolación de Lagrange para ajustar los datos provistos
en la tabla 3.18. En este caso, el polinomio de interpolación es de grado 20 y oscila en forma
desordenada. Produce una ilustración muy extraña de la espalda del pato, en vuelo o de otra
forma.
120 CAPÍTULO 3 Interpolación y aproximación polinomial
Figura 3.14
f (x)
4
3
2
1
1 2 3 4 5 6 7 8 9 10 11 12 x
difícil porque la curva para esta parte no se puede expresar como una función de x, y en cier-
tos puntos la curva no parece ser suave. Estos problemas se pueden resolver usando splines
separados para representar varias partes de la curva, pero en la siguiente sección se considera
En general, al aproximar funciones mediante splines cúbicos son preferibles las condicio-
nes de frontera condicionada, por lo que la derivada de la función debe conocerse o aproxi-
marse en los extremos del intervalo. Cuando los nodos están espaciados uniformemente cerca
de ambos extremos, es posible obtener las aproximaciones con cualquiera de las fórmulas
adecuadas provistas en las secciones 4.1 y 4.2. Cuando los nodos no están espaciados de
manera uniforme, el problema es considerablemente más difícil.
Para concluir esta sección, listamos una fórmula de la cota de error para el spline cúbico
pp. 57–58.
Teorema 3.13 Sea f ∈ C 4 [a, b] con máx a≤x≤b | f (4) (x)| = M . Si S es el único spline cúbico condicionado
interpolante para f respecto a los nodos a = x0 < x1 < · · · < xn = b, entonces, para todas
las x a, b].
5M
| f (x) − S(x)| ≤ máx (x j+1 − x j )4 .
384 0≤ j≤n−1
Un resultado de la cota del error de cuarto orden también se mantiene para el caso de las
función de una variable coordenada en términos de la otra. En esta sección veremos cómo
representar curvas generales al usar un parámetro para expresar tanto las variables x como y.
Figura 3.15
y
1
21 1 x
21
Una técnica paramétrica sencilla para determinar un polinomio o un polinomio por tra-
mos para conectar los puntos (x0 , y0 ), (x1 , y1 ), . . . , (xn , yn ) en el orden provisto consiste en
usar un parámetro t en un intervalo [t0 , tn ], con t0 < t1 < · · · < tn y construir funciones de
aproximación con
xi = x(ti ) y yi = y(ti ), para cada i = 0, 1, . . . , n.
Ejemplo 1 Construya un par de polinomios de Lagrange para aproximar la curva que se muestra en la
Solución
4
{ti }i=0
Tabla 3.20 i 0 1 2 3 4
ti 0 0.25 0.5 0.75 1
xi −1 0 1 0 1
yi 0 1 0.5 0 −1
122 CAPÍTULO 3 Interpolación y aproximación polinomial
3.16. Aunque pasa por los puntos requeridos y tiene la misma forma básica, es una aproxima-
ción bastante burda para la curva original. Una aproximación más precisa requeriría nodos
adicionales, con el consiguiente incremento en computación.
Figura 3.16
y
1
(x(t), y(t))
21 1 x
21
Las curvas paramétrica de Hermite y de spline se pueden generar de forma similar, pero
esto también requiere un gran esfuerzo computacional.
computacionales, cambiar una parte de estas curvas debería tener un efecto pequeño o nin-
gún efecto en otras partes de las curvas. Esto elimina el uso de polinomios de interpolación
y splines ya que cambiar una parte de estas curvas afecta su totalidad.
Un sistema de diseño
computacional exitoso necesita
estar basado en una teoría forma de polinomio Hermite cúbico por tramos. Cada parte de un polinomio de Hermite
matemática formal, de tal -
manera que los resultados sean mos. Por consiguiente, una parte de la curva se puede cambiar mientras la mayor parte de
predecibles, pero esta teoría
debería realizarse en segundo la misma se deja igual. Só
plano para que el artista pueda suavidad en los extremos. Los cálculos se pueden realizar rápidamente y es posible cambiar
basar el diseño en la estética. una sección de la curva a la vez.
en los extremos de cada sección de la curva. Suponga que la curva tiene n 1 1 puntos de datos
(x(t0 ), y(t0 )), . . . ,(x(tn ), y(tn )) y deseamos parametrizar el cúbico para permitir caracterís-
x (ti ) y y (ti ), para cada i 5 0, 1, , n. Esto
no es tan difícil como parece ya que cada parte se genera de manera independiente. Sólo de-
bemos garantizar que las derivadas en los extremos de cada parte coincidan con los de la par-
dy y (0) dy y (1)
(t = 0) = y (t = 1) = .
dx x (0) dx x (1)
Al multiplicar x9(0) y y9(0) por un factor de escala común, la recta tangente para la curva
en (x(0), y(0)) permanece igual, pero la forma de la curva varía. Mientras más grande sea el
factor de escala, más cerca está la curva de aproximación a la recta tangente en las cercanías
de (x(0), y(0)) . Existe una situación similar en el otro extremo (x(1), y(1)).
es
Figura 3.17
(x 0 1 a 0, y0 1 b0)
(x1 2 a 1, y1 2 b1)
(x 0, y 0)
(x1, y1)
x
124 CAPÍTULO 3 Interpolación y aproximación polinomial
Ejemplo 2
y
cuando los extremos son (x0 , y0 ) = (0, 0) y (x1 , y1 ) = (1, 0) y los puntos guía respectivos,
Puntos guía
(0, 1) (1, 1)
Solución La información del extremo implica que x0 = 0, x1 = 1, y0 = 0, y y1 = 0, y los
puntos guía (1, 1) y (0, 1) implican que α0 = 1, α1 = 1, β0 = 1, y β1 = −1. Observe que las
pendientes de las rectas guía en (0, 0) y (1, 0) son, respectivamente,
Nodos
(0, 0) (1, 1) x β0 1 β1 −1
= =1 y = = −1.
α0 1 α1 1
Figura 3.18
Las ecuaciones (3.23) y (3.24) implican que para t ∈ [0, 1], tenemos
1999) fue director de diseño y
producción de los automóviles x(t) =[2(0 − 1) + (1 + 1)]t 3 + [3(0 − 0) − (1 + 2 · 1)]t 2 + 1 · t + 0 = t
Renault durante la mayor
parte de su vida profesional.
Comenzó su investigación en
y
diseño y fabricación asistidos
por computadora en 1960, y(t) =[2(0 − 0) + (1 + (−1))]t 3 + [3(0 − 0) − (−1 + 2 · 1)]t 2 + 1 · t + 0 = −t 2 + t.
desarrollando herramientas
interactivas para el diseño de
de curvas producidas por las ecuaciones (3.23) y (3.24) cuando los nodos son (0, 0) y (1, 0)
el bobinado generado por
computadora para modelado
y las pendientes de estos nodos son 1 y 21, respectivamente.
de automóviles. Las curvas de
tienen la ventaja de estar basadas es utilizar primero un mouse (o ratón) o touchpad (panel táctil) y establecer los nodos y
en una teoría matemática
rigurosa que no necesita ser
los puntos guía para generar una primera aproximación a la curva. Esto se puede hacer de
reconocida explícitamente por
el practicante, quien sólo quiere para trazar la curva en una pantalla a mano alzada y seleccionar los nodos y puntos guía
adecuados para su curva a mano alzada.
agradable desde el punto de vista
estético. Éstas son las curvas que
A continuación, los nodos y los puntos guía se pueden manipular en una posición que
son la base del poderoso sistema genera una curva agradable desde el punto de vista estético. Puesto que los cálculos son
Adobe Postscript y producen mínimos, la curva se puede determinar tan rápido que el cambio resultante se aprecia de
curvas a mano alzada generadas inmediato. Además, todos los datos necesarios para calcular las curvas están incorporados
en la mayoría de los paquetes
en las coordenadas de los nodos y puntos guía, por lo que no se requiere que el usuario tenga
conocimiento analítico.
Figura 3.19
y y
(1, 1)
1 (0, 1) (1, 1) 1
(0.75, 0.25)
1 2 x 1 2 x
a) b)
3.6 Curvas paramétricas 125
Figura 3.19
y y
(2, 2)
2 2
1 1
1
(0.5, 0.5)
1 2 x 2 x
21 21
(2, 21) (2, 21)
c) d)
-
criben como polinomios de Bézier, los cuales incluyen un factor de escala de tres al calcular
x(t) = [2(x0 − x1 ) + 3(α0 + α1 )]t 3 + [3(x1 − x0 ) − 3(α1 + 2α0 )]t 2 + 3α0 t + x0 (3.25)
y(t) = [2(y0 − y1 ) + 3(β0 + β1 )]t 3 + [3(y1 − y0 ) − 3(β1 + 2β0 )]t 2 + 3β0 t + y0 , (3.26)
para 0 ≤ t ≤ 1, pero este cambio es transparente para el usuario del sistema.
(xi (t), yi (t)) = (a0(i) + a1(i) t + a2(i) t 2 + a3(i) t 3 , b0(i) + b1(i) t + b2(i) t 2 + b3(i) t 3 ),
terceros componentes z0 y z1 para los nodos y z 0 +γ0 y z 1 −γ1 para los puntos guía. El proble-
ma más difícil que implica la representación de las curvas tridimensionales se preocupa por
la pérdida de la tercera dimensión cuando la curva se proyecta en una pantalla bidimensional
de computadora. Se utilizan varias técnicas de proyección, pero este tema se encuentra den-
-
para un conjunto discreto de puntos de datos y existen diferentes rutinas para evaluar los
polinomios por tramos de Hermite.
Las secciones Preguntas de análisis, Conceptos clave y Revisión del capítulo están dis-
ponibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
CAPÍTULO
Introducción
Una hoja de tejado corrugado se construye al presionar una hoja plana de aluminio dentro de
otra cuya sección transversal tiene la forma de una onda senoidal.
Se necesita una hoja corrugada de 4 pies de largo, la altura de cada onda es de 1 pulgada
desde la línea central y cada onda tiene un periodo de aproximadamente 2π. El problema de
encontrar la longitud de la hoja plana inicial consiste en encontrar la longitud de la curva de-
terminada por f (x) 5 sen x desde x 5 0 pulgadas hasta x 5 48 pulgadas. A partir del cálculo,
sabemos que esta longitud es
48 48
L= 1 + ( f (x))2 d x = 1 + (cos x)2 d x,
0 0
por lo que el problema se reduce a evaluar esta integral. A pesar de que la función senoidal
es una de las funciones matemáticas más comunes, el cálculo de su longitud implica una
integral elíptica de segunda clase, que no se puede evaluar de manera explícita. En este ca-
pítulo se desarrollan métodos para aproximar la solución a los problemas de este tipo. Este
problema particular se considera en el ejercicio 21 de la sección 4.4, en el ejercicio 15 de la
sección 4.5 y en el ejercicio 10 de la sección 4.7.
En la introducción del capítulo 3 mencionamos que una razón para usar polinomios
algebraicos para aproximar un conjunto arbitrario de datos es que, dada cualquier función
-
te cerca de la función en cada punto del intervalo. Además, las derivadas y las integrales de
los polinomios se obtienen y evalúan con facilidad. No debería sorprender, entonces, que
muchos procedimientos para aproximar derivadas e integrales utilicen los polinomios
que aproximan la función.
127
128 CAPÍTULO 4 Diferenciación numérica e integración
f (x0 + h) − f (x0 )
f (x0 ) = lím .
h→0 h
Esta fórmula proporciona una forma obvia de generar una aproximación para f (x0 ); sim-
plemente calcule
f (x0 + h) − f (x0 )
h
para valores pequeños de h. Aunque esto puede ser obvio, no tiene mucho éxito debido a
nuestro antiguo némesis, el error de redondeo. Sin embargo, es un lugar para empezar.
Para aproximar f (x0 ), suponga primero que x0 ∈ (a, b), donde f ∈ C 2 [a, b], y
que x1 = x0 +h para alguna h = 0
x1 ∈ [a, b]. Nosotros construimos el primer polinomio de Lagrange P0,1 (x) para f determi-
nado por x0 y x1, con su término de error:
(x − x0 )(x − x1 )
f (x) = P0,1 (x) + f (ξ(x))
2!
f (x0 )(x − x0 − h) f (x0 + h)(x − x0 ) (x − x0 )(x − x0 − h)
= + + f (ξ(x)),
−h h 2
f (x0 + h) − f (x0 )
f (x) ≈ .
h
Dx f (ξ(x)), por lo
Isaac Newton usó y popularizó que el error de truncamiento no se puede calcular. Cuando x es x0
las ecuaciones de diferencias de Dx f (ξ(x))
en el último cuarto del siglo
XVII, pero muchas de estas
f (x0 + h) − f (x0 ) h
técnicas fueron desarrolladas f (x0 ) = − f (ξ ). (4.1)
previamente por Thomas Harriot h 2
(1561–1621) y Henry Briggs
(1561–1630). Harriot realizó Para los valores pequeños de h, el cociente de diferencia [ f (x0 + h) − f (x0 )]/ h se
puede utilizar para aproximar f (x0 ) con un error acotado por M|h|/2, donde M es una cota
de navegación y Briggs fue la
persona más responsable de
de | f (x)| para x entre x0 y x0 + h. A esta fórmula se le conoce como fórmula de diferencias
la aceptación de logaritmos como hacia adelante si h > fórmula de diferencias hacia atrás
auxiliares para el cálculo. si h < 0.
4.1 Diferenciación numérica 129
Figura 4.1
y
Pendiente f 9(x 0)
f (x0 1 h) 2 f (x 0)
Pendiente
h
x0 x0 1 h x
Ejemplo 1 Use la fórmula de diferencias hacia adelante para aproximar la derivada de f (x) = ln x
en x0 = 1.8 mediante h = 0.1, h = 0.05, y h = 0.01 y determine las cotas para los errores
de aproximación.
f (1.8 + h) − f (1.8)
h
con h = 0.1 nos da
ln 1.9 − ln 1.8 0.64185389 − 0.58778667
= = 0.5406722.
0.1 0.1
Puesto que f (x) = −1/x 2 y 1.8 < ξ < 1.9, una cota para este error de aproximación es
|h f (ξ )| |h| 0.1
= 2 < = 0.0154321.
2 2ξ 2(1.8)2
Puesto que f (x) = 1/x , el valor exacto de f (1.8) es 0.555, y en este caso la cota del
error está bastante cerca del verdadero error de aproximación.
De igual forma,
2x − x0 − x2 2x − x0 − x1
L 1 (x) = y L 2 (x) = .
(x1 − x0 )(x1 − x2 ) (x2 − x0 )(x2 − x1 )
para cada j 5 0, 1, 2, donde la notación ξ j indica que este punto depende de xj.
y, para x j = x2 ,
1 1 3 h 2 (3)
f (x2 ) = f (x0 ) − 2 f (x1 ) + f (x2 ) + f (ξ2 ).
h 2 2 3
1 3 1 h 2 (3)
f (x0 ) = − f (x0 ) + 2 f (x0 + h) − f (x0 + 2h) + f (ξ0 ),
h 2 2 3
1 1 1 h 2 (3)
f (x0 + h) = − f (x0 ) + f (x0 + 2h) − f (ξ1 ), y
h 2 2 6
1 1 3 h 2 (3)
f (x0 + 2h) = f (x0 ) − 2 f (x0 + h) + f (x0 + 2h) + f (ξ2 ).
h 2 2 3
1 h 2 (3)
f (x0 ) = [−3 f (x0 ) + 4 f (x0 + h) − f (x0 + 2h)] + f (ξ0 ),
2h 3
1 h 2 (3)
f (x0 ) = [− f (x0 − h) + f (x0 + h)] − f (ξ1 ), y
2h 6
1 h 2 (3)
f (x0 ) = [ f (x0 − 2h) − 4 f (x0 − h) + 3 f (x0 )] + f (ξ2 ).
2h 3
Finalmente, observe que la última de estas ecuaciones se puede obtener a partir de la primera
simplemente al reemplazar h por 2h, de modo que en realidad sólo son dos fórmulas:
A pesar de que los errores en las dos ecuaciones (4.4) y (4.5) son O(h2), el error en la
ecuación (4.5) es aproximadamente la mitad del error en la ecuación (4.4). Esto porque
la ecuación (4.5) utiliza datos en ambos lados de x0 y la ecuación (4.4) los usa en un solo
lado. También observe que f se debe evaluar solamente en dos puntos en la ecuación (4.5),
-
ximación producida a partir de la ecuación (4.5). La aproximación en la ecuación (4.4) es
útil cerca de los extremos de un intervalo porque la información sobre f fuera del intervalo
puede no estar disponible.
132 CAPÍTULO 4 Diferenciación numérica e integración
Figura 4.2
y
Pendiente f 9(x 0)
1
Pendiente [ f (x0 1 h) 2 f (x 0 2 h)]
2h
x0 2 h x0 x0 1 h x
La deducción de esta fórmula se considera en la sección 4.2. La otra fórmula de cinco puntos
se usa para aproximaciones en los extremos.
Las aproximaciones del extremo izquierdo se encuentran mediante esta fórmula con h > 0
y las aproximaciones del extremo derecho con h < 0. La fórmula del extremo de cinco puntos
es especialmente útil para la interpolación de spline cúbico condicionado de la sección 3.5.
Ejemplo 2 Los valores para f (x) = xe x se dan en la tabla 4.2. Utilice las fórmulas aplicables de tres y
cinco puntos para aproximar f (2.0).
4.1 Diferenciación numérica 133
Solución Los datos en la tabla nos permiten encontrar cuatro diferentes aproximaciones de
Tabla 4.2
tres puntos. Podemos usar la fórmula del extremo (4.4) con h 5 0.1 o con h 5 20.1, y la
x f (x) fórmula del punto medio (4.5) con h 5 0.1 o con h 5 0.2.
1.8 10.889365 Mediante la fórmula del extremo (4.4) con h 5 0.1 obtenemos
1.9 12.703199
2.0 14.778112 1
[−3 f (2.0) + 4 f (2.1) − f (2.2] = 5[−3(14.778112) + 4(17.148957) − 19.855030)]
2.1 17.148957 0.2
2.2 19.855030 = 22.032310
1
[ f (2.1) − f (1.9] = 5(17.148957 − 12.7703199) = 22.228790
0.2
1 1
[ f (1.8) − 8 f (1.9) + 8 f (2.1) − f (2.2)] = [10.889365 − 8(12.703199)
1.2 1.2
+ 8(17.148957) − 19.855030]
= 22.166999.
Los métodos también se pueden deducir para encontrar aproximaciones para derivadas
superiores de una función que sólo usa valores tabulados de la función en diferentes puntos.
La deducción es algebraicamente tediosa, sin embargo, sólo se presentará un procedimiento
representativo.
Represente una función f mediante la expansión de un tercer polinomio de Taylor sobre
un punto x0 y evalúe x0 + h y x0 2 h. Entonces,
1 1 1 (4)
f (x0 + h) = f (x0 ) + f (x0 )h + f (x0 )h 2 + f (x0 )h 3 + f (ξ1 )h 4
2 6 24
y
1 1 1 (4)
f (x0 − h) = f (x0 ) − f (x0 )h + f (x0 )h 2 − f (x0 )h 3 + f (ξ−1 )h 4 ,
2 6 24
donde x0 − h < ξ−1 < x0 < ξ1 < x0 + h.
134 CAPÍTULO 4 Diferenciación numérica e integración
1 (4)
f (x0 + h) + f (x0 − h) = 2 f (x0 ) + f (x0 )h 2 + [ f (ξ1 ) + f (4) (ξ−1 )]h 4 .
24
1 h2
f (x0 ) = [ f (x0 − h) − 2 f (x0 ) + f (x0 + h)] − [ f (4) (ξ1 ) + f (4) (ξ−1 )]. (4.8)
h 2 24
Suponga que f (4) es continua en [x0 2 h, x0 1 h]. Puesto que 12 [ f (4) (ξ1 ) + f (4) (ξ−1 )] se
encuentra entre f (4) (ξ1 ) y f (4) (ξ−1 ), el teorema de valor intermedio implica que existe un
número j entre ξ1 y ξ−1 y, por lo tanto, en (x0 − h, x0 + h) con
1 (4)
f (4) (ξ ) = f (ξ1 ) + f (4) (ξ−1 ) .
2
Ejemplo 3 En el ejemplo 2 utilizamos los datos que se muestran en la tabla 4.3 para aproximar la pri-
mera derivada de f (x) 5 xex en x 5 2.0. Use la fórmula de la segunda derivada (4.9) para
Tabla 4.3 aproximar f 0(2.0).
x f (x)
Solución Los datos nos permiten determinar dos aproximaciones para f 0(2.0). Usando (4.9)
1.8 10.889365 con h 5 0.1 obtenemos
1.9 12.703199
2.0 14.778112 1
2.1 17.148957
[ f (1.9) − 2 f (2.0) + f (2.1)] = 100[12.703199 − 2(14.778112) + 17.148957]
0.01
2.2 19.855030
= 29.593200,
1
[ f (1.8) − 2 f (2.0) + f (2.2)] = 25[10.889365 − 2(14.778112) + 19.855030]
0.04
= 29.704275.
Puesto que f (x) = (x + 2)e x , el valor exacto es f (2.0) = 29.556224. Por lo tanto, los
errores reales son −3.70 × 10−2 y −1.48 × 10−1 , respectivamente.
1 h 2 (3)
f (x0 ) = [ f (x0 + h) − f (x0 − h)] − f (ξ1 ),
2h 6
4.1 Diferenciación numérica 135
Suponga que al evaluar f (x0 + h) y f (x0 − h), encontramos los errores de redondeo
e(x0 + h) y e(x0 − h). Entonces nuestros cálculos en realidad usan los valores f˜(x0 + h) y
f˜(x0 − h), que están relacionados con los valores verdaderos f (x0 1 h) y f (x0 2 h) mediante
se debe tanto al error de redondeo, la primera parte, como al error de truncamiento. Si supo-
nemos que los errores de redondeo e(x0 ± h) están acotados por algún número ε > 0 y que
la tercera derivada de f está acotada por un número M > 0, entonces
f˜(x0 + h) − f˜(x0 − h) ε h2
f (x0 ) − ≤ + M.
2h h 6
Para reducir el error de truncamiento h 2 M/6, necesitamos reducir h. Pero conforme h se re-
duce, el error de redondeo ε/ h crece. En la práctica, entonces, casi nunca es ventajoso dejar
que h sea demasiado pequeña, porque en este caso, el error de redondeo dominará los cálculos.
Ilustración Considere utilizar los valores en la tabla 4.4. Para aproximar f (0.900), donde f (x) = sen x.
. El verdadero valor es cos 0.900 5 0.62161. La fórmula
f (0.900 + h) − f (0.900 − h)
f (0.900) ≈ ,
2h
con diferentes valores de h, proporciona las aproximaciones en la tabla 4.5.
La mejor opción para h parece encontrarse entre 0.005 y 0.05. Podemos utilizar el cálcu-
ε h2
e(h) = + M,
h 6
√
en h = 3
3ε/M, donde
Puesto que los valores de f están determinados para cinco lugares decimales, supondremos
que el error de redondeo está limitado por ε = 5 × 10−6. Por lo tanto, la mejor opción de h
es aproximadamente
3 3(0.000005)
h= ≈ 0.028,
0.69671
que es consistente con los resultados en la tabla 4.6.
136 CAPÍTULO 4 Diferenciación numérica e integración
Sólo hemos considerado los problemas de error de redondeo presentados por la fór-
Tome en cuenta que las Al igual que los métodos de aproximación, la diferenciación numérica es inestable ya
aproximaciones por método de
que los valores pequeños de h necesarios para reducir el error de truncamiento también
diferencias pueden ser inestables.
causan que el error de redondeo crezca. Esta es la primera clase de métodos inestables que
hemos encontrado y, de ser posible, estas técnicas deberían evitarse. Sin embargo, además
de usarse para propósitos computacionales, las fórmulas son necesarias para aproximar las
soluciones de ecuaciones ordinarias y diferenciales parciales.
escrito por L. F. Richardson y J. A. Gaunt [RG] en 1927, la idea detrás de la técnica es mucho
más antigua. Un artículo interesante respecto a la historia y la aplicación de la extrapolación
se puede encontrar en [Joy].
La extrapolación se puede aplicar siempre que se sepa que una técnica de aproximación
tiene un término de error con un formato predecible, uno que depende de un parámetro, nor-
malmente el tamaño de paso h. Suponga que para cada número h = 0, tenemos una fórmula
N1 (h) que se aproxima a una constante M desconocida y que el error de truncamiento rela-
cionado con la aproximación tiene la forma
M − N1 (h) = K 1 h + K 2 h 2 + K 3 h 3 + · · · ,
Se asume que la fórmula se mantiene para todas las h positivas, por lo que reemplazamos el
parámetro h a la mitad de su valor. A continuación, tenemos una segunda fórmula de apro-
ximación O(h)
h h h2 h3
M = N1 + K1 + K2 + K3 + · · · . (4.11)
2 2 4 8
Restando dos veces la ecuación (4.11) de la ecuación (4.10) se elimina el término relaciona-
do con K1 y nos da
h h h2 h3
M = N1 + N1 − N2 (h) + K 2 − h2 + K3 − h3 + ··· .
2 2 2 4
(4.12)
h h
N2 (h) = N1 + N1 − N1 (h) .
2 2
K 2 2 3K 3 3
M = N2 (h) − h − h − ··· . (4.13)
2 4
Ejemplo 1 En el ejemplo 1 de la sección 4.1, utilizamos el método de diferencias hacia adelante con
h 5 0.1 y h 5 0.05 para encontrar aproximaciones para f (1.8) para f (x) 5 ln(x). Suponga
que esta fórmula tiene error de truncamiento O(h). Use la extrapolación en estos valores para
observar si esto resulta en una mejor aproximación.
Se encontró que los resultados h 5 0.1 y h 5 0.05 son precisos dentro de 1.5 3 1022 y 7.7
3 1023, respectivamente. Puesto que f (1.8) = 1/1.8 = 0.5, el valor extrapolado es preciso
dentro de 2.7 3 1024.
La extrapolación se puede aplicar siempre que el error de truncamiento para una fórmula
tenga la forma
m−1
K j h α j + O(h αm )
j=1
138 CAPÍTULO 4 Diferenciación numérica e integración
para un conjunto de constantes Kj y cuando α1 < α2 < α3 < · · · < αm. Muchas fórmulas
utilizadas en la extrapolación tienen errores de truncamiento que sólo contienen potencias
pares de h, es decir, tienen la forma
M = N1 (h) + K 1 h 2 + K 2 h 4 + K 3 h 6 + · · · . (4.14)
La extrapolación es mucho más efectiva cuando todas las potencias de h están presentes de-
bido a que el proceso de promediar genera resultados con errores O(h 2 ), O(h 4 ), O(h 6 ), . . .,
con esencialmente, ningún incremento en el cálculo, sobre los resultados con errores
O(h), O(h 2 ), O(h 3 ), . . . .
Suponga que la aproximación tiene la forma de la ecuación (4.14). Al reemplazar h con
h / 2 obtenemos la fórmula de aproximación O(h2)
h h2 h4 h6
M = N1 + K1 + K2 + K3 + ··· .
2 4 16 64
Al restar cuatro veces esta ecuación de la ecuación (4.14), se elimina el término h2,
h h4 h6
3M = 4N1 − N1 (h) + K 2 − h4 + K3 − h6 + ··· .
2 4 16
1 h K2 h4 K3 h6
M= 4N1 − N1 (h) + − h4 + − h6 + ··· .
3 2 3 4 3 16
1 h h 1 h
N2 (h) = 4N1 − N1 (h) = N1 + N1 − N1 (h)
3 2 2 3 2
h4 5h 6
M = N2 (h) − K 2 − K3 + ··· . (4.15)
4 16
Ahora reemplace h en la ecuación (4.15) con h/2 para producir una segunda fórmula O(h4)
h h4 5h 6
M = N2 − K2 − K3 − ··· .
2 64 1024
h 15h 6
15M = 16N2 − N2 (h) + K 3 + ··· .
2 64
1 h h6
M= 16N2 − N2 (h) + K 3 + ··· .
15 2 64
1 h h 1 h
N3 (h) = 16N2 − N2 (h) = N2 + N2 − N2 (h) .
15 2 2 15 2
4.2 Extrapolación de Richardson 139
M = N1 (h) + K 1 h 2 + K 2 h 4 + K 3 h 6 + · · · . (4.16)
Ejemplo 2 El teorema de Taylor se puede utilizar para mostrar que la fórmula de diferencias centradas
en la ecuación (4.5) para aproximar f (x0 ) se puede expresar con una fórmula de error:
1 h2 h 4 (5)
f (x0 ) = [ f (x0 + h) − f (x0 − h)] − f (x0 ) − f (x0 ) − · · · .
2h 6 120
Encuentre las aproximaciones de orden O(h2), O(h4), y O(h6) para f 9(2.0) cuando f 5 xex y
h 5 0.2.
Solución Probablemente, las constantes K 1 = − f (x0 )/6, K 2 = − f (5) (x0 )/120, · · · , se-
rán desconocidas, sin embargo, esto no es importante. Sólo necesitamos saber que estas
h2 h 4 (5)
f (x0 ) = N1 (h) − f (x0 ) − f (x0 ) − · · · , (4.17)
6 120
donde
1
N1 (h) = [ f (x0 + h) − f (x0 − h)].
2h
Esto nos da las primeras aproximaciones O(h2)
1
N1 (0.2) = [ f (2.2) − f (1.8)] = 2.5(19.855030 − 10.889365) = 22.414160
0.4
1
N1 (0.1) = [ f (2.1) − f (1.9)] = 5(17.148957 − 12.703199) = 22.228786.
0.2
Al combinarlas para producir la primera aproximación O(h4) obtenemos
1 1
N2 (0.2) = N1 (0.1) + (N1 (0.1) − N1 (0.2)) = 22.228786 + (22.228786 − 22.414160)
3 3
= 22.166995.
4.2 Extrapolación de Richardson 141
1 1
f (x0 − h) = f (x0 ) − f (x0 )h + f (x0 )h 2 − f (x0 )h 3
2 6
1 (4) 1
+ f (x0 )h 4 − f (5) (ξ2 )h 5 , (4.19)
24 120
h3 h 5 (5)
f (x0 + h) − f (x0 − h) = 2h f (x0 ) + f (x0 ) + [ f (ξ1 ) + f (5) (ξ2 )], (4.20)
3 120
lo cual implica que
1 h2 h 4 (5)
f (x0 ) = [ f (x0 + h) − f (x0 − h)] − f (x0 ) − [ f (ξ1 ) + f (5) (ξ2 )].
2h 6 240
Si f (5) es continua en [ x0 − h, x0 + h], el teorema del valor intermedio 1.11 implica que
existe un número ξ̃ en (x0 − h, x0 + h) con
1 (5)
f (5) (ξ̃ ) = f (ξ1 ) + f (5) (ξ2 ) .
2
Como consecuencia, tenemos la aproximación O(h2)
1 h2 h 4 (5)
f (x0 ) = [ f (x0 + h) − f (x0 − h)] − f (x0 ) − f (ξ̃ ). (4.21)
2h 6 120
A pesar de que la aproximación en la ecuación (4.21) es igual a la que se obtuvo en la
fórmula de tres puntos en la ecuación (4.5), ahora, el punto desconocido de evaluación se
presenta en f (5) en lugar de en f -. La extrapolación aprovecha esto al reemplazar primero h
en la ecuación (4.21) con 2h para producir la nueva fórmula
1 4h 2 16h 4 (5)
f (x0 ) = [ f (x0 + 2h) − f (x0 − 2h)] − f (x0 ) − f (ξ̂ ), (4.22)
4h 6 120
donde ξ̂ se encuentra entre x0 − 2h y x0 + 2h.
Al multiplicar la ecuación (4.21) por 4 y restar la ecuación (4.22) produce
2 1
3 f (x0 ) = [ f (x0 + h) − f (x0 − h)] − [ f (x0 + 2h) − f (x0 − 2h)]
h 4h
h 4 (5) 2h 4 (5)
− f (ξ̃ ) + f (ξ̂ ).
30 15
Incluso si f (5) es continua en [x0 − 2h, x0 + 2h], el teorema de valor intermedio 1.11 no
se puede aplicar como lo hicimos para derivar la ecuación (4.21) porque tenemos la diferen-
cia de términos relacionados con f (5). Sin embargo, es posible usar un método alterno para
mostrar que f (5) (ξ̃ ) y f (5) (ξ̂ ) se puede seguir reemplazando con un valor común f (5) (ξ ).
Al suponer esto y dividir entre 3 produce la fórmula del punto medio de cinco puntos la
ecuación (4.6) que observamos en la sección 4.1:
1 h 4 (5)
f (x0 ) = [ f (x0 − 2h) − 8 f (x0 − h) + 8 f (x0 + h) − f (x0 + 2h)] + f (ξ ).
12h 30
Otras fórmulas para las primeras derivadas y las derivadas superiores se pueden deducir
de manera similar. Consulte, por ejemplo, el ejercicio 8.
A lo largo del texto se utiliza la técnica de extrapolación. Las aplicaciones más promi-
nentes se presentan al aproximar las integrales en la sección 4.5 y al determinar soluciones
aproximadas para las ecuaciones diferenciales en la sección 5.8.
142 CAPÍTULO 4 Diferenciación numérica e integración
La regla trapezoidal
b
Para derivar la regla trapezoidal (o regla del trapecio) para aproximar a f (x) d x, sean
x0 = a, x1 = b, h = b − a y utilice el polinomio de Lagrange
(x − x1 ) (x − x 0 )
P1 (x) = f (x0 ) + f (x1 ).
(x0 − x1 ) (x1 − x0 )
4.3 Elementos de integración numérica 143
Entonces
b x1
(x − x1 ) (x − x 0 )
f (x) d x = f (x0 ) + f (x1 ) d x
a x0 (x0 − x1 ) (x1 − x0 )
(4.23)
1 x1
+ f (ξ(x))(x − x0 )(x − x1 ) d x.
2 x0
El producto (x − x0 )(x − x1 ) no cambia de signo en [x0, x1], por lo que el teorema del valor
promedio ponderado para integrales 1.13 se puede aplicar al término de error para obtener,
para algunos j en (x0, x1),
x1 x1
f (ξ(x))(x − x0 )(x − x1 ) d x = f (ξ ) (x − x0 )(x − x1 ) d x
x0 x0
Cuando usamos el término x1
x3 (x1 + x0 ) 2
trapezoidal, nos referimos a
= f (ξ ) − x + x0 x1 x
3 2 x0
al menos dos lados paralelos. El
3
h
es trapezium. Para confundir =− f (ξ ).
más el tema, la palabra europea 6
trapezoidal
de cuatro lados sin ningún lado Por consiguiente, la ecuación (4.23) implica que
igual y la palabra estadounidense
x1
b
(x − x1 )2 (x − x0 )2 h3
trapezium. f (x) d x = f (x0 ) + f (x1 ) − f (ξ )
a 2(x0 − x1 ) 2(x1 − x0 ) x0 12
3
(x1 − x0 ) h
= [ f (x0 ) + f (x1 )] − f (ξ ).
2 12
Regla trapezoidal:
b
h h3
[ f (x0 ) + f (x1 )] −
f (x) d x = f (ξ ).
a 2 12
Esto recibe el nombre de regla trapezoidal porque cuando f es una función con valores
b
positivos, a f (x) d x se aproxima mediante el área de un trapecio, como se muestra en la
Figura 4.3
y
y 5 f (x)
y 5 P1(x)
a 5 x0 x1 5 b x
El término de error para la regla trapezoidal implica f 0, por lo que la regla da el resultado
exacto cuando se aplica a cualquier función cuya segunda derivada es idénticamente cero, es
decir, cualquier polinomio de grado uno o menos.
144 CAPÍTULO 4 Diferenciación numérica e integración
Regla de Simpson
La regla de Simpson resulta de la integración sobre [a, b] del segundo polinomio de
Lagrange con nodos igualmente espaciados x0 = a, x2 = b, y x1 = a + h, en don-
de h = (b − a)/2. (véase
Figura 4.4
y
y 5 f (x)
y 5 P2(x)
a 5 x0 x1 x2 5 b x
Por lo tanto,
b x2
(x − x1 )(x − x2 ) (x − x0 )(x − x2 )
f (x) d x = f (x0 ) + f (x1 )
a x0 (x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 )
(x − x0 )(x − x1 )
+ f (x2 ) d x
(x2 − x0 )(x2 − x1 )
x2
(x − x0 )(x − x1 )(x − x2 ) (3)
+ f (ξ(x)) d x.
x0 6
Al deducir la regla de Simpson de esta forma, sin embargo, da un solo término de error O(h4)
relacionado con f (3). Al aproximar el problema de otra forma, se puede derivar otro término
de orden superior relacionado con f (4).
Para ilustrar este método alternativo, suponga que f se expande en el tercer polinomio de
Taylor alrededor de x1. Entonces, para cada x en [x0, x2], existe un número j(x) en (x0, x2) con
f (x1 ) f (x1 )
f (x) = f (x1 ) + f (x1 )(x − x1 ) + (x − x1 )2 + (x − x1 )3
2 6
f (4) (ξ(x))
+ (x − x1 )4
24
y
x2
f (x1 ) f (x1 )
f (x) d x = f (x1 )(x − x1 ) + (x − x1 )2 + (x − x1 )3
x0 2 6
x2
f (x1 ) 1 x2
+ (x − x1 )4 + f (4) (ξ(x))(x − x1 )4 d x. (4.24)
24 x0 24 x0
Puesto que (x 2 x1)4 nunca es negativo en [x0, x2], el teorema de valor promedio ponderado
para las integrales 1.13 implica que
x2
1 x2
f (4) (ξ1 ) x2
f (4) (ξ1 )
f (4) (ξ(x))(x − x1 )4 d x = (x − x1 )4 d x = (x − x1 )5 ,
24 x0 24 x0 120 x0
4.3 Elementos de integración numérica 145
mientras
Con métodos alternos se puede mostrar (consulte el ejercicio 26) que los valores ξ1 y ξ2 en
Thomas Simpson (1710–1761) esta expresión se pueden reemplazar mediante un valor común ξ en (x0 , x2 ). Esto da la regla
fue un matemático autodidacta de Simpson.
que en sus primeros años se
ganaba la vida como tejedor. Su Regla de Simpson:
principal interés fue la teoría
de la probabilidad, aunque en
x2
h h 5 (4)
f (x) d x = [ f (x0 ) + 4 f (x1 ) + f (x2 )] − f (ξ ).
1750 publicó un libro de cálculo
x0 3 90
de dos volúmenes titulado
The Doctrine and Application
of Fluxions (La doctrina y El término de error en la regla de Simpson implica la cuarta derivada de f, por lo que da
. resultados exactos cuando se aplica a cualquier polinomio de grado tres o menos.
2
Ejemplo 1 Compare las aproximaciones de la regla trapezoidal y de la regla de Simpson para 0 f (x) d x
cuando f (x) es
a) x2
√ b) x4 c) (x + 1)−1
d) 1 + x2 e) sen x f) ex
Solución En [0, 2], las reglas trapezoidal y de Simpson tiene las formas
2
Trapezoidal: f (x) d x ≈ f (0) + f (2) y
0
2
1
De Simpson: f (x) d x ≈ [ f (0) + 4 f (1) + f (2)].
0 3
Precisión de medición
Las derivadas estándar de las fórmulas de error de cuadratura están basadas al determinar la
clase de polinomios para los que estas fórmulas producen resultados exactos. La siguiente
Definición 4.1 El grado de precisión, o precisión, de una fórmula de cuadratura es el mayor entero positivo n,
de tal forma que la fórmula es exacta para xk, para cada k = 0, 1, . . . , n.
-
La precisión mejorada de la
cisión uno y tres, respectivamente.
regla de Simpson sobre la regla
trapezoidal se explica de manera La integración y la sumatoria son operaciones lineales; es decir,
intuitiva con el hecho de que la b b b
regla de Simpson incluye una
evaluación de punto medio que
(α f (x) + βg(x)) d x = α f (x) d x + β g(x) d x
a a a
proporciona mejor equilibrio
para la aproximación.
y
n n n
(α f (xi ) + βg(xi )) = α f (xi ) + β g(xi ),
i=0 i=0 i=0
para cada par de funciones integrables f y g y cada par de constantes reales a y b. Esto
implica (consulte el ejercicio 25) que
Figura 4.5 y
y = Pn(x)
y = f (x)
a 5 x0 x1 x2 xn21 xn 5 b x
4.3 Elementos de integración numérica 147
donde
xn xn n
(x − x j )
ai = L i (x) d x = d x.
x0 x0 j=0
(xi − x j )
j =i
n 5 1: Regla trapezoidal
x1
h h3
f (x) d x = [ f (x0 ) + f (x1 )] − f (ξ ), donde x0 < ξ < x1 . (4.25)
x0 2 12
n 5 2: Regla de Simpson
x2
h h 5 (4)
f (x) d x = [ f (x0 ) + 4 f (x1 ) + f (x2 )] − f (ξ ), donde x0 < ξ < x2 .
x0 3 90
(4.26)
x3
3h 3h 5 (4)
f (x) d x = [ f (x0 ) + 3 f (x1 ) + 3 f (x2 ) + f (x3 )] − f (ξ ), (4.27)
x0 8 80
donde x0 < ξ < x3 .
148 CAPÍTULO 4 Diferenciación numérica e integración
n 5 4:
x4
2h 8h 7 (6)
f (x) d x = [7 f (x0 ) + 32 f (x1 ) + 12 f (x2 ) + 32 f (x3 ) + 7 f (x4 )] − f (ξ ),
x0 45 945
donde x0 < ξ < x4 . (4.28)
b
donde ai = L i (x) d x.
a
Figura 4.6
y = Pn(x)
y = f (x)
a 5 x21 x0 x1 x2 xn xn11 5 b x
Observe que, como en el caso de métodos cerrados, tenemos el grado de precisión com-
parativamente superior para los métodos pares que para los métodos impares.
Algunas de las fórmulas de Newton-Cotes abiertas comunes con sus términos de error
son las siguientes:
x1
h3
f (x) d x = 2h f (x0 ) + f (ξ ), donde x−1 < ξ < x1 . (4.29)
x−1 3
n 5 1:
x2
3h 3h 3
f (x) d x = [ f (x0 ) + f (x1 )] + f (ξ ), donde x−1 < ξ < x2 . (4.30)
x−1 2 4
n 5 2:
x3
4h 14h 5 (4)
f (x) d x = [2 f (x0 ) − f (x1 ) + 2 f (x2 )] + f (ξ ), (4.31)
x−1 3 45
donde x−1 < ξ < x3 .
n 5 3:
x4
5h 95 5 (4)
f (x) d x = [11 f (x0 ) + f (x1 ) + f (x2 ) + 11 f (x3 )] + h f (ξ ), (4.32)
x−1 24 144
donde x−1 < ξ < x4 .
Ejemplo 2 Compare los resultados de las fórmulas cerradas y abiertas de Newton-Cotes como la ecua-
ción (4.25) a la (4.28) y la ecuación (4.29) a la (4.32) para aproximar
π/4 √
sen x d x = 1 − 2/2 ≈ 0.29289322.
0
(π/4) π
n=1: sen 0 + sen ≈ 0.27768018
2 4
(π/8) π π
n=2: sen 0 + 4 sen + sen ≈ 0.29293264
3 8 4
3(π/12) π π π
n=3: sen 0 + 3 sen + 3 sen + sen ≈ 0.29291070
8 12 6 4
2(π/16) π π 3π π
n=4: 7 sen 0 + 32 sen + 12 sen + 32 sen + 7 sen ≈ 0.29289318
45 16 8 16 4
150 CAPÍTULO 4 Diferenciación numérica e integración
π
n = 0 : 2(π/8) sen ≈ 0.30055887
8
3(π/12) π π
n=1: sen + sen ≈ 0.29798754
2 12 6
4(π/16) π π 3π
n=2: 2 sen − sen + 2 sen ≈ 0.29285866
3 16 8 16
5(π/20) π π 3π π
n=3: 11 sen + sen + sen + 11 sen ≈ 0.29286923
24 20 10 20 5
Tabla 4.8 n 0 1 2 3 4
Fórmulas cerradas 0.27768018 0.29293264 0.29291070 0.29289318
Error 0.01521303 0.00003942 0.00001748 0.00000004
Fórmulas abiertas 0.30055887 0.29798754 0.29285866 0.29286923
Error 0.00766565 0.00509432 0.00003456 0.00002399
fórmulas son difíciles de obtener. Además, las fórmulas de Newton-Cotes están basadas en
los polinomios de interpolación que utilizan nodos igualmente espaciados, un procedimiento
inapropiado sobre intervalos largos debido a la naturaleza oscilatoria de los polinomios de
orden superior.
A menudo, la aproximación por
tramos es efectiva. Recuerde que
En esta sección, analizamos el enfoque por tramos (o fragmentario) para la integración
esto se usó para interpolación de numérica que usa las fórmulas de Newton-Cotes de bajo orden. Estas son las técnicas que se
spline. aplican más a menudo.
4
Ejemplo 1 Use la regla de Simpson para aproximar 0 e x d x y compare esto con los resultados obteni-
2 4
dos mediante la suma de las aproximaciones de Simpson para 0 e x dx y 2 e x d x y al sumar
1 x 2 x 3 x 4 x
éstas con 0 e d x, 1 e d x, 2 e d x, y 3 e d x.
4
2 0
ex d x ≈ (e + 4e2 + e4 ) = 56.76958.
0 3
Al aplicar la regla de Simpson en cada uno de los intervalos [0, 2] y [2, 4] con h 5 1 da
4 2 4
ex d x = ex d x + ex d x
0 0 2
1 0 1 2
≈ e + 4e + e2 + e + 4e3 + e4
3 3
1 0
= e + 4e + 2e2 + 4e3 + e4
3
= 53.86385.
Figura 4.7
y
y 5 f (x)
b n/2 x2 j
f (x) d x = f (x) d x
a j=1 x2 j−2
n/2
h h 5 (4)
= [ f (x2 j−2 ) + 4 f (x2 j−1 ) + f (x2 j )] − f (ξ j ) ,
j=1
3 90
152 CAPÍTULO 4 Diferenciación numérica e integración
para algunos ξ j con x2 j−2 < ξ j < x2 j, siempre que f ∈ C [a, b]. A través del hecho de
4
n/2 n/2
b
h h5
(n/2)−1
f (x) d x = f (x0 ) + 2 f (x2 j ) + 4 f (x2 j−1 ) + f (xn ) − f (4) (ξ j ).
a 3 j=1 j=1
90 j=1
tenemos
n/2
n n
mín f (4) (x) ≤ f (4) (ξ j ) ≤ máx f (4) (x)
2 x∈[a,b] j=1
2 x∈[a,b]
y
n/2
2
mín f (4) (x) ≤ f (4) (ξ j ) ≤ máx f (4) (x).
x∈[a,b] n j=1
x∈[a,b]
Por medio del teorema de valor intermedio 1.11, existe m ∈ (a, b) tal que
n/2
2
f (4) (µ) = f (4) (ξ j ).
n j=1
Por lo tanto,
n/2
h5 h5
E( f ) = − f (4) (ξ j ) = − n f (4) (µ),
90 j=1
180
(b − a) 4 (4)
E( f ) = − h f (µ).
180
n/2
b
h b − a 4 (4)
(n/2)−1
f (x) d x = f (a) + 2 f (x2 j ) + 4 f (x2 j−1 ) + f (b) − h f (µ).
a 3 j=1 j=1
180
4.4 Integración numérica compuesta 153
Observe que el término de error para la regla compuesta de Simpson es O(h4), mientras
que era O(h5) para la regla estándar de Simpson. Sin embargo, estos índices no son compara-
bles ya que para la regla estándar de Simpson, tenemos h h = (b − a)/2, pero para la
regla compuesta de Simpson, tenemos h = (b−a)/n, para n un entero par. Esto nos permite
reducir considerablemente el valor de h.
El algoritmo 4.1 utiliza la regla compuesta de Simpson en n subintervalos. Éste es el
algoritmo de cuadratura que se usa con mayor frecuencia para propósito general.
Figura 4.8
y 5 f (x)
a 5 x0 x1 x j21 xj x n21 b 5 xn x
154 CAPÍTULO 4 Diferenciación numérica e integración
n−1
b
h b−a 2
f (x) d x = f (a) + 2 f (x j ) + f (b) − h f (µ).
a 2 j=1
12
Para la regla compuesta de punto medio, n debe ser, nuevamente, par (véase
4.9.)
Figura 4.9
y
y 5 f (x)
Teorema 4.6 Si f ∈ C 2 [a, b], n es par, h = (b − a)/(n + 2), y x j = a + ( j + 1)h para cada j 5
−1, 0, . . . , n + 1. Existe m ∈ (a, b) para el que la regla compuesta de punto medio para n 1 2
subintervalos se puede reescribir con su término de error como
b n/2
b−a 2
f (x) d x = 2h f (x2 j ) + h f (µ).
a j=0
6
Ejemplo 2 Determine valores de h que garantizarán un error de aproximación menor que 0.00002 al
aproximar 0 sen x d x y usar
π
Solución a) La forma de error para la regla trapezoidal compuesta para f (x) = sen x en [0, π ]
es
π h2 π h2 π h2
f (µ) = (− sen µ) = | sen µ|.
12 12 12
π h2 π h2
| sen µ| ≤ < 0.00002.
12 12
π h 4 (4) π h4 π h4
f (µ) = sen µ = | sen µ|.
180 180 180
π h4 π h4
| sen µ| ≤ < 0.00002.
180 180
8 9
π
π jπ (2 j − 1)π
sen x d x ≈ 2 sen +4 sen = 2.0000104.
0 54 j=1
9 j=1
18
17 17
π
π jπ π jπ
sen x d x ≈ 2 sen + sen 0 + sen π = 2 sen
36 18 36 18
0 j=1 j=1
= 1.9949205,
para la regla compuesta de Simpson. Además del hecho de que se necesitan menos cálcu-
los para la técnica de Simpson, usted podría sospechar que este método también implica
menos error de redondeo. Sin embargo, una propiedad importante compartida por todas
las técnicas de integración compuesta es una estabilidad respecto al error de redondeo.
Es decir, el error de redondeo no depende del número cálculos realizados.
Se espera que la integración
numérica sea estable, mientras
Para demostrar este hecho considerablemente sorprendente, suponga que aplicamos la
que la diferenciación numérica es regla compuesta de Simpson con n subintervalos a una función f en [a, b] y determine
inestable. la máxima cota para el error de redondeo. Suponga que f (xi ) se aproxima mediante f˜(xi )
y que
donde ei denota el error de redondeo asociado con el uso de f˜(xi ) para aproximar f (xi ).
Entonces, el error acumulado, e(h), en la regla compuesta de Simpson es
n/2
h
(n/2)−1
e(h) = e0 + 2 e2 j + 4 e2 j−1 + en
3 j=1 j=1
n/2
h
(n/2)−1
≤ |e0 | + 2 |e2 j | + 4 |e2 j−1 | + |en | .
3 j=1 j=1
h n n h
e(h) ≤ ε+2 −1 ε+4 ε + ε = 3nε = nhε.
3 2 2 3
e(h) ≤ (b − a)ε,
n−1
b
h (b − a) f (µ) 2
f (x) d x = f (a) + 2 f (x j ) + f (b) − h ,
a 2 j=1
12
n−1
b
h
f (x) d x = f (a) + 2 f (x j ) + f (b) + K 1 h 2 + K 2 h 4 + K 3 h 6 + · · · ,
a 2 j=1 (4.33)
donde Ki es una constante que depende solamente de f (2i−1) (a) y f (2i−1) (b).
4.5 Integración de Romberg 157
para un conjunto de constantes Kj y donde α1 < α2 < α3 < · · · < αm . En esa sección reali-
zamos demostraciones para ilustrar qué tan efectiva es esta técnica cuando el procedimiento
de aproximación tiene un error de truncamiento sólo con potencias pares de h, es decir,
cuando el error de truncamiento tiene la forma
m−1
K j h 2 j + O(h 2m ).
j=1
Werner Romberg (1909–2093) Puesto que la regla trapezoidal compuesta tiene esta forma, es un candidato obvio para extra-
concibió este procedimiento para polación. Esto resulta en una técnica conocida como integración de Romberg.
b
mejorar la precisión de la regla Para aproximar la integral a f (x) d x, utilizamos los resultados de la regla compues-
trapezoidal al eliminar términos ta trapezoidal con n = 1, 2, 4, 8, 16, . . . , e indicamos las aproximaciones resultantes, res-
sucesivos en la expansión
asintótica en 1955. pectivamente mediante R1,1, R2,1, R3,1, y así sucesivamente. A continuación, aplicamos la
extrapolación de la forma determinada en la sección 4.2; es decir, obtenemos O(h4) aproxi-
maciones R2,2, R3,2, R4,2, y así sucesivamente, por medio de
1
Rk,2 = Rk,1 + (Rk,1 − Rk−1,1 ), para k = 2, 3, . . .
3
y, entonces, las O(h6) aproximaciones R3,3, R4,3, R5,3, se pueden obtener mediante
1
Rk,3 = Rk,2 + (Rk,2 − Rk−1,2 ), para k = 3, 4, . . .
15
En general, después de que se han obtenido las aproximaciones Rk, j−1 adecuadas, determi-
namos las aproximaciones O(h 2 j ) a partir de
1
Rk, j = Rk, j−1 + (Rk, j−1 − Rk−1, j−1 ), para k = j, j + 1, . . .
4 j−1 − 1
Use la regla compuesta trapezoidal para encontrar aproximaciones para 0 sen x d x con
π
Ejemplo 1
n 5 1, 2, 4, 8 y 16. A continuación, realice la integración de Romberg en los resultados.
La regla compuesta trapezoidal para los diferentes valores de n proporciona las siguientes
aproximaciones para el valor verdadero 2:
π
R1,1 = [sen 0 + sen π] = 0,
2
π π
R2,1 = sen 0 + 2 sen + sen π = 1.57079633,
4 2
π π π 3π
R3,1 = sen 0 + 2 sen + sen + sen + sen π = 1.89611890,
8 4 2 4
π π π 3π 7π
R4,1 = sen 0 + 2 sen + sen + · · · + sen + sen + sen π
16 8 4 4 8
=1.97423160, y
π π π 7π 15π
R5,1 = sen 0 + 2 sen + sen + · · · + sen + sen + sen π
32 16 8 8 16
= 1.99357034.
158 CAPÍTULO 4 Diferenciación numérica e integración
1
R2,2 = R2,1 + (R2,1 − R1,1 ) = 2.09439511,
3
1
R3,2 = R3,1 + (R3,1 − R2,1 ) = 2.00455976,
3
1
R4,2 = R4,1 + (R4,1 − R3,1 ) = 2.00026917, y
3
1
R5,2 = R5,1 + (R5,1 − R4,1 ) = 2.00001659.
3
1
R3,3 = R3,2 + (R3,2 − R2,2 ) = 1.99857073,
15
1
R4,3 = R4,2 + (R4,2 − R3,2 ) = 1.99998313, y
15
1
R5,3 = R5,2 + (R5,2 − R4,2 ) = 1.99999975.
15
1 1
R4,4 = R4,3 + (R4,3 − R3,3 ) = 2.00000555 y R5,4 = R5,3 + (R5,3 − R4,3 )
63 63
= 2.00000001,
y la aproximación O(h10
1
R5,5 = R5,4 + (R5,4 − R4,4 ) = 1.99999999.
255
Estos resultados se muestran en la tabla 4.9.
Tabla 4.9 0
1.57079633 2.09439511
1.89611890 2.00455976 1.99857073
1.97423160 2.00026917 1.99998313 2.00000555
1.99357034 2.00001659 1.99999975 2.00000001 1.99999999
h1 (b − a)
R1,1 = [ f (a) + f (b)] = [ f (a) + f (b)],
2 2
4.5 Integración de Romberg 159
h2
R2,1 = [ f (a) + f (b) + 2 f (a + h 2 )].
2
Al reescribir este resultado para R2,1, podemos incorporar la aproximación previamente
determinada R1,1
(b − a) (b − a) 1
R2,1 = f (a) + f (b) + 2 f a+ = [R1,1 + h 1 f (a + h 2 )].
4 2 2
1
R3,1 = {R2,1 + h 2 [ f (a + h 3 ) + f (a + 3h 3 )]},
2
y, en general (véase
2k−2
1
Rk,1 = Rk−1,1 + h k−1 f (a + (2i − 1)h k ) , (4.34)
2 i=1
Figura 4.10
y y y
a b x a b x a b x
1
Rk, j = Rk, j−1 + (Rk, j−1 − Rk−1, j−1 ), para k = j, j + 1, . . . ,
4 j−1 −1
como se muestra en la tabla 4.10.
Tabla 4.10 k O h 2k O h 4k O h 6k O h 8k O h 2n
k
1 R1,1
2 R2,1 R2,2
3 R3,1 R3,2 R3,3
4 R4,1 R4,2 R4,3 R4,4
.. .. .. .. .. ..
. . . . . .
n Rn,1 Rn,2 Rn,3 Rn,4 ··· Rn,n
160 CAPÍTULO 4 Diferenciación numérica e integración
El método efectivo para construir la tabla de Romberg utiliza el orden más alto de la
R1,1, R2,1, R2,2,
R3,1, R3,2, R3,3, y así sucesivamente. Esto también permite calcular una
en la tabla al realizar sólo una aplicación adicional de la regla compuesta trapezoidal. A con-
tinuación, usa un promediado simple de los valores previamente calculados para obtener las
sen x d x.
π
Ejemplo 2 0
Solución
24
1 π (2k − 1)π
R6,1 = R5,1 + sen = 1.99839336.
2 16 k=1
32
1 1
R6,2 = R6,1 + (R6,1 − R5,1 ) = 1.99839336 + (1.99839336 − 1.99357035)
3 3
= 2.00000103,
1 1
R6,3 = R6,2 + (R6,2 − R5,2 ) = 2.00000103 + (2.00000103 − 2.00001659)
15 15
= 2.00000000,
1 1
R6,4 = R6,3 + (R6,3 − R5,3 ) = 2.00000000, R6,5 = R6,4 + (R6,4 − R5,4 )
63 255
= 2.00000000,
1
y R6,6 = R6,5 + 1023 (R6,5 − R5,5 ) = 2.00000000. La nueva tabla de extrapolación se mues-
tra en la tabla 4.11.
Tabla 4.11 0
1.57079633 2.09439511
1.89611890 2.00455976 1.99857073
1.97423160 2.00026917 1.99998313 2.00000555
1.99357034 2.00001659 1.99999975 2.00000001 1.99999999
1.99839336 2.00000103 2.00000000 2.00000000 2.00000000 2.00000000
la segunda columna) son más precisos que la mejor aproximación compuesta trapezoidal (en la
ólo
la sexta en la columna izquierda requiere evaluaciones de función ya que son las únicas en-
tradas generadas por la regla compuesta trapezoidal; las otras entradas se obtienen mediante
un proceso de promediado. De hecho, debido a la relación de recurrencia de los términos
en la columna izquierda, las únicas evaluaciones de función son aquellas para calcular la
aproximación de la regla compuesta trapezoidal. En general, Rk,1 requiere evaluaciones de
función 1 + 2k−1, por lo que en este caso se necesita 1 + 25 = 33.
4.5 Integración de Romberg 161
la integral que se está aproximando, es común generar aproximaciones hasta que no sólo
|Rn−1,n−1 − Rn,n | esté dentro de la tolerancia, sino también |Rn−2,n−2 − Rn−1,n−1 |. A pesar
de que no es una protección universal, esto garantizará que dos conjuntos de aproximaciones
Rn,n
Figura 4.11
0.5
0.4
0.3
y (x) = e23xsen 4x
0.2
0.1
1
2
2 3 4 x
20.1
integral en este intervalo. Este es un ejemplo de una situación en donde la integración com-
puesta sería inadecuada. Se podría usar un método de orden bajo en [2, 4], pero se necesitaría
un método de orden superior en [0, 2].
• ¿Cómo podemos determinar la técnica que deberíamos aplicar en las diferentes partes del
Veremos que en ciertas condiciones razonables, podemos responder esta pregunta y también
determinar aproximaciones que satisfacen requisitos de precisión determinados.
Si el error de aproximación para una integral en un intervalo determinado está distri-
buido de manera equitativa, se necesita un tamaño de paso más pequeño para las grandes
4.6 Métodos de cuadratura adaptable 163
h
S(a, b) = [ f (a) + 4 f (a + h) + f (b)].
3
Figura 4.12
y
S(a, b) y 5 f (x)
a b x
h h
a+b h h
S a, = f (a) + 4 f a+ + f (a + h)
2 6 2
164 CAPÍTULO 4 Diferenciación numérica e integración
a+b h 3h
S ,b = f (a + h) + 4 f a+ + f (b) .
2 6 2
Figura 4.13
(
S a,
a1b
2 (
1S
a1b
2
(, b (
y 5 f (x)
a a1b b x
2
h
2
El cálculo de error se deriva al suponer que ξ ≈ ξ̃ o, con mayor precisión, que f (4) (ξ ) ≈
f (ξ̃ ), y el éxito de la técnica depende de la precisión de esta suposición. Si es precisa,
(4)
por lo que
b
a+b a+b
f (x) d x − S a, −S ,b
a 2 2
1 h5 1 a+b a+b
≈ f (4) (ξ ) ≈ S(a, b) − S a, −S ,b .
16 90 15 2 2
4.6 Métodos de cuadratura adaptable 165
b
Esto implica que S(a, (a + b)/2) + S((a + b)/2, b) se aproxima a a f (x) d x aproxima-
damente 15 veces mejor que lo que concuerda con el valor calculado S(a, b). Por lo tanto, si
a+b a+b
S(a, b) − S a, −S ,b < 15ε, (4.38)
2 2
esperamos tener
b
a+b a+b
f (x) d x − S a, −S ,b < ε, (4.39)
a 2 2
a+b a+b
S a, +S ,b
2 2
b
a f (x) d x.
Ejemplo 1
al aplicar la integral
π/2
sen x d x = 1
0
al comparar
1 π π π π π/2
π π π
S 0, − S 0, −S , con sen x d x − S 0, −S , .
15 2 4 4 2 0 4 4 2
Solución
π π/4 π π π √
S 0, = sen 0 + 4 sen + sen = (2 2 + 1) = 1.002279878
2 3 4 2 12
π π π π/8 π π 3π π
S 0, +S , = sen 0 + 4 sen + 2 sen + 4 sen + sen
4 4 2 3 8 4 8 2
= 1.000134585.
Por lo que,
π π π π
S 0, − S 0, −S , = |1.002279878 − 1.000134585| = 0.002145293.
2 4 4 2
El cálculo para el error obtenido al utilizar S(a, (a + b)) + S((a + b), b) para aproximar
b
a f (x) d x es, por consiguiente,
1 π π π π
S 0, − S 0, −S , = 0.000143020,
15 2 4 4 2
166 CAPÍTULO 4 Diferenciación numérica e integración
precisión. y recordar las evaluaciones funcionales que se han calculado antes para los nodos en los
subintervalos situados a la mitad derecha. Los pasos 3, 4 y 5 contienen un procedimiento de
apilamiento con un indicador para seguir los datos requeridos para calcular la aproximación
en el subintervalo inmediatamente adyacente y a la derecha del subintervalo en el que se
genera la aproximación. El método es más fácil de implementar por medio de lenguaje de
programación recursivo.
Figura 4.14
60
50
40
30 y = f (x) =
100
x2
sen( (
10
x
20
10
2.75 3.0
220
230
240
250
260
El valor más grande de h para el que la regla compuesta de Simpson estándar provee
precisión dentro de 1024 es h = 1/88. Esta aplicación requiere 177 evaluaciones de función,
aproximadamente dos veces más que la cuadratura adaptable.
espaciados. Esta restricción es conveniente cuando se combinan las fórmulas para formar las
-
mente la precisión de la aproximación. Considere, por ejemplo, la regla trapezoidal aplicada
4.7 Cuadratura gaussiana 169
Figura 4.15
y y y
y 5 f (x) y 5 f (x)
y 5 f (x)
a 5 x1 x2 5 b x a 5 x1 x2 5 b x a 5 x1 x2 5 b x
-
bablemente proporcionarían mucho mejores aproximaciones.
Figura 4.16
y y y
y 5 f (x)
y 5 f (x)
y 5 f (x)
a x1 x2 b x a x1 x2 b x a x1 x2 b x
Para ilustrar el procedimiento para elegir los parámetros adecuados, mostraremos cómo
n 5 2 y el intervalo de integración es [21, 1].
Entonces, analizaremos la situación más general para una selección arbitraria de nodos y
-
trario.
Suponga que queremos determinar c1, c2, x1, y x2 de tal forma que la fórmula de inte-
gración
1
f (x) d x ≈ c1 f (x1 ) + c2 f (x2 )
−1
f (x) = a0 + a1 x + a2 x 2 + a3 x 3 ,
para algún conjunto de constantes a0, a1, a2, y a3. Puesto que
(a0 + a1 x + a2 x 2 + a3 x 3 ) d x = a0 1 d x + a1 x d x + a2 x 2 d x + a3 x 3 d x,
esto es equivalente a mostrar que la fórmula da resultados exactos cuando f (x) es 1, x, x2, y
x3. Por lo tanto, necesitamos c1, c2, x1, y x2, de tal forma que
1 1
c1 · 1 + c 2 · 1 = 1 d x = 2, c1 · x1 + c2 · x2 = x d x = 0,
−1 −1
1 1
2
c1 · x12 + c2 · x22 = x2 dx = , y c1 · x13 + c2 · x23 = x 3 d x = 0.
−1 3 −1
Un poco de álgebra muestra que este sistema de ecuaciones tiene una solución única
√ √
3 3
c1 = 1, c2 = 1, x1 = − , y x2 = ,
3 3
lo cual da la fórmula de aproximación
1
√ √
− 3 3
f (x) d x ≈ f + f . (4.40)
−1 3 3
Esta fórmula tiene grado de precisión tres; es decir, produce el resultado exacto para cada
polinomio de grado tres o menor.
Polinomios de Legendre
las fórmulas que dan resultados exactos para polinomios de grado superior, pero un método
alterno los obtiene con mayor facilidad. En las secciones 8.2 y 8.3, consideraremos diferentes
conjuntos de polinomios ortogonales, funciones que tienen la propiedad de que una integral
problema son los polinomios de Legendre, un conjunto {P0 (x), P1 (x), . . . , Pn (x), . . . , }
con las siguientes propiedades:
Teorema 4.7 Suponga que x1 , x2 , . . . , xn son las raíces del n-ésimo polinomio de Legendre Pn (x) y que
para cada i = 1, 2, . . . , n, los números ci
1 n
x − xj
ci = d x.
−1 j=1 xi − x j
j =i
y
1 1 n n
x − xj
P(x) d x = P(xi )
dx
xi − x j
−1 −1 i=1 j=1
j =i
n 1 n n
x − xj
dx
P(xi ) = ci P(xi ).
=
xi − x j
i=1 −1 j=1 i=1
j =i
Observe que xi es una raíz de Pn(x) para cada i = 1, 2, . . . , n, por lo que tenemos
P(x):
1 1 1 n n
P(x) d x = [Q(x)Pn (x) + R(x)] d x = R(x) d x = ci R(xi ) = ci P(xi ).
−1 −1 −1 i=1 i=1
1
Ejemplo 1 Aproxime e x cos x d x mediante cuadratura gaussiana con n 5 3.
−1
La integración por partes se puede utilizar para mostrar que el valor verdadero de la integral
es 1.9334214, por lo que el error absoluto es menor a 3.2 3 1025.
4.7 Cuadratura gaussiana 173
2x − a − b 1
t= ⇐⇒ x = [(b − a)t + a + b].
b−a 2
Figura 4.17
t
(b, 1)
1
2x 2 a 2 b
t5
b2a
a b x
21
(a, 21)
3
Ejemplo 2 Considere la integral x 6 − x 2 sen(2x) d x = 317.3442466.
1
a) Compare los resultados de la fórmula cerrada de Newton-Cotes con n 5 1, la
fórmula abierta de Newton-Cotes con n 5 1, y la cuadratura gaussiana cuando n 5 2.
b) Compare los resultados de la fórmula cerrada de Newton-Cotes con n 5 2, la
fórmula abierta de Newton-Cotes con n 5 2, y la cuadratura gaussiana cuando n 5 3.
Solución a) Cada una de las fórmulas en esta parte requiere dos evaluaciones de la función
f (x) = x 6 − x 2 sen(2x). Las aproximaciones de Newton-Cotes son
2
Cerrada n = 1 : [ f (1) + f (3)] = 731.6054420;
2
3(2/3)
Abierta n = 1 : [ f (5/3) + f (7/3)] = 188.7856682.
2
La cuadratura gaussiana aplicada a este problema requiere que la integral primero se trans-
forme en un problema cuyo intervalo de integración es [21, 1]. Por medio de la ecuación
(4.41) obtenemos
3 1
x 6 − x 2 sen(2x) d x = (t + 2)6 − (t + 2)2 sen(2(t + 2)) dt.
1 −1
= 306.8199344.
174 CAPÍTULO 4 Diferenciación numérica e integración
b) Cada una de las fórmulas en esta parte requiere tres evaluaciones de función. Las aproxi-
maciones de Newton-Cotes son
1
Cerrada n = 2 : [ f (1) + 4 f (2) + f (3)] = 333.2380940;
3
4(1/2)
Abierta n = 2 : [2 f (1.5) − f (2) + 2 f (2.5)] = 303.5912023.
3
3
x 6 − x 2 sen(2x) d x ≈ 0.5 f (−0.7745966692 + 2)
1
f (x, y) d A,
R
Figura 4.18
z 5 f (x, y)
a c
d
b y
R
x
Figura 4.19
y
1 2 1
d
1 2 4 2
2 (c 1 d)
1 2 1
c
1
1 b) x
a 2 (a b
176 CAPÍTULO 4 Diferenciación numérica e integración
m/2
d
k
(m/2)−1
f (x, y) dy = f (x, y0 ) + 2 f (x, y2 j ) + 4 f (x, y2 j−1 ) + f (x, ym )
c 3 j=1 j=1
(d − c)k 4 ∂ 4 f (x, µ)
− ,
180 ∂ y4
b d b b
k
(m/2)−1
f (x, y) d y d x = f (x, y0 ) d x + 2 f (x, y2 j ) d x
a c 3 a j=1 a
m/2 b b
+4 f (x, y2 j−1 ) d x + f (x, ym ) d x
j=1 a a
(d − c)k 4 b
∂ 4 f (x, µ)
− d x.
180 a ∂ y4
Ahora, utilizamos la regla compuesta de Simpson para las integrales en esta ecuación. Si
xi = a + i h, para cada i = 0, 1, . . . , n. Entonces, para cada j = 0, 1, . . . , m tenemos
b n/2
h
(n/2)−1
f (x, y j ) d x = f (x0 , y j ) + 2 f (x2i , y j ) + 4 f (x2i−1 , y j ) + f (xn , y j )
a 3 i=1 i=1
(b − a)h 4 ∂ 4 f
− (ξ j , y j ),
180 ∂x4
4.8 Integrales múltiples 177
b d
hk
(n/2)−1
f (x, y) d y d x ≈ f (x0 , y0 ) + 2 f (x2i , y0 )
a c 9 i=1
n/2
+4 f (x2i−1 , y0 ) + f (xn , y0 )
i=1
(m/2)−1 (m/2)−1 (n/2)−1
+2 f (x0 , y2 j ) + 2 f (x2i , y2 j )
j=1 j=1 i=1
(n/2)−1 n/2
+ f (x0 , ym ) + 2 f (x2i , ym ) + 4 f (x2i−1 , ym )
i=1 i=1
+ f (xn , ym ) .
m/2
−k(b − a)h 4 ∂ 4 f (ξ0 , y0 ) ∂ 4 f (ξ2 j , y2 j ) ∂ 4 f (ξ2 j−1 , y2 j−1 )
(m/2)−1
E= +2 +4
540 ∂x4 j=1
∂x4 j=1
∂x4
∂ 4 f (ξm , ym ) (d − c)k 4 b
∂ 4 f (x, µ)
+ − d x.
∂x4 180 a ∂ y4
b
∂ 4 f (x, µ) ∂4 f
d x = (b − a) (η̂, µ̂),
a ∂ y4 ∂ y4
178 CAPÍTULO 4 Diferenciación numérica e integración
para algunos (η̂, µ̂) en R. Puesto que m = (d − c)/k, el término de error tiene la forma
(d − c)(b − a) 4 ∂ 4 f 4
4∂ f
E =− h (η, µ) + k (η̂, µ̂) ,
180 ∂x4 ∂ y4
Solución Los tamaños de paso para esta aplicación son h = (2.0 − 1.4)/4 = 0.15 y k =
(1.5 − 1.0)/2 = 0.25. La región de integración R
nodos (xi , y j ), donde i = 0, 1, 2, 3, 4 y j = 0, 1, 2.
w i, j de f (xi , yi ) = ln(xi +2yi ) en la suma que da la aproximación de la regla compuesta de
Simpson para la integral.
Figura 4.20
y
1 4 2 4 1
1.50
4 16 8 16 4
1.25
1 4 2 4 1
1.00
La aproximación es
2.0 1.5 4 2
(0.15)(0.25)
ln(x + 2y) d y d x ≈ w i, j ln(xi + 2y j )
1.4 1.0 9 i=0 j=0
= 0.4295524387.
tenemos
∂4 f −6 ∂4 f −96
(x, y) = y (x, y) = ,
∂x 4 (x + 2y)4 ∂y 4 (x + 2y)4
y los valores máximos de los valores absolutos de estas derivadas parciales se presentan en
R cuando x 5 1.4 y y 5 1.0. Por lo que el error está acotado por
(0.5)(0.6) 6 96
|E| ≤ (0.15)4 máx + (0.25)4 máx ≤ 4.72 × 10−6 .
180 (x,y)inR (x + 2y) 4 (x,y)inR (x + 2y)4
4.8 Integrales múltiples 179
Las mismas técnicas se pueden aplicar para la aproximación de las integrales triples
así como integrales superiores para las funciones de más de tres variables. El número de
evaluaciones requeridas para la aproximación es el producto del número de evaluaciones
requeridas cuando se aplica el método a cada variable.
Ejemplo 2 Utilice la cuadratura gaussiana con n 5 3 en ambas dimensiones para aproximar la integral
2.0 1.5
ln(x + 2y) d y d x.
1.4 1.0
Solución Antes de emplear la cuadratura gaussiana para aproximar esta integral, necesita-
mos transformar la región de integración
1 1
u= (2x − 1.4 − 2.0) y v= (2y − 1.0 − 1.5),
2.0 − 1.4 1.5 − 1.0
2.0 1.5 1 1
ln(x + 2y) d y d x = 0.075 ln(0.3u + 0.5v + 4.2) dv du.
1.4 1.0 −1 −1
u 2 = v2 = r3,3 = 0.7745966692.
Los pesos asociados con c3,2 = 0.8 y c3,1 = c3,3 = 0.5. (Estos se muestran en la tabla 4.12
en la página 232.) La aproximación resultante es
2.0 1.5 3 3
ln(x + 2y) d y d x ≈ 0.075 c3,i c3, j ln(0.3r3,i + 0.5r3, j + 4.2)
1.4 1.0 i=1 j=1
= 0.4295545313.
180 CAPÍTULO 4 Diferenciación numérica e integración
A pesar de que este resultado sólo requiere nueve evaluaciones funcionales en comparación
con 15 para la regla compuesta de Simpson considerada en el ejemplo 1, éste es preciso den-
tro de 4.8×10−9, en comparación con la precisión 2.1 × 10−6 en el ejemplo 1.
Regiones no rectangulares
El uso de métodos de aproximación para integrales dobles no está limitado a integrales con
regiones rectangulares de integración. Las técnicas analizadas previamente se pueden modi-
b d(x)
f (x, y) d y dx (4.42)
a c(x)
d b(y)
f (x, y) d x d y. (4.43)
c a(y)
De hecho, las integrales en las regiones que no son de este tipo, también se pueden aproximar
al realizar subdivisiones adecuadas de la región. (Consulte el ejercicio 10.)
Para describir la técnica relacionada con la aproximación de una integral de la forma
b d(x)
f (x, y) d y d x,
a c(x)
utilizaremos la regla básica de Simpson para integrar respecto a ambas variables. El tamaño
de paso para la variable x es h = (b − a)/2, pero el tamaño de paso para y varía con x (véase
d(x) − c(x)
k(x) = .
2
Figura 4.21
z 5 f (x, y)
Esto nos da
b d(x) b
k(x)
f (x, y) d y d x ≈ [ f (x, c(x)) + 4 f (x, c(x) + k(x)) + f (x, d(x))] d x
a c(x) a 3
h k(a)
≈ [ f (a, c(a)) + 4 f (a, c(a) + k(a)) + f (a, d(a))]
3 3
4k(a + h)
+ [ f (a + h, c(a + h)) + 4 f (a + h, c(a + h)
3
+ k(a + h)) + f (a + h, d(a + h))]
k(b)
+ [ f (b, c(b)) + 4 f (b, c(b) + k(b)) + f (b, d(b))] .
3
El algoritmo 4.4. aplica la regla compuesta de Simpson para una integral de la forma (4.42).
Las integrales de la forma (4.43) pueden, por supuesto, manejarse de manera similar.
primero debemos transformar, para cada x en [a, b], la variable y en el intervalo [c(x), d(x)]
en la variable t en el intervalo [21, 1]. Esta transformación lineal nos da
El cálculo reducido hace que, en Entonces, para cada x en [a, b], aplicamos la cuadratura gaussiana a la integral resultante
general, valga la pena aplicar la
cuadratura gaussiana en lugar d(x) 1
(d(x) − c(x))t + d(x) + c(x)
de una técnica de Simpson al
f (x, y) dy = f x, dt
aproximar las integrales dobles. c(x) −1 2
para producir
b d(x)
f (x, y) d y d x
a c(x)
b n
d(x) − c(x) (d(x) − c(x))rn, j + d(x) + c(x)
≈ cn, j f x, d x,
a 2 j=1
2
mientras, como antes, las raíces rn,j cn,j provienen de la tabla 4.12 en la
página 172. Ahora, el intervalo [a, b] se transforma en [21, 1], y la cuadratura gaussiana se
aplica para aproximar la integral en el lado derecho de esta ecuación. Los detalles se inclu-
yen en el algoritmo 4.5.
Ilustración
doble de Simpson con n 5 m 5 10 a
0.5 x2
e y/x d y d x.
0.1 x3
Figura 4.22
z
0.1
R (0.5, 0.25, 0)
(0.5, 0.125, 0)
0.5
x
Figura 4.23
z
z 5 b(x, y)
z 5 a(x, y)
a
x
y
b y 5 c(x)
R y 5 d(x)
x
M yz Mx z Mx y
(x, y, z) = , , ,
M M M
donde
M yz = xσ (x, y, z) d V, Mx z = yσ (x, y, z) d V
D D
Mx y = zσ (x, y, z) d V
D
M= σ (x, y, z) d V.
D
z2 = x 2 + y2
y el plano z 5 2. Suponga que este sólido tiene una función de densidad dada por
σ (x, y, z) = x 2 + y2.
Figura 4.24
z
1
2 1
x 2
y
186 CAPÍTULO 4 Diferenciación numérica e integración
Al aplicar el algoritmo de integral triple gaussiana 4.6 con n 5 m 5 p 5 5 requiere 125 eva-
luaciones de función por integral y se obtienen las siguientes aproximaciones
√
2 4−x 2 2
M= √ √ x 2 + y 2 dz dy d x
−2 − 4−x 2 x 2 +y 2
√
2 4−x 2 2
=4 √ x 2 + y 2 dz dy d x ≈ 8.37504476,
0 0 x 2 +y 2
√
2 4−x 2 2
M yz = √ √ x x 2 + y 2 dz dy d x ≈ −5.55111512 × 10−17 ,
−2 − 4−x 2 x 2 +y 2
√
2 4−x 2 2
Mx z = √ √ y x 2 + y 2 dz dy d x ≈ −8.01513675 × 10−17 y
−2 − 4−x 2 x 2 +y 2
√
2 4−x 2 2
Mx y = √ √ z x 2 + y 2 dz dy d x ≈ 13.40038156.
−2 − 4−x 2 x 2 +y 2
Estas integrales son bastante fáciles de evaluar de manera directa. Si lo hace, descubrirá que
el centro de masa exacto se presenta en (0, 0, 1.6).
y 5 f(x)
a b x
4.9 Integrales impropias 187
En cálculo se muestra que la integral impropia con una singularidad en el extremo iz-
quierdo,
b
dx
,
a (x − a)
p
1 1
1 1
Ejemplo 1 Muestre que la integral impropia √ d x converge pero que d x diverge.
0 x 0 x2
Solución Para la primera integral, tenemos
1 1
1 x=1
√ d x = lím x −1/2 d x = lím 2x 1/2 = 2 − 0 = 2,
0 x M→0+ M M→0+ x=M
g(x)
f (x) = ,
(x − a) p
también existe. Nosotros aproximaremos esta integral mediante la regla compuesta de Simp-
son, siempre que g ∈ C 5 [a, b].
P4(x), para g alrededor de a,
y escribimos
b b b
g(x) − P4 (x) P4 (x)
f (x) d x = dx + d x. (4.44)
a a (x − a) p a (x − a) p
g(x)−P4 (x)
(x−a) p
, si a < x ≤ b,
G(x) =
0, si x = a.
Esto nos da una función continua en [a, b]. De hecho, 0 < p < 1 y P4 (a) concuerda con
(k)
g (k) (a) para cada k = 0, 1, 2, 3, 4, por lo que tenemos G ∈ C 4 [a, b]. Esto implica que la
regla compuesta de Simpson se puede aplicar para aproximar la integral de G sobre [a, b].
Al añadir esta aproximación al valor de la ecuación (4.45) obtenemos una aproximación
para la integral impropia de f en [a, b], dentro de la precisión de la aproximación de la regla
compuesta de Simpson.
Ejemplo 2 Utilice la regla compuesta de Simpson con h 5 0.25 para aproximar el valor de la integral
impropia
1
ex
√ d x.
0 x
Solución ex alrededor de x 5 0 es
x2 x3 x4
P4 (x) = 1 + x + + + ,
2 6 24
1
ex
por lo que la parte dominante de la aproximación para √ d x es
0 x
1 1
P4 (x) 1 1 1
√ dx = x −1/2 + x 1/2 + x 3/2 + x 5/2 + x 7/2 dx
0 x 0 2 6 24
1
2 1 1 1 9/2
= lím 2x 1/2 + x 3/2 + x 5/2 + x 7/2 + x
M→0+ 3 5 21 108 M
2 1 1 1
=2+ + + + ≈ 2.9235450.
3 5 21 108
1
ex
Para la segunda parte de la aproximación para √ d x , necesitamos aproximar
0 x
1
G(x) d x , donde
0
√1 e x − P (x) , si 0 < x ≤ 1,
4
G(x) = x
0, si x = 0.
Tabla 4.13
x G(x) La tabla 4.13 enumera los valores necesarios para la regla compuesta de Simpson para esta
aproximación.
0.00 0 Por medio de estos datos y la regla compuesta de Simpson obtenemos
0.25 0.0000170
1
0.50 0.0004013 0.25
G(x) d x ≈ [0 + 4(0.0000170) + 2(0.0004013) + 4(0.0026026) + 0.0099485]
0.75 0.0026026 0 3
1.00 0.0099485
= 0.0017691.
4.9 Integrales impropias 189
Por lo tanto,
1
ex
√ d x ≈ 2.9235450 + 0.0017691 = 2.9253141.
0 x
1−0
(0.25)4 = 0.0000217.
180
z = −x, dz = − d x
para cambiar la integral impropia en una de la forma
b −a
f (x) d x = f (−z) dz, (4.46)
a −b
Figura 4.26
y Para z 5 2x y
y 5 f (x) y 5 f (2z)
a b x 2b 2a z
Una integral impropia con una singularidad en c, donde a < c < b, se trata como la
suma de las integrales impropias con singularidades en los extremos ya que
b c b
f (x) d x = f (x) d x + f (x) d x.
a a c
Singularidad infinita
para p > 1. Esto se convierte en una integral con singularidad de extremo izquierdo en 0 al
realizar la sustitución de integración
Entonces
0 1/a
∞
1 tp 1
dx = − dt = dt.
a xp 1/a t2 0 t 2− p
1/a
∞
1
f (x) d x = t −2 f dt. (4.47)
a 0 t
Ahora, se puede aproximar por medio de la fórmula de cuadratura del tipo descrito anterior-
mente.
1
dt = −x −2 d x, por lo que d x = −x 2 dt = − dt,
t2
y
1
x=∞
1 t=0
1 −3/2
1
I = x −3/2 sen dx = sen t − dt = t −1/2 sen t dt.
x=1 x t=1 t t2 0
Gauss-Kronrod para integrar una función de dos variables y una rutina para utilizar cuadratura
para integrar una función de n variables sobre n intervalos de la forma [ai, bi].
La Biblioteca NAG incluye una rutina para calcular la integral de f sobre el intervalo
[a, b] mediante un método adaptable con base en cuadratura gaussiana mediante reglas de
una integral mediante una familia de fórmulas tipo gaussianas con base en 1, 3, 5, 7, 15, 31,
63, 127 y 255 nodos. Estas reglas entrelazadas de alta precisión se deben a Patterson [Pat]
y se utilizan de manera adaptable. NAG incluye muchas otras subrutinas para aproximar
integrales.
A pesar de que la diferenciación numérica es inestable, se necesitan fórmulas de aproxi-
mación de derivadas para resolver ecuaciones diferenciales. La Biblioteca NAG incluye una
subrutina para la diferenciación numérica de una función de una variable real con diferencia-
ción para que la catorceava derivada sea posible. IMSL tiene una función que usa un cambio
tercera derivada de f en x dentro de una tolerancia determinada. IMSL también incluye una
-
192 CAPÍTULO 4 Diferenciación numérica e integración
Las secciones Preguntas de análisis, Conceptos clave y Revisión del capítulo están dis-
ponibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
CAPÍTULO
Introducción
El movimiento de un péndulo balanceándose de acuerdo con ciertas suposiciones de simpli-
d 2θ g
+ sen θ = 0,
dt 2 L
d 2θ g
+ θ = 0, θ (t0 ) = θ0 , θ (t0 ) = θ0 .
dt 2 L
u θ = sen θ
193
196 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
y no
existe cuando y 5
Ejemplo 2 única
inicial
Solución Al mantener t
f (t, y2 ) − f (t, y1 ) ∂
= f (t, ξ ) = t 2 cos(ξ t).
y2 − y1 ∂y
f y L5
f (t y) es continua cuando 0 ≤ t ≤ 2 y −∞ < y < ∞
implica que existe una única
-
en la misma medida?
194 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
y(t) para un
dy
= f (t, y), para a ≤ t ≤ b,
dt
dy1
= f 1 (t, y1 , y2 , . . . , yn ),
dt
dy2
= f 2 (t, y1 , y2 , . . . , yn ),
dt
..
.
dyn
= f n (t, y1 , y2 , . . . , yn ),
dt
para a ≤ t ≤ b
para a ≤ t ≤ b
-
problema de valor inicial
del
-
5.1 Teoría elemental de problemas de valor inicial 195
f D en la variable y
L5
Figura 5.1
(t 2, y 2)
(t 2, y 2) (t1, y1)
(t1, y1)
Convexo No convexo
∂f
(t, y) ≤ L , para todo (t, y) ∈ D,
∂y
entonces f D L de
-
5.1 Teoría elemental de problemas de valor inicial 197
dy
= f (t, y), a ≤ t ≤ b, y(a) = α,
dt
dz
= f (t, z) + δ(t), a ≤ t ≤ b, z(a) = α + δ0 ,
dt
tiene una única z(t
problema pertur-
bado
presente
Los métodos numéricos quizá impliquen resolver un problema perturbado debido a que
dy
= f (t, y), a ≤ t ≤ b, y(a) = α
dt
∂(y − t 2 + 1)
= |1| = 1,
∂y
f (t, y) = y − t 2 + 1 y
sobre D f es continua en D
dz
= z − t 2 + 1 + δ, 0 ≤ t ≤ 2, z(0) = 0.5 + δ0 ,
dt
198 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
donde δ y δ0
dy
= f (t, y), a ≤ t ≤ b, y(a) = α.
dt
y(t -
ciones para y puntos de malla a b
a b N
h = (b − a)/N
ti = a + i h, para cada i = 0, 1, 2, . . . , N .
La distancia común entre los puntos h = ti+1 − ti recibe el nombre de tamaño de paso
y(t
a b
matemáticos que se presentaron i = 0, 1, 2, . . . , N − 1,
primero al público por el más
(ti+1 − ti )2
y(ti+1 ) = y(ti ) + (ti+1 − ti )y (ti ) + y (ξi ),
2
ξi en (ti , ti+1 ) h = ti+1 − ti
h2
y(ti+1 ) = y(ti ) + hy (ti ) + y (ξi ),
2
y(t
h2
y(ti+1 ) = y(ti ) + h f (ti , y(ti )) + y (ξi ).
2
5.2 Método de Euler 199
w 0 = α,
w i+1 = w i + h f (ti , w i ), para cada i = 0, 1, . . . , N − 1.
Ilustración
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5,
en t 5 Aquí simplemente ilustraremos los pasos en la técnica cuando tenemos h 5
Para este problema f (t, y) = y − t 2 + 1;
w 0 = y(0) = 0.5;
w 1 = w 0 + 0.5 w 0 − (0.0)2 + 1 = 0.5 + 0.5(1.5) = 1.25;
w 2 = w 1 + 0.5 w 1 − (0.5)2 + 1 = 1.25 + 0.5(2.0) = 2.25;
w 3 = w 2 + 0.5 w 2 − (1.0)2 + 1 = 2.25 + 0.5(2.25) = 3.375;
wi es
y (t i
implica que
y (t i
Figura 5.2
y
y(t N) 5 y(b) y9 5 f (t, y),
y(a) 5 a
...
y(t 2)
y(t 1)
y(t 0) 5 a
t0 5 a t1 t2 . . . tN 5 b t
t0 5 a t1 t2 . . . tN 5 b t t0 5 a t1 t2 . . . tN 5 b t
Ejemplo 1 h5
al problema de valor inicial
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5.
N5
valores exactos dados por y(t) = (t + 1)2 − 0.5et .
para i = 0, 1, . . . , 9.
t
-
entonces
t t
ai+1 ≤ e(i+1)s a0 + − .
s s
Demostración i
ai+1 ≤ (1 + s)ai + t
≤ (1 + s)[(1 + s)ai−1 + t] + t = (1 + s)2 ai−1 + [1 + (1 + s)]t
≤ (1 + s)3 ai−2 + 1 + (1 + s) + (1 + s)2 t
..
.
≤ (1 + s)i+1 a0 + 1 + (1 + s) + (1 + s)2 + · · · + (1 + s)i t.
202 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
Pero
i
1 + (1 + s) + (1 + s)2 + · · · + (1 + s)i = (1 + s) j
j=0
1 s) que se suma a
1 − (1 + s)i+1 1
= [(1 + s)i+1 − 1].
1 − (1 + s) s
(1 + s)i+1 − 1 t t
ai+1 ≤ (1 + s)i+1 a0 + t = (1 + s)i+1 a0 + − ,
s s s
x5 1 s obtenemos
t t
ai+1 ≤ e(i+1)s a0 + − .
s s
Teorema 5.9 f L en
M con
donde y(t
h M L(ti −a)
|y(ti ) − w i | ≤ e −1 .
2L
h2
y(ti+1 ) = y(ti ) + h f (ti , y(ti )) + y (ξi ),
2
para i = 0, 1, . . . , N − 1,
w i+1 = w i + h f (ti , w i ).
h2
yi+1 − w i+1 = yi − w i + h[ f (ti , yi ) − f (ti , w i )] + y (ξi )
2
h2
|yi+1 − w i+1 | ≤ |yi − w i | + h| f (ti , yi ) − f (ti , w i )| + |y (ξi )|.
2
5.2 Método de Euler 203
f L
|y (t)| ≤ M, por lo que
h2 M
|yi+1 − w i+1 | ≤ (1 + h L)|yi − w i | + .
2
s = h L, t = h 2 M/2, y a j = |y j − w j |, para
cada j = 0, 1, . . . , N
h2 M h2 M
|yi+1 − w i+1 | ≤ e(i+1)h L |y0 − w 0 | + − .
2h L 2h L
h M (ti+1 −a)L
|yi+1 − w i+1 | ≤ (e − 1),
2L
para cada i = 0, 1, . . . , N − 1.
∂ f /∂t y ∂ f /∂ y
dy df ∂f ∂f
y (t) = (t) = (t, y(t)) = (t, y(t)) + (t, y(t)) · f (t, y(t)).
dt dt ∂t ∂y
y 0(t) sin conocer explí-
citamente y (t
Ejemplo 2
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5,
h5
Solución Puesto que f (t, y) = y − t 2 + 1, tenemos ∂ f (t, y)/∂ y = 1 para todas las y
lo que L 5 y(t) = (t + 1)2 − 0.5et , por lo que
y (t) = 2 − 0.5e t
h5 L5
M = 0.5e2 − 2 da
Por lo tanto
t
204 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
Tabla 5.2
ti 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
Error real 0.02930 0.06209 0.09854 0.13875 0.18268 0.23013 0.28063 0.33336 0.38702 0.43969
Cota de error 0.03752 0.08334 0.13931 0.20767 0.29117 0.39315 0.51771 0.66985 0.85568 1.08264
-
h
w 0 = α,
w i+1 = w i + h f (ti , w i ), para cada i = 0, 1, . . . , N − 1,
yi en un punto de malla ti
u 0 = α + δ0 ,
u i+1 = u i + h f (ti , u i ) + δi+1 , para cada i = 0, 1, . . . , N − 1,
yi
1 hM δ
|y(ti ) − u i | ≤ + [e L(ti −a) − 1] + |δ0 |e L(ti −a) ,
L 2 h
para cada i = 0, 1, . . . , N
hM δ
lím + = ∞,
h→0 2 h
h
h
E(h) = (h M/2) + (δ/ h) implica que E (h) = (M/2) − (δ/ h 2 ):
2δ
h= .
M
5.3 Métodos de Taylor de orden superior 205
-
error de
truncamiento local
-
Definición 5.11
w0 = α
w i+1 = w i + hφ(ti , w i ), para cada i = 0, 1, . . . , N − 1,
i-ésimo paso
yi+1 − yi
τi+1 (h) = − f (ti , yi ), para cada i = 0, 1, . . . , N − 1.
h
Este error es un error local
tiene
h
τi+1 (h) = y (ξi ), para algunas ξi en(ti , ti+1 ).
2
O(hp) para un
valor de p
n para aproximar
n
y(t) para el problema de valor inicial
el conocimiento de la derivada en y = f (t, y), a ≤ t ≤ b, y(a) = α,
un nodo para aproximar el valor
tiene (n 1 y(t
ti ti+1
ξi en (ti , ti+1 ).
y(t
y (t) = f (t, y(t)), y (t) = f (t, y(t)), y, en general, y (k) (t) = f (k−1) (t, y(t)).
h2
y(ti+1 ) = y(ti ) + h f (ti , y(ti )) + f (ti , y(ti )) + · · ·
2
h n (n−1) h n+1
+ f (ti , y(ti )) + f (n) (ξi , y(ξi )).
n! (n + 1)!
w 0 = α,
w i+1 = w i + hT (n) (ti , w i ), para cada i = 0, 1, . . . , N − 1,
donde
h h n−1 (n−1)
T (n) (ti , w i ) = f (ti , w i ) + f (ti , w i ) + · · · + f (ti , w i ).
2 n!
Ejemplo 1 a b N5
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5.
por lo que
h h
T (2) (ti , w i ) = f (ti , w i ) + f (ti , w i ) = w i − ti2 + 1 + (w i − ti2 + 1 − 2ti )
2 2
h
= 1+ (w i − ti2 + 1) − hti .
2
w 0 = 0.5,
h
w i+1 = w i + h 1+ w i − ti2 + 1 − hti
2
0.2
= w i + 0.2 1+ (w i − 0.04i 2 + 1) − 0.04i
2
= 1.22w i − 0.0088i 2 − 0.008i + 0.22.
Los primeros dos pasos dan las aproximaciones
Tabla 5.3
Orden 2 y(0.4) ≈ w 2 = 1.22(0.83) − 0.0088(0.2)2 − 0.008(0.2) + 0.22 = 1.2158.
de Taylor Error
ti wi |y(ti ) − w i |
0.0 0.500000 0 b
0.2 0.830000 0.000701 f (t, y(t)) respecto a t. y = y − t 2 + 1, tenemos
0.4 1.215800 0.001712
0.6 1.652076 0.003135 f (t, y(t)) = y − t 2 + 1 − 2t,
0.8 2.132333 0.005103 d
1.0 2.648646 0.007787 f (t, y(t)) = (y − t 2 + 1 − 2t) = y − 2t − 2
1.2 3.191348 0.011407 dt
1.4 3.748645 0.016245 = y − t 2 + 1 − 2t − 2 = y − t 2 − 2t − 1,
1.6 4.306146 0.022663
1.8 4.846299 0.031122 y
2.0 5.347684 0.042212 d
f (t, y(t)) = (y − t 2 − 2t − 1) = y − 2t − 2 = y − t 2 − 2t − 1,
dt
por lo que
h h2 h3
T (4) (ti , w i ) = f (ti , w i ) + f (ti , w i ) + f (ti , w i ) + f (ti , w i )
2 6 24
h h2
= w i − ti2 + 1 + (w i − ti2 + 1 − 2ti ) + (w i − ti2 − 2ti − 1)
2 6
h3
+ (w i − ti2 − 2ti − 1)
24
h h2 h3 h h2
= 1+ + + (w i − ti2 ) − 1 + + (hti )
2 6 24 3 12
h h2 h3
+1+ − − .
2 6 24
208 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
w 0 = 0.5,
h h2 h3 h h2
w i+1 = w i + h 1+ + + (w i − ti2 ) − 1 + + hti
2 6 24 3 12
h h2 h3
+1+ − − ,
2 6 24
para i = 0, 1, . . . , N − 1.
Puesto que N = 10 y h = 0.2, el método se vuelve
0.2 0.04 0.008
w i+1 = w i + 0.2 1+ + + (w i − 0.04i 2 )
2 6 24
0.2 0.04 0.2 0.04 0.008
− 1+ + (0.04i) + 1 + − −
3 12 2 6 24
= 1.2214w i − 0.008856i 2 − 0.00856i + 0.2186,
Tabla 5.4
Orden 4 y(0.4) ≈ w 2 = 1.2214(0.8293) − 0.008856(0.2)2 − 0.00856(0.2) + 0.2186 = 1.214091.
de Taylor Error
ti wi |y(ti ) − w i |
0.0 0.500000 0 -
0.2 0.829300 0.000001
0.4 1.214091 0.000003
0.6 1.648947 0.000006
0.8 2.127240 0.000010
1.0 2.640874 0.000015 t5
1.2 3.179964 0.000023
1.4 3.732432 0.000032 t5 t5
1.6 4.283529 0.000045
1.8 4.815238 0.000062 1.25 − 1.4 1.25 − 1.2
2.0 5.305555 0.000083 y(1.25) ≈ 3.1799640 + 3.7324321 = 3.3180810.
1.2 − 1.4 1.4 − 1.2
El verdadero valor es y 5
y -
ciones para y9 y9 y y -
requiere tanto el valor de la nes para y y -
y (t) = f (t, y(t))
y (t) = y(t) − t 2 + 1, por lo que
para aproximar ecuaciones
y (1.2) = y(1.2) − (1.2)2 + 1 ≈ 3.1799640 − 1.44 + 1 = 2.7399640
-
5.4 Método Runge-Kutta 209
por lo que
Teorema 5.12 n
con tamaño de paso h y ∈ C n+1 [a, b], entonces el error de truncamiento local es O(h n ).
Demostración
h2 h n (n−1) h n+1
yi+1 − yi − h f (ti , yi ) − f (ti , yi ) − · · · − f (ti , yi ) = f (n) (ξi , y(ξi )),
2 n! (n + 1)!
ξi en (ti , ti+1 )
yi+1 − yi hn
τi+1 (h) = − T (n) (ti , yi ) = f (n) (ξi , y(ξi )),
h (n + 1)!
para cada i = 0, 1, . . . , N − 1. Puesto que y ∈ C n+1 [a, b], tenemos y (n+1) (t) =
f (n) (t, y(t)) [ a, b] y τi (h) = O(h n ), para cada i = 1, 2, . . . , N .
-
f (t y
ía
Los métodos Runge-Kutta tienen el error de truncamiento local de orden superior a los
f (t y
210 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
Teorema 5.13 f (t y n1 -
tinuas en D = { (t, y) | a ≤ t ≤ b, c ≤ y ≤ d } (t0 , y0 ) ∈ D (t, y) ∈ D,
existe j entre t t μ entre y y con
n+1
1 n+1 ∂ n+1 f
Rn (t, y) = (t − t0 )n+1− j (y − y0 ) j n+1− j j (ξ, µ).
(n + 1)! j=0
j ∂t ∂y
(t − 2)2 (y − 3)2
f (t, y) = exp − − cos(2t + y − 7).
4 4
(t − 2)2 (y − 3)2
f (t, y) = exp − exp − cos(2(t − 2) + (y − 3))
4 4
2 /4−02 /4)
f (2, 3) = e(−0 cos(4 + 3 − 7) = 1,
∂f (t − 2)2 (y − 3)2 1
(t, y) = exp − exp − (t − 2) cos(2(t − 2) + (y − 3))
∂t 4 4 2
1
+ (sen(2(t − 2) + (y − 3))
2
∂f
(2, 3) = 0,
∂t
∂f (t − 2)2 (y − 3)2 1
(t, y) = exp − exp − (y − 3) cos(2(t − 2)
∂y 4 4 2
∂f
(2, 3) = 0,
∂y
5.4 Método Runge-Kutta 211
∂2 f 9
(2, 3) = − ,
∂t 2 2
∂2 f (t − 2)2 (y − 3)2 3 (y − 3)2
(t, y) = exp − exp − − +
∂ y2 4 4 2 4
∂2 f 3
(2, 3) = − ,
∂ y2 2
Por lo que,
∂f ∂f (t − 2)2 ∂ 2 f
P2 (t, y) = f (2, 3) + (t − 2) (2, 3) + (y − 3) (2, 3) + (2, 3)
∂t ∂y 2 ∂t 2
∂2 f (y − 3) ∂ 2 f
+ (t − 2)(y − 3) (2, 3) + (2, 3)
∂t∂ y 2 ∂ y2
9 3
= 1 − (t − 2)2 − 2(t − 2)(y − 3) − (y − 3)2 .
4 4
P2 (t, y)
Figura 5.5 9 3
P2(t, y) 5 12 (t 2 2)2 2 2(t 2 2)( y 2 3) 2 ( y 2 3)2
4 4
t
f(t, y)
h
T (2) (t, y) = f (t, y) + f (t, y),
2
O(h
df ∂f ∂f
f (t, y) = (t, y) = (t, y) + (t, y) · y (t) y y (t) = f (t, y),
dt ∂t ∂y
tenemos
h ∂f h ∂f
T (2) (t, y) = f (t, y) + (t, y) + (t, y) · f (t, y).
2 ∂t 2 ∂y
Al expandir f (t + α1 , y + β1 ) t y)
obtenemos
∂f
a1 f (t + α1 , y + β1 ) = a1 f (t, y) + a1 α1 (t, y)
∂t
∂f
+ a 1 β1 (t, y) + a1 · R1 (t + α1 , y + β1 ),
∂y
donde
α12 ∂ 2 f ∂2 f β12 ∂ 2 f
R1 (t + α1 , y + β1 ) = (ξ, µ) + α 1 β1 (ξ, µ) + (ξ, µ),
2 ∂t 2 ∂t∂ y 2 ∂ y2
j entre t t + α1 y µ entre y y + β1 .
f -
mos las tres ecuaciones
∂f h ∂f h
f (t, y) : a1 = 1; (t, y) : a1 α1 = ; y (t, y) : a1 β1 = f (t, y).
∂t 2 ∂y 2
Los parámetros a1 , α1 , y β1
h h
a1 = 1, α1 = , y β1 = f (t, y),
2 2
por lo que
h h h h
T (2) (t, y) = f t+ , y + f (t, y) − R1 t + , y + f (t, y) ,
2 2 2 2
h h h2 ∂ 2 f h2 ∂2 f
R1 t + , y + f (t, y) = (ξ, µ) + f (t, y) (ξ, µ)
2 2 8 ∂t 2 4 ∂t∂ y
h2 ∂2 f
+ ( f (t, y))2 2 (ξ, µ).
8 ∂y
5.4 Método Runge-Kutta 213
h h
R1 t + , y + f (t, y)
2 2
es O(h
a1 f (t + α1 , y + β1 ) -
T
h h2
T (3) (t, y) = f (t, y) + f (t, y) + f (t, y)
2 6
es
2
h2 ∂ f
(t, y) f (t, y),
6 ∂y
(h 2 /6) f (t, y)
O(h
-
O(h
los más importantes es el
a1 = a2 = 12 y α2 = δ2 = h.
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5.
214 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
Solución
Para cada i = 0, 1, . . . , 9. Los primeros dos pasos de estos métodos nos dan
f (t + α1 , y + δ1 f (t + α2 , y + δ2 f (t, y))),
α1 , δ1 , α2
δ2 O(h ) más común es el
w0 = α
esta técnica en un artículo
2h 2h
w i+1 = w i + h
4
f (ti , w i ) + 3 f ti + 3
, wi + 3
f ti + h3 , w i + h
3
f (ti , w i ) ,
para i = 0, 1, . . . , N − 1.
5.4 Método Runge-Kutta 215
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5,
Runge-Kutta de orden 4
w 0 = α,
k1 = h f (ti , w i ),
h 1
k2 = h f ti + , w i + k1 ,
2 2
h 1
k3 = h f ti + , w i + k2 ,
2 2
k4 = h f (ti+1 , w i + k3 ),
1
w i+1 = w i + (k1 + 2k2 + 2k3 + k4 ),
6
para cada i = 0, 1, . . . , N − 1. Este método tiene error de truncamiento local O(h ) siem-
y(t
k k k k
de f (t y
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5.
Solución y
w 0 = 0.5
k1 = 0.2 f (0, 0.5) = 0.2(1.5) = 0.3
k2 = 0.2 f (0.1, 0.65) = 0.328
k3 = 0.2 f (0.1, 0.664) = 0.3308
k4 = 0.2 f (0.2, 0.8308) = 0.35816
1
w 1 = 0.5 + (0.3 + 2(0.328) + 2(0.3308) + 0.35816) = 0.8292933.
6
Comparaciones computacionales
de f O(h
O(h
de paso h h/2.
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5,
-
adapta-
el material sobre cuadratura
bles
y(t
inicial
w i+1 = w i + h i φ(ti , w i , h i ), i = 0, 1, . . . , N − 1,
y(t
w0 = α
w i+1 = w i + hφ(ti , w i , h), para i > 0.
5.5 Control de error y método Runge-Kutta-Fehlberg 219
n1
w̃ 0 = α
w̃ i+1 = w̃ i + h φ̃(ti , w̃ i , h), para i > 0.
y(ti+1 ) − y(ti )
τi+1 (h) = − φ(ti , y(ti ), h)
h
y(ti+1 ) − w i
= − φ(ti , w i , h)
h
y(ti+1 ) − [w i + hφ(ti , w i , h)]
=
h
1
= (y(ti+1 ) − w i+1 ).
h
1
τ̃i+1 (h) = (y(ti+1 ) − w̃ i+1 ).
h
1
τi+1 (h) = (y(ti+1 ) − w i+1 )
h
1
= [(y(ti+1 ) − w̃ i+1 ) + (w̃ i+1 − w i+1 )]
h
1
= τ̃i+1 (h) + (w̃ i+1 − w i+1 ).
h
Pero τi+1 (h) es O(h n ) y τ̃i+1 (h) es O(h n+1 ) τi+1 (h)
debe provenir de
1
(w̃ i+1 − w i+1 ) .
h
1
τi+1 (h) ≈ (w̃ i+1 − w i+1 ) .
h
-
mimos que como τi+1 (h) es O(hn K h
τi+1 (h) ≈ K h n .
220 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
qn
τi+1 (qh) ≈ K (qh)n = q n (K h n ) ≈ q n τi+1 (h) ≈ (w̃ i+1 − w i+1 ).
h
qn
|w̃ i+1 − w i+1 | ≈ |τi+1 (qh)| ≤ ε,
h
1/n 1/n
εh
q≤ = .
|w̃ i+1 − w i+1 | R
Método Runge-Kutta-Fehlberg
método Runge-
Kutta-Fehlberg
16 6656 28561 9 2
w̃ i+1 = w i + k1 + k3 + k4 − k5 + k6 ,
135 12825 56430 50 55
25 1408 2197 1
w i+1 = w i + k1 + k3 + k4 − k5 ,
216 2565 4104 5
k1 = h f (ti , w i ),
h 1
k2 = h f ti + , w i + k1 ,
4 4
3h 3 9
k3 = h f ti + , w i + k1 + k2 ,
8 32 32
12h 1932 7200 7296
k4 = h f ti + , wi + k1 − k2 + k3 ,
13 2197 2197 2197
439 3680 845
k5 = h f ti + h, w i + k1 − 8k2 + k3 − k4 ,
216 513 4104
h 8 3544 1859 11
k6 = h f ti + , w i − k1 + 2k2 − k3 + k4 − k5 .
2 27 2565 4104 40
• Cuando R h en el i-ésimo
cálculos mediante qh
• Cuando R ≤ i-ésimo paso mediante el tamaño de
paso h, pero cambiamos el tamaño de paso para qh para el (i
q
n5
Paso 1 Determine t = a;
w = α;
h = hmáx;
FLAG = 1;
SALIDA (t, w).
Paso 2 Mientras (FLAG = 1) haga los pasos 3–11.
Paso 3 Determine K 1 = h f (t, w);
K 2 = h f t + 14 h, w + 14 K 1 ;
K 3 = h f t + 38 h, w + 3
K
32 1
+ 9
K
32 2
;
12 1932 7200 7296
K4 = h f t + 13
h, w + K
2197 1
− K
2197 2
+ K
2197 3
;
439 3680 845
K 5 = h f t + h, w + K
216 1
− 8K 2 + 513
K3 − K
4104 4
;
K 6 = h f t + 12 h, w − 8
K
27 1
+ 2K 2 − 3544
K
2565 3
+ 1859
K
4104 4
− 11
K
40 5
.
222 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
Ejemplo 1 TOL 5 2
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5,
Solución -
t 5
w 5 w mediante w usando h 5
y
1 8 3544 1859 11
k6 = hf t0 + h, w 0 − k1 + 2k2 − k3 + k4 − k5
2 27 2565 4104 40
8 3544 1859
= 0.25 f 0.125, 0.5 − 0.375 + 2(0.3974609) − 0.4095383 + 0.4584971
27 2565 4104
11
− 0.4658452
40
= 0.4204789.
y
25 1408 2197 1
w1 = w0 + k1 + k3 + k4 − k5
216 2565 4104 5
25 1408 2197 1
= 0.5 + 0.375 + 0.4095383 + 0.4584971 − 0.4658452
216 2565 4104 5
= 0.9204886.
y
1/4
ε 1/4 0.00001
q = 0.84 = 0.84 = 0.9461033291.
R 0.00000621388
224 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
conservador al calcular q.
t
t
Tabla 5.11
RKF-4 RKF-5
ti yi = y(ti ) wi hi Ri |yi − w i | ŵ i |yi − ŵ i |
0 0.5 0.5 0.5
0.2500000 0.9204873 0.9204886 0.2500000 6.2 × 10−6 1.3 × 10−6 0.9204870 2.424 × 10−7
0.4865522 1.3964884 1.3964910 0.2365522 4.5 × 10−6 2.6 × 10−6 1.3964900 1.510 × 10−6
0.7293332 1.9537446 1.9537488 0.2427810 4.3 × 10−6 4.2 × 10−6 1.9537477 3.136 × 10−6
0.9793332 2.5864198 2.5864260 0.2500000 3.8 × 10−6 6.2 × 10−6 2.5864251 5.242 × 10−6
1.2293332 3.2604520 3.2604605 0.2500000 2.4 × 10−6 8.5 × 10−6 3.2604599 7.895 × 10−6
1.4793332 3.9520844 3.9520955 0.2500000 7 × 10−7 1.11 × 10−5 3.9520954 1.096 × 10−5
1.7293332 4.6308127 4.6308268 0.2500000 1.5 × 10−6 1.41 × 10−5 4.6308272 1.446 × 10−5
1.9793332 5.2574687 5.2574861 0.2500000 4.3 × 10−6 1.73 × 10−5 5.2574871 1.839 × 10−5
2.0000000 5.3054720 5.3054896 0.0206668 1.77 × 10−5 5.3054896 1.768 × 10−5
t0 , t1 , . . . , ti
ti+1 |w j − y(t j )| tiende a incrementar
con j
ti+1
Los método
multipasos
5.6 Métodos multipasos 225
Definición 5.14 método multipasos de paso m para resolver el problema de valor inicial
w 0 = α, w 1 = α1 , w 2 = α2 , w 3 = α3 ,
h
w i+1 = w i + [55 f (ti , w i ) − 59 f (ti−1 , w i−1 ) + 37 f (ti−2 , w i−2 ) − 9 f (ti−3 , w i−3 )],
24
w 0 = α, w 1 = α1 , w 2 = α2 ,
h
w i+1 = w i + [9 f (ti+1 , w i+1 ) + 19 f (ti , w i ) − 5 f (ti−1 , w i−1 ) + f (ti−2 , w i−2 )],
24
w0 = α
Ejemplo 1
h5
inicial
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5.
226 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
Solución
0.2
y(0.8) ≈ w 4 = w 3 + (55 f (0.6, w 3 ) − 59 f (0.4, w 2 ) + 37 f (0.2, w 1 ) − 9 f (0, w 0 ))
24
0.2
= 1.6489220 + (55 f (0.6, 1.6489220) − 59 f (0.4, 1.2140762)
24
+ 37 f (0.2, 0.8292933) − 9 f (0, 0.5))
= 1.6489220 + 0.0083333(55(2.2889220) − 59(2.0540762)
+ 37(1.7892933) − 9(1.5))
= 2.1272892
y
0.2
y(1.0) ≈ w 5 = w 4 + (55 f (0.8, w 4 ) − 59 f (0.6, w 3 ) + 37 f (0.4, w 2 ) − 9 f (0.2, w 1 ))
24
0.2
= 2.1272892 + (55 f (0.8, 2.1272892) − 59 f (0.6, 1.6489220)
24
+ 37 f (0.4, 1.2140762) − 9 f (0.2, 0.8292933))
= 2.1272892 + 0.0083333(55(2.4872892) − 59(2.2889220)
+ 37(2.0540762) − 9(1.7892933))
= 2.6410533.
ti+1
y(ti+1 ) = y(ti ) + f (t, y(t)) dt.
ti
5.6 Métodos multipasos 227
ti+1
y(ti+1 ) ≈ w i + P(t) dt.
ti
-
-
(ti , f (ti , y(ti ))), (ti−1 , f (ti−1 , y(ti−1 ))), . . . , (ti+1−m , f (ti+1−m , y(ti+1−m ))).
1 −s
Tabla 5.12 (−1)k 0 k
k
k5
1
−s
k (−1)k ds 1
−s 1
(−s)(−s − 1)(−s − 2)
0 k (−1)3 ds = − ds
0 3 0 1·2·3
0 1 1
1
1 = (s 3 + 3s 2 + 2s) ds
1 6 0
2
1
5 1 s4 1 9 3
2 = + s3 + s2 = =
12
.
6 4 0 6 4 8
3
3
8
251
4
720 ti+1
1 5
95 f (t, y(t)) dt = h f (ti , y(ti )) + ∇ f (ti , y(ti )) + ∇ 2 f (ti , y(ti )) + · · ·
5 ti 2 12
288
1
h m+1
+ s(s + 1) · · · (s + m − 1) f (m) (ξi , y(ξi )) ds.
m! 0
228 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
1
−s
h m+1 f (m) (µi , y(µi ))(−1)m ds.
0 m
ti+1
y(ti+1 ) − y(ti ) = ti f (t, y(t)) dt
escribir como
1 5
y(ti+1 ) = y(ti ) + h f (ti , y(ti )) + ∇ f (ti , y(ti )) + ∇ 2 f (ti , y(ti )) + · · ·
2 12
1
−s
+ h m+1 f (m) (µi , y(µi ))(−1)m ds.
0 m
Ejemplo 2 m5
Solución Tenemos
1 5
y(ti+1 ) ≈ y(ti ) + h f (ti , y(ti )) + ∇ f (ti , y(ti )) + ∇ 2 f (ti , y(ti ))
2 12
1
= y(ti ) + h f (ti , y(ti )) + [ f (ti , y(ti )) − f (ti−1 , y(ti−1 ))]
2
5
+ [ f (ti , y(ti )) − 2 f (ti−1 , y(ti−1 )) + f (ti−2 , y(ti−2 ))]
12
h
= y(ti ) + [23 f (ti , y(ti )) − 16 f (ti−1 , y(ti−1 )) + 5 f (ti−2 , y(ti−2 ))].
12
w 0 = α, w 1 = α1 , w 2 = α2 ,
h
w i+1 = w i + [23 f (ti , w i ) − 16 f (ti−1 , w i−1 )] + 5 f (ti−2 , w i−2 )],
12
para i = 2, 3, . . . , N − 1.
para cada i = m − 1, m, . . . , N − 1.
Ejemplo 3
Solución -
1
−s 3h 4 (3)
h 4 f (3) (µi , y(µi ))(−1)3 ds = f (µi , y(µi )).
0 3 8
y(ti+1 ) − y(ti ) 1
τi+1 (h) = − [23 f (ti , y(ti )) − 16 f (ti−1 , y(ti−1 )) + 5 f (ti−2 , y(ti−2 ))]
h 12
1 3h 4 (3) 3h 3 (4)
= f (µi , y(µi )) = y (µi ), para algunos µi ∈ (ti−2 , ti+1 ).
h 8 8
w 0 = α, w 1 = α1 ,
h
w i+1 = w i + [3 f (ti , w i ) − f (ti−1 , w i−1 )],
2
5
donde i = 1, 2, . . . , N − 1. El error de truncamiento local es τi+1 (h) = 12
y (µi )h 2
µi ∈ (ti−1 , ti+1 ).
w 0 = α, w 1 = α1 , w 2 = α2 ,
h
w i+1 = w i + [23 f (ti , w i ) − 16 f (ti−1 , w i−1 ) + 5 f (ti−2 , w i−2 )],
12
w 0 = α, w 1 = α1 , w 2 = α2 , w 3 = α3 ,
h
w i+1 = w i + [55 f (ti , w i ) − 59 f (ti−1 , w i−1 ) + 37 f (ti−2 , w i−2 ) − 9 f (ti−3 , w i−3 )],
24
251 (5)
donde i = 3, 4, . . . , N − 1. El error de truncamiento local es τi+1 (h) = 720
y (µi )h 4
µi ∈ (ti−3 , ti+1 ).
w 0 = α, w 1 = α1 , w 2 = α2 , w 3 = α3 , w 4 = α4 ,
h
w i+1 = w i + [1901 f (ti , w i ) − 2774 f (ti−1 , w i−1 )
720
+ 2616 f (ti−2 , w i−2 ) − 1274 f (ti−3 , w i−3 ) + 251 f (ti−4 , w i−4 )],
95 (6)
donde i = 4, 5, . . . , N − 1. El error de truncamiento local es τi+1 (h) = 288
y (µi )h 5
µi ∈ (ti−4 , ti+1 ).
ti+1
f (t, y(t)) dt.
ti
w 0 = α, w 1 = α1 ,
h
w i+1 = w i + [5 f (ti+1 , w i+1 ) + 8 f (ti , w i ) − f (ti−1 , w i−1 )],
12
1 (4)
donde i = 1, 2, . . . , N − 1. El error de truncamiento local es τi+1 (h) = − 24 y (µi )h 3
µi ∈ (ti−1 , ti+1 ).
w 0 = α, w 1 = α1 , w 2 = α2 ,
h
w i+1 = w i + [9 f (ti+1 , w i+1 ) + 19 f (ti , w i ) − 5 f (ti−1 , w i−1 ) + f (ti−2 , w i−2 )],
24
19 (5)
donde i = 2, 3, . . . , N − 1. El error de truncamiento local es τi+1 (h) = − 720 y (µi )h 4
µi ∈ (ti−2 , ti+1 ).
5.6 Métodos multipasos 231
w 0 = α, w 1 = α1 , w 2 = α2 , w 3 = α3 ,
h
w i+1 = w i + [251 f (ti+1 , w i+1 ) + 646 f (ti , w i ) − 264 f (ti−1 , w i−1 )
720
+ 106 f (ti−2 , w i−2 ) − 19 f (ti−3 , w i−3 )],
3 (6)
donde i = 3, 4, . . . , N − 1. El error de truncamiento local es τi+1 (h) = − 160 y (µi )h 5
µi ∈ (ti−3 , ti+1 ).
m pasos con un
método implícito de Adams-Moulton de (m 2 f
y (m+1) (µi )h m
f en el error de truncamiento local
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5.
Solución a)
h
w i+1 = w i + [55 f (ti , w i ) − 59 f (ti−1 , w i−1 ) + 37 f (ti−2 , w i−2 ) − 9 f (ti−3 , w i−3 )],
24
1
w i+1 = [35w i − 11.8w i−1 + 7.4w i−2 − 1.8w i−3 − 0.192i 2 − 0.192i + 4.736].
24
b)
h
w i+1 = w i + [9 f (ti+1 , w i+1 ) + 19 f (ti , w i ) − 5 f (ti−1 , w i−1 ) + f (ti−2 , w i−2 )],
24
para i = 2, 3, . . . , 9. Esto se reduce a
1
w i+1 = [1.8w i+1 + 27.8w i − w i−1 + 0.2w i−2 − 0.192i 2 − 0.192i + 4.736].
24
-
w i+1 . Esto nos da
1
w i+1 = [27.8w i − w i−1 + 0.2w i−2 − 0.192i 2 − 0.192i + 4.736],
22.2
para i = 2, 3, . . . , 9.
Métodos indicador-corrector
En el ejemplo 4, el método Adams–Moulton da mejores resultados que el método explícito
de Adams–Bashforth del mismo orden. A pesar de que, en general, es el caso, los métodos
implícitos tienen la debilidad inherente de tener que convertir primero el método de manera
algebraica para una representación explícita de w i+1. Este procedimiento no siempre es po-
sible, como se observa al considerar el problema fundamental de valor inicial
y = ey , 0 ≤ t ≤ 0.25, y(0) = 1.
h
w i+1 = w i + [9ew i+1 + 19ew i − 5ew i−1 + ew i−2 ]
24
como ecuación de diferencia y esta ecuación no se puede resolver de manera algebraica para
w i+1.
Podríamos usar el método de Newton o el método de secante para aproximar w i+1, pero
esto complica considerablemente el procedimiento. En la práctica, los métodos implícitos
multipasos no se utilizan de acuerdo con lo descrito antes. Más bien, se usan para mejorar
las aproximaciones obtenidas con los métodos explícitos. La combinación de un método
explícito para predecir y uno implícito para mejorar la predicción recibe el nombre de
método indicador-corrector.
Considere el siguiente método de cuarto orden para resolver un problema de valor ini-
cial. El primer paso es calcular los valores iniciales w0, w1, w2 y w3 para el método de cuatro
pasos de Adams–Bashforth. Para hacerlo usamos el método de un paso de cuarto orden, el
método Runge-Kutta de cuarto orden. Lo siguiente es calcular una aproximación w4p, para
y(t4) por medio del método explícito de Adams-Bashforth como indicador:
h
w4p = w3 + [55 f (t3 , w 3 ) − 59 f (t2 , w 2 ) + 37 f (t1 , w 1 ) − 9 f (t0 , w 0 )].
24
Esta aproximación mejora al insertar w4p en el lado derecho del método implícito de tres
pasos de Adams–Moulton y usar ese método como corrector. Esto nos da
h
w4 = w3 + [9 f (t4 , w 4 p ) + 19 f (t3 , w 3 ) − 5 f (t2 , w 2 ) + f (t1 , w 1 )].
24
Ejemplo 5 Aplique el método indicador-corrector de cuarto orden de Adams con h 5 0.2 y los valores
iniciales del método de cuarto orden de Runge-Kutta para el problema de valor inicial
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5.
Solución
al inicio de la sección. En ese ejemplo, encontramos que las aproximaciones de inicio a partir
de Runge-Kutta son
0.2
y(0.8) ≈ w 4 p = w 3 + (55 f (0.6, w 3 ) − 59 f (0.4, w 2 ) + 37 f (0.2, w 1 ) − 9 f (0, w 0 ))
24
0.2
= 1.6489220 + (55 f (0.6, 1.6489220) − 59 f (0.4, 1.2140762)
24
+ 37 f (0.2, 0.8292933) − 9 f (0, 0.5))
= 1.6489220 + 0.0083333(55(2.2889220) − 59(2.0540762)
+ 37(1.7892933) − 9(1.5))
= 2.1272892.
0.2
y(0.8) ≈ w 4 = w 3 + 9 f (0.8, w 4 p ) + 19 f (0.6, w 3 ) − 5 f (0.4, w 2 ) + f (0.2, w 1 )
24
0.2
= 1.6489220 + (9 f (0.8, 2.1272892) + 19 f (0.6, 1.6489220)
24
− 5 f (0.4, 1.2140762) + f (0.2, 0.8292933))
= 1.6489220 + 0.0083333(9(2.4872892) + 19(2.2889220) − 5(2.0540762)
+ (1.7892933))
= 2.1272056.
Ahora utilizamos esta aproximación para determinar el indicador w5p, para y(1.0) como
0.2
y(1.0) ≈ w 5 p = w 4 + (55 f (0.8, w 4 ) − 59 f (0.6, w 3 ) + 37 f (0.4, w 2 ) − 9 f (0.2, w 1 ))
24
0.2
= 2.1272056 + (55 f (0.8, 2.1272056) − 59 f (0.6, 1.6489220)
24
+ 37 f (0.4, 1.2140762) − 9 f (0.2, 0.8292933))
= 2.1272056 + 0.0083333(55(2.4872056) − 59(2.2889220)
+ 37(2.0540762) − 9(1.7892933))
= 2.6409314
5.6 Métodos multipasos 235
0.2
y(1.0) ≈ w 5 = w 4 + 9 f (1.0, w 5 p ) + 19 f (0.8, w 4 ) − 5 f (0.6, w 3 ) + f (0.4, w 2 )
24
0.2
= 2.1272056 + (9 f (1.0, 2.6409314) + 19 f (0.8, 2.1272892)
24
− 5 f (0.6, 1.6489220) + f (0.4, 1.2140762))
= 2.1272056 + 0.0083333(9(2.6409314) + 19(2.4872056) − 5(2.2889220)
+ (2.0540762))
= 2.6408286.
que tiene un error de truncamiento local −(h 4 /90)y (5) (ξi ), para algunos ξi ∈ (ti−1 , ti+1 ), y
se obtiene al integrar un polinomio de interpolación sobre [ ti−1 , ti+1 ].
236 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
h
y(ti+1 ) = y(ti ) + [55 f (ti , y(ti )) − 59 f (ti−1 , y(ti−1 ))
24
251 (5)
+ 37 f (ti−2 , y(ti−2 )) − 9 f (ti−3 , y(ti−3 ))] + y (µ̂i )h 5 ,
720
para algunos µ̂i ∈ (ti−3 , ti+1 ). La suposición de que las aproximaciones w 0 , w 1 , . . . , w i son
todas exactas, implica que el error de truncamiento local Adams-Bashforth es
w i+1 − w p,i+1 h4 3
= [251y (5) (µ̂i ) + 19y (5) (µ̃i )] ≈ h 4 y (5) (µ̃i ),
h 720 8
5.7 Método multipasos de tamaño de paso variable 237
por lo que
8
y (5) (µ̃i ) ≈ (w i+1 − w p,i+1 ). (5.42)
3h 5
El uso de este resultado para eliminar el término relacionado con y (5) (µ̃i )h 4 a partir de la
ecuación (5.41) provee la aproximación para el error de truncamiento local Adams-Moulton
Suponga que ahora reconsideramos (ecuación 5.41) con un nuevo tamaño de paso qh al
generar aproximaciones nuevas ŵ p,i+1 y ŵ i+1 . El objetivo es seleccionar q de tal forma que
el error de truncamiento local provisto en la ecuación (5.41) esté acotada por una tolerancia
prescrita ε. Si suponemos que el valor y (5) (µ) en la ecuación (5.41) relacionado con qh tam-
bién se aproxima mediante la ecuación (5.42), entonces
Además, a q suele asignársele una cota superior para garantizar que una aproximación pre-
cisa única poco común no resulte en un tamaño de paso demasiado grande. El algoritmo 5.5
incluye esta protección con una cota superior de 4.
Recuerde que los métodos multipasos requieren tamaños de paso iguales para los valo-
res iniciales. Por lo que cualquier cambio en el tamaño de paso necesita recalcular de nuevo
los valores iniciales en ese punto. En los pasos 3, 16 y 19 del algoritmo 5.5, esto se hace
238 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
Ejemplo 1 Utilice el método indicador-corrector de tamaño de paso variable de Adams con tamaño
máximo de paso hmáx 5 0.2, tamaño mínimo de paso hmín 5 0.01, y tolerancia TOL 5 1025
para aproximar la solución del problema de valor inicial
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5.
Solución Comenzamos con h 5 hmáx 5 0.2 y obtenemos w0, w1, w2, y w3 mediante Runge-
Kutta, a continuación encontramos wp4 y wc4 al aplicar el método indicador-corrector. Estos
cálculos se realizaron en el ejemplo 5 de la sección 5.6, donde se determinó que las aproxi-
maciones Runge-Kutta con
0.2
y(0.8) ≈ w 4c = w 3 + 9 f (0.8, w 4 p ) + 19 f (0.6, w 3 ) − 5 f (0.42, w 2 ) + f (0.2, w 1 )
24
= 2.1272056.
Puesto que esto excede la tolerancia de 1025, se necesita un tamaño de paso nuevo y éste es
1/4 1/4
10−5 10−5
qh = = (0.2) = 0.642(0.2) ≈ 0.128.
2δ 2(2.941 × 10−5 )
ver si tuvimos éxito. La tabla 5.15 muestra si esta segunda ejecución es exitosa y enumera
todos los resultados obtenidos en el algoritmo 5.5.
Esta técnica requiere dos valores iniciales w0 y w1 que se necesitan antes de que se pueda de-
terminar la primera aproximación del punto medio w2. Un valor inicial es la condición inicial
para w 0 = y(a) = α. Para determinar el segundo valor inicial, w1, aplicamos el método de
Euler. Las aproximaciones subsiguientes se obtienen a partir de la ecuación (5.43). Después
de generar una serie de aproximaciones de este tipo que terminan en un valor t, se realiza una
donde δk son constantes relacionadas con las derivadas de la solución y(t). El punto im-
portante es que δk no depende del tamaño de paso h. Los detalles de este procedimiento se
pueden encontrar en el artículo de Gragg [Gr].
Para ilustrar la técnica de extrapolación para resolver
w 1 = w 0 + h 0 f (a, w 0 ).
w 2 = w 0 + 2h 0 f (a + h 0 , w 1 ).
y(a + h) para el
tamaño de paso h0. Esto resulta en la aproximación O(h 20 ) para y(t1).
1
y1,1 = [w 2 + w 1 + h 0 f (a + 2h 0 , w 2 )].
2
w 1 = w 0 + h 1 f (a, w 0 ).
242 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
w 2 = w 0 + 2h 1 f (a + h 1 , w 1 ),
w 3 = w 1 + 2h 1 f (a + 2h 1 , w 2 ),
w 4 = w 2 + 2h 1 f (a + 3h 1 , w 3 ).
Ahora, se aplica la corrección del extremo para w3 y w4 para producir la aproximación me-
jorada O(h 21 ) para y(t1),
1
y2,1 = [w 4 + w 3 + h 1 f (a + 4h 1 , w 4 )].
2
Debido a la forma el error provisto en la ecuación (5.44), las dos aproximaciones para
y(a + h) tienen la propiedad de que
2 4
h h h2 h4
y(a + h) = y1,1 + δ1 + δ2 + · · · = y1,1 + δ1 + δ2 + ···
2 2 4 16
y
2 4
h h h2 h4
y(a + h) = y2,1 + δ1 + δ2 + · · · = y2,1 + δ1 + δ2 + ··· .
4 4 16 256
Podemos eliminar la parte O(h2) de este error de truncamiento al promediar las dos fórmulas
de manera adecuada. Especialmente, si restamos la primera fórmula a cuatro veces la segunda
y dividimos el resultado entre tres, obtenemos
1 h4
y(a + h) = y2,1 + (y2,1 − y1,1 ) − δ2 + ··· .
3 64
1
y2,2 = y2,1 + (y2,1 − y1,1 )
3
El algoritmo 5.6 utiliza nodos de El algoritmo 5.6 utiliza la técnica de extrapolación con la secuencia de enteros
la forma 2n y 2n ? 3. Es posible
usar otras opciones. q0 = 2, q1 = 4, q2 = 6, q3 = 8, q4 = 12, q5 = 16, q6 = 24 y q7 = 32.
ALGORITMO Extrapolación
5.6 Para aproximar la solución del problema de valor inicial
Ejemplo 1 Use el método de extrapolación con el tamaño de paso máximo hmáx 5 0.2, tamaño de paso
mínimo hmín 5 0.01 y tolerancia TOL 5 1029 para aproximar la solución del problema de
valor inicial
y = y − t 2 + 1, 0 ≤ t ≤ 2, y(0) = 0.5.
h 0 = h/2 = 0.1,
w 1 = w 0 + h 0 f (t0 , w 0 ) = 0.5 + 0.1(1.5) = 0.65,
1 1
y11 = (w 2 + w 1 + h 0 f (t0 + 2h 0 , w 2 )) = (0.828 + 0.65 + 0.1 f (0.2, 0.828))
2 2
= 0.8284.
h 1 = h/4 = 0.05,
w 1 = w 0 + h 1 f (t0 , w 0 ) = 0.5 + 0.05(1.5) = 0.575,
w 2 = w 0 + 2h 1 f (t0 + h 1 , w 1 ) = 0.5 + 0.1(1.5725) = 0.65725,
w 3 = w 1 + 2h 1 f (t0 + 2h 1 , w 2 ) = 0.575 + 0.1(1.64725) = 0.739725,
1
y21 = (w 4 + w 3 + h 1 f (t0 + 4h 1 , w 4 ))
2
1
= (0.8289725 + 0.739725 + 0.05 f (0.2, 0.8289725)) = 0.8290730625.
2
(1/4)2
y22 = y21 + (y21 − y11 ) = 0.8292974167.
(1/2)2 − (1/4)2
246 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
h 2 = h/6 = 0.03,
w 1 = w 0 + h 2 f (t0 , w 0 ) = 0.55,
w 2 = w 0 + 2h 2 f (t0 + h 2 , w 1 ) = 0.6032592593,
w 3 = w 1 + 2h 2 f (t0 + 2h 2 , w 2 ) = 0.6565876543,
w 4 = w 2 + 2h 2 f (t0 + 3h 2 , w 3 ) = 0.7130317696,
w 5 = w 3 + 2h 2 f (t0 + 4h 2 , w 4 ) = 0.7696045871,
w 6 = w 4 + 2h 2 f (t0 + 5h 2 , w 5 ) = 0.8291535569,
1
y31 = (w 6 + w 5 + h 2 f (t0 + 6h 2 , w 6 ) = 0.8291982979.
2
Ahora podemos encontrar dos aproximaciones extrapoladas
(1/6)2
y32 = y31 + (y31 − y21 ) = 0.8292984862
(1/4)2 − (1/6)2
(1/6)2
y33 = y32 + (y32 − y22 ) = 0.8292986199.
(1/2)2 − (1/6)2
Puesto que
-
polación. Usamos h 3 = h/8 = 0.025 y calculamos w1 con el método de Euler w 2 , · · · , w 8 ,
a través del método de punto medio y aplicamos la corrección del extremo. Esto nos propor-
cionará la aproximación nueva y41
Tabla 5.17
y1,1 = 0.8284000000
y2,1 = 0.8290730625 y2,2 = 0.8292974167
y3,1 = 0.8291982979 y3,2 = 0.8292984862 y3,3 = 0.8292986199
y4,1 = 0.8292421745 y4,2 = 0.8292985873 y4,3 = 0.8292986210 y4,4 = 0.8292986211
y5,1 = 0.8292735291 y5,2 = 0.8292986128 y5,3 = 0.8292986213 y5,4 = 0.8292986213 y5,5 = 0.8292986213
5.9 Ecuaciones de orden superior y sistemas de ecuaciones diferenciales 247
variables.
Definición 5.16 Se dice que la función f (t, y1 , . . . , ym )
D = {(t, u 1 , . . . , u m ) | a ≤ t ≤ b y − ∞ < u i < ∞, para cada i = 1, 2, . . . , m},
satisface la condición de Lipschitz en D en las variables u 1 , u 2 , . . . , u m si existe una cons-
tante L > 0 con
m
| f (t, u 1 , . . . , u m ) − f (t, z 1 , . . . , z m )| ≤ L |u j − z j |,
j=1 (5.47)
para todas las (t, u 1 , . . . , u m ) y (t, z 1 , . . . , z m ) en D.
Al usar el teorema de valor medio se puede mostrar que si f y sus primeras derivadas
parciales son continuas en D y si
∂ f (t, u 1 , . . . , u m )
≤ L,
∂u i
para cada i = 1, 2, . . . , m y todas las (t, u 1 , . . . , u m ) en D, entonces f satisface la condición
de Lipschitz en D con constante de Lipschitz L (consulte [BiR], p. 141). A continuación se
muestra un teorema de existencia y unicidad básico, su demostración se puede encontrar en
[BiR], p. 152-154.
Teorema 5.17 Suponga que
D = { (t, u 1 , u 2 , . . . , u m ) | a ≤ t ≤ b y − ∞ < u i < ∞, para cada i = 1, 2, . . . , m },
y f i (t, u 1 , . . . , u m ), para cada i = 1, 2, . . . , m y que es continua y satisface la condición
de Lipschitz en D. El sistema de ecuaciones diferenciales de primer orden (5.45), sujeto a
las condiciones iniciales (5.46), tiene una única solución u 1 (t), . . . , u m (t), para a ≤ t ≤ b.
Los métodos para resolver sistemas de ecuaciones diferenciales de primer orden son ge-
neralizaciones de los métodos de ecuaciones de primer orden simples que se han presentado
antes en este capítulo. Por ejemplo, el método clásico de Runge-Kutta de orden 4 dado por
w 0 = α,
k1 = h f (ti , w i ),
h 1
k2 = h f ti + , w i + k1 ,
2 2
h 1
k3 = h f ti + , w i + k2 ,
2 2
k4 = h f (ti+1 , w i + k3 ),
1
w i+1 = w i + (k1 + 2k2 + 2k3 + k4 ), para cada i = 0, 1, . . . , N − 1,
6
5.9 Ecuaciones de orden superior y sistemas de ecuaciones diferenciales 249
t j = a + j h, para cada j = 0, 1, . . . , N .
y y y
para cada i = 1, 2, . . . , m;
h 1 1 1
k3,i = h f i tj + , w 1, j + k2,1 , w 2, j + k2,2 , . . . , w m, j + k2,m , (5.51)
2 2 2 2
para cada i = 1, 2, . . . , m;
1
w i, j+1 = w i, j + (k1,i + 2k2,i + 2k3,i + k4,i ), (5.53)
6
para cada i = 1, 2, . . . , m . Observe que todos los valores k1,1 , k1,2 , . . . , k1,m deben calcu-
larse antes de que cualquiera de los términos de la forma k2,i se pueda determinar. En
general, cada kl,1 , kl,2 , . . . , kl,m se debe calcular antes que cualquiera de las expresiones kl+1,i.
El algoritmo 5.7 implementa el método Runge-Kutta de cuarto orden para sistemas de pro-
blemas de valor inicial.
250 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
Ilustración La ley de Kirchhoff establece que la suma de todos los cambios de voltaje alrededor de un
circuito cerrado es cero. Esta ley implica que la corriente I(t) en un circuito cerrado que con-
tiene una resistencia de R ohms, una capacitancia de C faradios, una inductancia de L henrios
y una fuente voltaje de E(t) volts satisface la ecuación
1
L I (t) + R I (t) + I (t) dt = E(t).
C
Las corrientes I1 (t) y I2 (t) en los ciclos izquierdo y derecho, respectivamente, del circuito
Figura 5.7
2V 0.5 F
I1(t) I2(t)
12 V 6V 4V
2H
Aplicaremos el método Runge-Kutta de orden 4 para este sistema con h 5 0.1. Puesto que
w 1,0 = I1 (0) = 0 y w 2,0 = I2 (0) = 0,
k1,1 = h f 1 (t0 , w 1,0 , w 2,0 ) = 0.1 f 1 (0, 0, 0) = 0.1 (−4(0) + 3(0) + 6) = 0.6,
k1,2 = h f 2 (t0 , w 1,0 , w 2,0 ) = 0.1 f 2 (0, 0, 0) = 0.1 (−2.4(0) + 1.6(0) + 3.6) = 0.36,
1 1 1
k2,1 = h f 1 t0 + h, w 1,0 + k1,1 , w 2,0 + k1,2 = 0.1 f 1 (0.05, 0.3, 0.18)
2 2 2
= 0.1 (−4(0.3) + 3(0.18) + 6) = 0.534,
1 1 1
k2,2 = h f 2 t0 + h, w 1,0 + k1,1 , w 2,0 + k1,2 = 0.1 f 2 (0.05, 0.3, 0.18)
2 2 2
= 0.1 (−2.4(0.3) + 1.6(0.18) + 3.6) = 0.3168.
Como consecuencia,
1
I1 (0.1) ≈ w 1,1 = w 1,0 + (k1,1 + 2k2,1 + 2k3,1 + k4,1 )
6
1
= 0 + (0.6 + 2(0.534) + 2(0.54072) + 0.4800912) = 0.5382552
6
252 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
1
I2 (0.1) ≈ w 2,1 = w 2,0 + (k1,2 + 2k2,2 + 2k3,2 + k4,2 ) = 0.3196263.
6
con condiciones iniciales y(a) = α1 , y (a) = α2 , . . . , y (m−1) (a) = αm, se pueden convertir
en un sistema de ecuaciones de la forma (5.45) y (5.46).
Si u 1 (t) = y(t), u 2 (t) = y (t), . . . , y u m (t) = y (m−1) (t). Esto produce el sistema de
primer orden
du 1 dy du 2 dy du m−1 dy (m−2)
= = u2, = = u3, ··· , = = um ,
dt dt dt dt dt dt
du m dy (m−1)
= = y (m) = f (t, y, y , . . . , y (m−1) ) = f (t, u 1 , u 2 , . . . , u m ),
dt dt
con condiciones iniciales
Solución Sea u 1 (t) = y(t) y u 2 (t) = y (t). Esto transforma la ecuación de segundo orden
en el sistema
u 1 (t) = u 2 (t),
u 2 (t) = e2t sen t − 2u 1 (t) + 2u 2 (t),
Las condiciones iniciales dan w 1,0 = −0.4 y w 2,0 = −0.6. Las ecuaciones (5.49) a
(5.52) en la página 249 con j 5 0 proporcionan
k4,2 = h e2(t0 +0.1) sen(t0 + 0.1) − 2(w 1,0 + k3,1 ) + 2(w 2,0 + k3,2 ) = −0.02178637298.
Por lo que,
1
w 1,1 = w 1,0 + (k1,1 + 2k2,1 + 2k3,1 + k4,1 ) = −0.4617333423
6
y
1
w 2,1 = w 2,0 + (k1,2 + 2k2,2 + 2k3,2 + k4,2 ) = −0.6316312421.
6
El valor w,1,1 aproxima u 1 (0.1) = y(0.1) = 0.2e2(0.1) (sen 0.1 − 2 cos 0.1), y w2,1 apro-
xima u 2 (0.1) = y (0.1) = 0.2e2(0.1) (4 sen 0.1 − 3 cos 0.1).
El conjunto de valores w 1, j y w 2, j , para j = 0, 1, . . . , 10, se presenta en la tabla 5.20
y se comparan con los valores reales de u 1 (t) = 0.2e2t (sen t − 2 cos t) y u 2 (t) = u 1 (t) =
0.2e2t (4 sen t − 3 cos t).
Tabla 5.20
tj y(t j ) = u 1 (t j ) w 1, j y (t j ) = u 2 (t j ) w 2, j |y(t j ) − w 1, j | |y (t j ) − w 2, j |
0.0 −0.40000000 −0.40000000 −0.6000000 −0.60000000 0 0
0.1 −0.46173297 −0.46173334 −0.6316304 −0.63163124 3.7 × 10−7 7.75 × 10−7
0.2 −0.52555905 −0.52555988 −0.6401478 −0.64014895 8.3 × 10−7 1.01 × 10−6
0.3 −0.58860005 −0.58860144 −0.6136630 −0.61366381 1.39 × 10−6 8.34 × 10−7
0.4 −0.64661028 −0.64661231 −0.5365821 −0.53658203 2.03 × 10−6 1.79 × 10−7
0.5 −0.69356395 −0.69356666 −0.3887395 −0.38873810 2.71 × 10−6 5.96 × 10−7
0.6 −0.72114849 −0.72115190 −0.1443834 −0.14438087 3.41 × 10−6 7.75 × 10−7
0.7 −0.71814890 −0.71815295 0.2289917 0.22899702 4.05 × 10−6 2.03 × 10−6
0.8 −0.66970677 −0.66971133 0.7719815 0.77199180 4.56 × 10−6 5.30 × 10−6
0.9 −0.55643814 −0.55644290 1.534764 1.5347815 4.76 × 10−6 9.54 × 10−6
1.0 −0.35339436 −0.35339886 2.578741 2.5787663 4.50 × 10−6 1.34 × 10−5
254 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
Los otros métodos de un paso se pueden extender a los sistemas de manera similar.
Cuando los métodos de control de error como el Runge-Kutta-Fehlberg son extendidos, a
cada componente de la solución numérica (w 1 j , w 2 j , . . . , w m j ) se debe examinar su preci-
-
rica (w 1 j , w 2 j , . . . , w m j ) se debe volver a calcular.
Los métodos multipasos y las técnicas de indicador-corrector también se pueden
ampliar a los sistemas. De nuevo, si se utiliza control de error, cada componente debe ser pre-
ciso. La extensión de la técnica de extrapolación para los sistemas también se puede realizar,
pero la notación se vuelve bastante implicada. Si este tema es de interés, consulte [HNW1].
Los teoremas de convergencia y estimación de error para sistemas son similares a los
considerados en la sección 5.10 para las ecuaciones individuales, excepto que las cotas están
dadas en términos de normas de vectores, un tema considerado en el capítulo 7 (una buena
referencia para estos teoremas es [Ge1], p. 45–72).
5.10 Estabilidad
En este capítulo se ha presentado una serie de métodos para aproximar la solución para un
problema de valor inicial. A pesar de que existen otras técnicas, seleccionamos los métodos
descritos aquí porque, en general, satisfacen tres criterios:
funcionan.
• Uno o más métodos proporcionarán resultados satisfactorios para muchos de los proble-
mas encontrados por los estudiantes de ciencias e ingeniería.
• Muchas de las técnicas más avanzadas y complejas están basadas en una o varios de los
procedimientos descritos aquí.
Métodos de un paso
En esta sección analizamos porqué se espera que estos métodos proporcionen resultados satisfac-
torios cuando métodos similares no lo hacen. Antes de empezar este análisis, necesitamos presen-
de un paso para la solución de esa ecuación diferencial conforme el tamaño de peso disminuye.
Definición 5.18 Se dice que un método de ecuación de diferencia de un paso con error de truncamiento local
τi (h) en el i-ésimo paso es consistente con la ecuación diferencial que aproxima si
lím máx |τi (h)| = 0.
h→0 1≤i≤N
Definición 5.19 Se dice que un método de ecuación de diferencia de un paso es convergente respecto a la
ecuación diferencial que aproxima si
Un método es convergente
si la solución de la ecuación lím máx |w i − y(ti )| = 0,
de diferencia se enfoca en h→0 1≤i≤N
la solución de la ecuación
diferencial conforme el tamaño donde y(ti) denota el valor exacto de la solución de la ecuación diferencial y wi es la aproxi-
de paso tiende a cero. mación obtenida a partir del método de diferencia en el i-ésimo paso.
5.10 Estabilidad 255
Mh L(b−a)
máx |w i − y(ti )| ≤ |e − 1|.
1≤i≤N 2L
Sin embargo, M, L y b son todas las constantes, y
Mh L(b−a)
lím máx |w i − y(ti )| ≤ lím e − 1 = 0.
h→0 1≤i≤N h→0 2L
De modo que el método de Euler es convergente respecto a una ecuación diferencial que
O(h).
Para analizar esta situación, por lo menos en parte, tratamos de determinar los métodos
Un método es estable cuando
que son estables en el sentido de que cambios pequeños o perturbaciones en las condiciones
los resultados dependen iniciales producen proporcionalmente pequeños cambios en las aproximaciones subsiguientes.
continuamente de los datos El concepto de estabilidad de una ecuación de diferencia de un paso es de alguna forma
iniciales. análoga para la condición de una ecuación diferencial bien planteada, por lo que no es sor-
prendente que la condición de Lipschitz aparezca aquí, como lo hizo en el teorema corres-
pondiente para ecuaciones diferenciales, el teorema 5.6 en la sección 5.1.
La parte i) del siguiente teorema se preocupa por la estabilidad de un método de un paso.
La prueba de este resultado no es difícil y se considera en el ejercicio 1. La parte ii) del teo-
-
error global de un método al controlar su error de truncamiento local e implica que cuando
el error de truncamiento local tiene una razón de convergencia O(hn), el error global tendrá
la misma razón de convergencia. Las pruebas de las partes ii) y iii) son más difíciles que las
de la parte i) y se pueden encontrar dentro del material presentado en [Ge1], p. 57-58.
w 0 = α,
w i+1 = w i + hφ(ti , w i , h).
También suponga que existe un número h 0 > 0 y que φ(t, w, h) es continua y que satisface
la condición de Lipschitz en la variable w con constante L de Lipschitz en el conjunto
Entonces
i) El método es estable;
ii) El método de diferencia es convergente si y sólo si es consistente, lo cual es equiva-
lente a
Ejemplo 2 w 0 = α,
h
w i+1 = w i + [ f (ti , w i ) + f (ti+1 , w i + h f (ti , w i ))] , para i = 0, 1, . . . , N − 1.
2
1 1
φ(t, w, h) = f (t, w) + f (t + h, w + h f (t, w)).
2 2
1 1
φ(t, w, h) − φ(t, w, h) = f (t, w) + f (t + h, w + h f (t, w))
2 2
1 1
− f (t, w) − f (t + h, w + h f (t, w)),
2 2
la condición de Lipschitz en f conduce a
1 1
|φ(t, w, h) − φ(t, w, h)| ≤ L|w − w| + L |w + h f (t, w) − w − h f (t, w)|
2 2
1
≤ L|w − w| + L |h f (t, w) − h f (t, w)|
2
1
≤ L|w − w| + h L 2 |w − w|
2
1
= L + h L 2 |w − w|.
2
1
L = L + h0 L 2.
2
h 5 0, tenemos
1 1
φ(t, w, 0) = f (t, w) + f (t + 0, w + 0 · f (t, w)) = f (t, w),
2 2
por lo que la condición de consistencia expresada en el teorema 5.20, parte ii), se mantiene. Por
lo tanto, el método es convergente. Además, hemos visto que para este método, el error de
truncamiento local es O(h2
también es O(h2).
Métodos multipasos
Para métodos multipasos, los problemas relacionados con la consistencia, la convergencia y
la estabilidad son compuestos debido al número de aproximaciones que implica cada paso.
Mientras en los métodos de un paso, la aproximación w i+1 depende directamente sólo de la
aproximación previa wi, los métodos multipasos utilizan por lo menos dos de las aproxima-
ciones previas y los métodos comunes utilizados implican más.
El método general multipasos para aproximar la solución del problema de valor inicial
tiene la forma
w 0 = α, w 1 = α1 , . . . , w m−1 = αm−1 ,
w i+1 = am−1 w i + am−2 w i−1 + · · · + a0 w i+1−m + h F(ti , h, w i+1 , w i , . . . , w i+1−m ),
(5.55)
251 (5)
τi+1 (h) = y (µi )h 4 , para algunos µi ∈ (ti−3 , ti+1 ),
720
19 (5)
τi+1 (h) = − y (µi )h 4 , para algunas µi ∈ (ti−2 , ti+1 ),
720
debe ser verdadero para que un método multipasos de la forma (5.55) sea consistente. Ob-
serve que la ecuación (5.57) implica que un método multipasos no será consistente a menos
que el método de un paso que genera los valores iniciales también sea consistente.
El siguiente teorema para los métodos multipasos es similar al teorema 5.20, parte iii),
y provee una relación entre el error de truncamiento local y el error global de un método
con error de truncamiento local τi+1 (h), y una ecuación correctora implícita de Adams-
Moulton de (m 2 1) pasos
con error de truncamiento local τ̃i+1 (h). Además, suponga que f (t, y) y f y (t, y) son conti-
nuas en D = { (t, y) | a ≤ t ≤ b y −∞ < y < ∞ } y fy está acotada. Entonces, el error de
truncamiento local σi+1 (h) del método indicador corrector es
∂f
σi+1 (h) = τ̃i+1 (h) + τi+1 (h)b̃m−1 (ti+1 , θi+1 ),
∂y
w 0 = α, w 1 = α1 , . . . , w m−1 = αm−1 ,
w i+1 = am−1 w i + am−2 w i−1 + · · · + a0 w i+1−m + h F(ti , h, w i+1 , w i , . . . , w i+1−m ),
Este problema tiene solución exacta y(t) ≡ α. Al examinar las ecuaciones (5.27) y (5.28)
en la sección 5.6 (consulte las páginas 226 y 227), podemos observar que cualquier método
multipasos producirá, en teoría, la solución exacta w n = α para todas las n. La única desvia-
ción de la solución exacta se debe al error de redondeo del método.
El lado derecho de la ecuación diferencial en (5.59) tiene f (t, y) ≡ 0, por lo que me-
diante la suposición (1), tenemos F(ti , h, w i+1 , w i+2 , . . . , w i+1−m ) = 0 en la ecuación de
diferencia (5.55). Como consecuencia, la forma estándar de esta ecuación se convierte en
Suponiendo que l es uno de los ceros del polinomio característico relacionado con la
ecuación (5.55). Entonces w n = λn para cada n es una solución para la ecuación (5.59) ya
que
Esto implica que λ = 1 es uno de los ceros del polinomio característico (5.58). Supondre-
mos que en la representación (5.61), esta solución está descrita por λ1 = 1 y c1 = α, por lo
que todas las soluciones de la ecuación (5.59) se expresan como
m
wn = α + ci λin . (5.62)
i=2
Si todos los cálculos fueran exactos, todas las constantes c2 , c3 , . . . , cm serían cero. En la
práctica, las constantes c2 , c3 , . . . , cm no son cero debido al error de redondeo. De hecho,
el error de redondeo crece de manera exponencial a menos que |λi | ≤ 1 para cada una de
las raíces λ2 , λ3 , . . . , λm. Mientras más pequeña sea la magnitud de estas raíces, más estable
será el método respecto al crecimiento del error de redondeo.
del polinomio característico son distintos. La situación es similar cuando se presentan múlti-
ples ceros. Por ejemplo, si λk = λk+1 = · · · = λk+ p para algunas k y p, simplemente requiere
reemplazar la suma
en (5.62) con
n− p
ck λnk + ck+1 nλn−1
k + ck+2 n(n − 1)λn−2
k + · · · + ck+ p [n(n − 1) · · · (n − p + 1)]λk .
(5.63)
Definición 5.22 Si λ1 , λ2 , . . . , λm denota las raíces (no necesariamente distintas) de la ecuación característica
Si |λi | ≤ 1, para cada i = 1, 2, . . . , m, y todas las raíces con valor absoluto 1 son raíces
simples, entonces se dice que el método de diferencia satisface la condición de raíz.
Definición 5.23 i) Los métodos que satisfacen la condición de raíz y tienen λ = 1 como la única raíz
de la ecuación característica con magnitud uno reciben el nombre de
estables.
ii) Los métodos que satisfacen la condición de raíz y tienen más de una raíz distinta con
magnitud uno reciben el nombre de débilmente estables.
iii) Los métodos que no satisfacen la condición de raíz reciben el nombre de inestables.
5.10 Estabilidad 261
donde
h
F(ti , h, w i+1 , , . . . , w i−3 ) = [55 f (ti , w i ) − 59 f (ti−1 , w i−1 )
24
+ 37 f (ti−2 , w i−2 ) − 9 f (ti−3 , w i−3 )].
0 = P(λ) = λ4 − λ3 = λ3 (λ − 1).
Este polinomio tiene raíces λ1 = 1, λ2 = 0, λ3 = 0 y λ4 = 0. Por lo tanto, satisface la con-
Ejemplo 4 Muestre que el método Milne de cuarto orden, el método explícito multipasos provisto por
4h
w i+1 = w i−3 + [2 f (ti , w i ) − f (ti−1 , w i−1 ) + 2 f (ti−2 , w i−2 )] ,
3
Ejemplo 5
débilmente estable con h 5 0.1 para el problema de valor inicial
y = −6y + 6, 0 ≤ t ≤ 1, y(0) = 2,
Solución Los resultados en la tabla 5.21 muestran los efectos de un método débilmente
estable versus
262 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
1 4
u 1 = 9u 1 + 24u 2 + 5 cos t − sen t, u 1 (0) =
3 3
1 2
u 2 = −24u 1 − 51u 2 − 9 cos t + sen t, u 2 (0) =
3 3
1 1
u 1 (t) = 2e−3t − e−39t + cos t, u 2 (t) = −e−3t + 2e−39t − cos t.
3 3
El término transitorio e−39t en la solución causa que este sistema sea rígido. Al aplicar el
algoritmo 5.7, el método Runge-Kutta de cuarto orden para sistemas, da los resultados lista-
dos en la tabla 5.22. Cuando h 5 0.05, los resultados de estabilidad y las aproximaciones son
precisas. Al incrementar el tamaño de paso a h 5 0.1, sin embargo, conduce a los resultados
desastrosos mostrados en la tabla.
La solución para esta ecuación es y(t) = αeλt, que contiene la solución transitoria eλt. La
solución de estado estable es cero, por lo que las características de un método son fáciles
de determinar. (Un análisis más completo del error de redondeo relacionado con sistemas
rígidos requiere examinar la ecuación de prueba cuando l es un número complejo con parte
real negativa; consulte [Ge1], p. 222.)
Primero, considere el método de Euler aplicado a la ecuación de prueba. Si h = (b − a)/N
y t j = j h, para j = 0, 1, 2, . . . , N , la ecuación (5.8) en la página 266 implica que
por lo que
y la precisión se determina por qué tan bien el término 1+ hλ aproxima ehλ. Cuando λ < 0, la
solución exacta (ehλ ) j tiende a cero conforme j aumenta, pero con la ecuación (5.65), la apro-
ximación tendrá esta propiedad sólo si |1 + hλ| < 1 , lo cual implica que −2 < hλ < 0.
Esto restringe efectivamente el tamaño de paso h para el método de Euler para satisfacer
h < 2/|λ|.
Ahora, suponga que se introduce un error de redondeo δ0 en la condición inicial para el
método de Euler,
w 0 = α + δ0 .
δ j = (1 + hλ) j δ0 .
Puesto que λ < 0, la condición para el control del crecimiento del error de redondeo es
la misma que la condición para controlar el error absoluto |1 + hλ| < 1, que implica que
h < 2/|λ|. Por lo que
La situación es similar para otros métodos de un paso. En general, existe una función Q
con la propiedad de que el método de diferencia, cuando se aplica a la ecuación de prueba, da
La precisión del método depende de qué tan bien Q(hλ) aproxima ehλ, y el error crecerá sin
cota si |Q(hλ)| > 1. El método de Taylor de enésimo orden, por ejemplo, tendrá estabilidad
respecto tanto al crecimiento del error de redondeo como al error absoluto, siempre y cuando
se seleccione h para satisfacer
1 1
1 + hλ + h 2 λ2 + · · · + h n λn < 1.
2 n!
para j = m − 1, . . . , N − 1, o
Este polinomio es similar al polinomio característico (5.58), pero también incorpora la ecua-
ción de prueba. La teoría aquí iguala el análisis de estabilidad en la sección 5.10.
Suponga que w 0 , . . . , w m−1 están determinados y, para hλ, sean β1 , . . . , βm los ceros
del polinomio Q(z, hλ). Si β1 , . . . , βm son distintos, entonces existe c1 , . . . , cm con
m
wj = ck (βk ) j , para j = 0, . . . , N . (5.67)
k=1
5.11 Ecuaciones diferenciales rígidas 265
1
y = −30y, 0 ≤ t ≤ 1.5, y(0) =
3
tiene la solución exacta y = 13 e−30t. Al utilizar h 5 0.1 para el algoritmo 5.1 de Euler, el
algoritmo 5.2 de Runge-Kutta de cuarto orden y el algoritmo 5.4 de Adams indicador-
corrector da los resultados en t 5 1.5 en la tabla 5.23.
Las imprecisiones en la ilustración se deben al hecho de que |Q(hλ)| > 1 para el méto-
do de Euler y el método Runge-Kutta y que Q(z, hλ) tiene ceros con módulos que exceden
a uno para el método indicador-corrector. Para aplicar estos métodos a este problema, se
Las ecuaciones (5.66) y (5.67) implican que se puede aplicar un método de manera
efectiva a una ecuación rígida sólo si hλ se encuentra en la región de estabilidad absoluta del
método, lo cual, para un problema determinado, establece una restricción en el tamaño de h.
Aunque el término exponencial en la solución exacta decae rápidamente a cero, λh debe
permanecer dentro de la región de estabilidad absoluta a lo largo del intervalo de t valores
para que la aproximación tienda a cero y el crecimiento del error esté bajo control. Esto sig-
h se podría incrementar normalmente debido a las consideraciones
del error de truncamiento, el criterio absoluto de estabilidad fuerza h a continuar siendo
pequeño. Los métodos de tamaño de paso variable son especialmente vulnerables a este
problema ya que una revisión del error de truncamiento local podría indicar que el tamaño
de paso puede aumentar. Esto podría resultar inadvertidamente en hλ fuera de la región de
estabilidad absoluta.
En general, la región de estabilidad absoluta de un método es el factor crítico al producir
aproximaciones precisas para sistemas rígidos, por lo que los métodos numéricos se buscan
con una región de estabilidad absoluta tan grande como sea posible. Se dice que un método
numérico es A-estable si su región R de estabilidad absoluta contiene todo el plano medio
izquierdo.
Este método es implícito porque
involucra wj11 en ambos lados
El método trapezoidal implícito, determinado por
de la ecuación.
w 0 = α, (5.68)
h
w j+1 = w j + f (t j+1 , w j+1 ) + f (t j , w j ) , 0 ≤ j ≤ N − 1,
2
es un método A-estable (consulte el ejercicio 14) y es el único método multipasos A-estable.
A pesar de que el método trapezoidal no brinda aproximaciones precisas para los tamaños de
paso grandes, su error no aumentará de manera exponencial.
266 CAPÍTULO 5 Problemas de valor inicial para ecuaciones de diferenciales ordinarias
Las técnicas que se usan con mayor frecuencia para los sistemas rígidos son métodos
multipasos implícitos. En general, w i+1 se obtiene al resolver una ecuación no lineal o un
sistema no lineal de manera iterativa, a menudo con el método de Newton. Considere, por
ejemplo, el método trapezoidal implícito
h
w j+1 = w j + [ f (t j+1 , w j+1 ) + f (t j , w j )].
2
h
F(w) = w − w j − [ f (t j+1 , w) + f (t j , w j )] = 0. (5.69)
2
F w (k−1)
j+1
w (k)
j+1 = w j+1 −
(k−1)
F w (k−1)
j+1
h
j+1 − w j −
w (k−1) 2
f (t j , w j ) + f t j+1 , w (k−1)
j+1
= w (k−1)
j+1 −
1− h
2
f y t j+1 , w (k−1)
j+1
j+1 − w j+1 |
hasta que |w (k) (k−1)
aplica en el algoritmo 5.8. Normalmente, sólo se requieren tres o cuatro operaciones por paso
debido a la convergencia cuadrática del método de Newton.
El método de la secante se puede utilizar como una alternativa para el método de Newton
en la ecuación (5.69) pero entonces, se requieren dos aproximaciones iniciales diferentes para
w j+1. Para usar el método de la secante, la práctica usual es hacer w j+1 = w j y obtener w j+1
(0) (1)
a partir de algún método multipasos explícito. Cuando un sistema de ecuaciones rígidas par-
ticipa, se requiere una generalización ya sea para el método de Newton o de la secante. Estos
temas se consideran en el capítulo 10.
tiene como solución y(t) = t − e−5t. Para mostrar los efectos de rigidez, el método trape-
zoidal implícito y el método Runge-Kutta de cuarto orden se aplican con N 5 4, al hacer
h 5 0.25, y con N 5 5, que da h 5 0.20.
El método trapezoidal se desempeña correctamente en ambos casos, usando M 5 10 y
TOL 5 1026, al igual que Runge-Kutta con h 5 0.2. Sin embargo, h 5 0.25 está fuera de
la región de estabilidad absoluta del método Runge-Kutta, que es evidente a partir de los
resultados en la tabla 5.24.
Aquí hemos presentado sólo una breve introducción para lo que el lector, que con fre-
cuencia encuentra ecuaciones diferenciales rígidas, debería saber. Para mayores detalles con-
sulte [Ge2], [Lam] o [SGe].
du i
= f i (t, u 1 , u 2 , . . . , u m ), para i = 1, 2, . . . , m,
dt
donde u i (t0 ) se da para cada i. Una subrutina de tamaño de paso variable está basada en los
métodos Runge-Kutta de cuarto y quinto orden descritos en el ejercicio 7 de la sección 5.5.
Una subrutina de tipo Adams también está disponible para utilizarse para ecuaciones rígidas
con base en un método de C. William Gear. Este método utiliza métodos multipasos implíci-
tos de orden hasta 12 y fórmulas de diferenciación regresiva de orden hasta 5.
Los procedimientos tipo Runge-Kutta contenidos en la biblioteca NAG están basados en
la forma Merson del método Runge-Kutta. Un método Adams de una variable y de tamaño
de paso variable para sistemas rígidos. Otras rutinas incluyen los mismos métodos, pero se
iteran hasta que un componente de la solución logra un valor determinado o hasta que una
función de la solución es cero.
La biblioteca netlib incluye varias subrutinas para aproximar las soluciones de los
problemas de valor inicial en el paquete EDO. Una subrutina está basada en los métodos
Runge-Kutta-Verner de quinto y sexto orden, otra en los métodos Runge-Kutta-Fehlberg de
cuarto y quinto orden, como se describe en la página 220 de la sección 5.5. Una subrutina
para problemas de valor inicial de ecuación diferencial ordinaria rígida está basada en una
Las secciones Preguntas de análisis, Conceptos clave y Revisión del capítulo están dis-
ponibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
CAPÍTULO
Introducción
son cero. Suponga que se aplica un potencial de V volts entre los puntos A y G en el circuito y
que i1, i2, i3, i4 y i5
G como punto de referencia, las leyes de Kirchhoff implican que las corrientes satisfacen el
siguiente sistema de ecuaciones lineales:
5i 1 + 5i 2 = V,
i3 − i4 − i5 = 0,
2i 4 − 3i 5 = 0,
i1 − i2 − i3 = 0,
5i 2 − 7i 3 − 2i 4 = 0.
A 2V B 3V C
i1 i2 i3 i4 2V
i5
V volts 5V 2V D
i5
i1 i3 1V
G 3V F 4V E
En este sistema nos proporcionan las constantes ai j, para cada i, j = 1, 2, . . . , n, y bi, para
cada i = 1, 2, . . . , n y necesitamos determinar las incógnitas x1 , . . . , xn .
269
270 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
Las técnicas directas son métodos que proporcionan teóricamente la solución exacta
estará contaminada por el error de redondeo relacionado con la aritmética utilizada. Analizar
E1 : x1 + x2 + 3x4 = 4,
E2 : 2x1 + x2 − x3 + x4 = 1,
E3 : 3x1 − x2 − x3 + 2x4 = −3,
E 4 : −x1 + 2x2 + 3x3 − x4 = 4,
se resolverán para x1, x2, x3 y x4. Primero usaremos la ecuación E1 para eliminar el valor descono-
cido x1 de las ecuaciones E2, E3 y E4 (E 2 − 2E 1 ) → (E 2 ), (E 3 − 3E 1 ) → (E 3 ), y
(E 4 + E 1 ) → (E 4 )
(E 2 − 2E 1 ) → (E 2 )
produce
E2 en
E1 : x1 + x2 + 3x4 = 4,
E2 : − x2 − x3 − 5x4 = −7,
E3 : − 4x2 − x3 − 7x4 = −15,
E4 : 3x2 + 3x3 + 2x4 = 8.
Por simplicidad, las ecuaciones nuevas se etiquetan otra vez como E1, E2, E3 y E4.
6.1 Sistemas de ecuaciones lineales 271
E1 : x1 + x2 + 3x4 = 4,
E2 : − x2 − x3 − 5x4 = −7,
E3 : 3x3 + 13x4 = 13,
E4 : − 13x4 = −13.
1 1
x3 = (13 − 13x4 ) = (13 − 13) = 0.
3 3
Al continuar, E2 nos da
y E1 da
x1 = 4 − 3x4 − x2 = 4 − 3 − 2 = −1.
x1 5 21, x2 5 2, x3 5 0, y x4 5 1.
Matrices y vectores
Al realizar los cálculos en la ilustración, no es necesario escribir las ecuaciones completas
en cada paso o retener las variables x1, x2, x3, y x4 a lo largo de los cálculos, si siempre per-
manecen en la misma columna. La única variación de sistema a sistema se presenta en los
esto, a menudo, se reemplaza un sistema lineal con una matriz que contiene toda la informa-
ción sobre el sistema necesaria para determinar su solución, pero de manera compacta y una
que se representa fácilmente en una computadora.
La notación para una matriz n 3 m será una mayúscula, como A, para la matriz y mi-
núsculas con subíndices dobles, como ai j, para referirse a la entrada en la intersección de la
i j-ésima columna; es decir
a11 a12 · · · a1m
a21 a22 · · · a2m
A = [ai j ] = . .. .. .
.. . .
an1 an2 · · · anm
2 −1 7
A=
3 1 0
.
La matriz 1 5 n
a11
a21
A= .
..
an1
x1
x2
x= .
..
xn
-
das para hacer que la separación sea clara. Por lo que usted podría ver y escrita como
y = [y1 , y2 , . . . , yn ].
n 3 (n 1
a11 x1 + a12 x2 + · · · + a1n xn = b1 ,
a21 x1 + a22 x2 + · · · + a2n xn = b2 ,
.. ..
. .
an1 x1 + an2 x2 + · · · + ann xn = bn ,
al construir primero
a11 a12 ··· a1n b1
a21 a22 ··· a2n b2
A = [ai j ] = y b=
.. .. .. ..
. . . .
an1 an2 · · · ann bn
que el lado derecho del sistema incógnitas con los del lado derecho de las ecuaciones. El arreglo [A, b] recibe el nombre de
se ha incluido en la matriz.
matriz aumentada.
La repetición de las operaciones implicadas en la ilustración de la página 270 con la
notación resulta en considerar primero la matriz aumentada:
1 1 0 3 ... 4
2 1 −1 1 ... 1
3 −1 −1 2 ... −3
.
−1 2 3 −1 .. 4
6.1 Sistemas de ecuaciones lineales 273
-
tadas
1 1 0 3 .. 4 1 1 0 3 .. 4
.. ..
0 −1 −1 −5 .. −7 0 −1 −1 −5 .. −7
.. −15 y .. 13
0 0 0 3 13
.
−4 −1 −7 .. ..
0 3 3 2 . 8 0 0 0 −13 . −13
eliminación gaussiana apareció posible obtener soluciones para x1, x2, x3 y x4. Este procedimiento recibe el nombre de
por primera vez durante la eliminación gaussiana con sustitución hacia atrás.
dinastía Han en China, en el texto
El procedimiento general de eliminación gaussiana aplicado al sistema lineal
Chapters on the Mathematical
Art (Capítulos sobre el arte
matemático), escrito alrededor E1 : a11 x1 + a12 x2 + · · · + a1n xn = b1 ,
del año 200 a.C. Joseph E2 : a21 x1 + a22 x2 + · · · + a2n xn = b2 ,
.. ..
describió una técnica similar . .
para el caso en que el valor E n : an1 x1 + an2 x2 + · · · + ann xn = bn ,
de cada ecuación sea 0. Gauss
proporcionó una descripción Ã,
más general en Theoria Motus
..
corporum coelestium sectionibus a11 a12 ··· a1n .. a1,n+1
solem ambientium, que describía a21 a22 ··· a2n .. a2,n+1
à = [A, b] = ..
la técnica de mínimos cuadrados
.. .. .. .. .. ,
. . . .. .
.. an,n+1
la órbita del planeta menor Ceres.
an1 an2 · · · ann
donde A n1
son los valores de b; es decir, ai,n+1 = bi para cada i = 1, 2, . . . , n.
Siempre y cuando a11 = 0, realizamos las operaciones correspondientes para
x1 -
2, 3, . . . , n, para facilidad de notación, nuevamente denotamos la
entrada en la i j-ésima columna mediante aij. Con esto en mente, seguimos el
procedimiento secuencial para i = 2, 3, . . . , n − 1 y realizamos la operación
donde, excepto en la primera columna, no se espera que los valores de ai j concuerden con
˜ representa un sistema lineal con la misma solución
los de la matriz original Ã. La matriz Ã
establecida como el sistema original.
El sistema lineal nuevo es triangular,
E1 : x1 − x2 + 2x3 − x4 = −8,
E2 : 2x1 − 2x2 + 3x3 − 3x4 = −20,
E3 : x1 + x2 + x3 = −2,
E4 : x1 − x2 + 4x3 + 3x4 = 4,
como una matriz aumentada y utilice la eliminación gaussiana para encontrar su solución.
(E 2 − 2E 1 ) → (E 2 ), (E 3 − E 1 ) → (E 3 ), y (E 4 − E 1 ) → (E 4 ),
obtenemos
..
1 2 −1 .. −8
−1
0 0 −1 −1 .. −4
Ã(2) =
0 ..
2 −1 1 6
.
..
0 0 2 4 .. 12
El elemento pivote para una
La entrada diagonal a22
(2)
, conocida como elemento pivote, es 0, por lo que el proce-
utilizada para colocar ceros dimiento no puede continuar en su forma actual. Sin embargo se permiten las operaciones
en las otras entradas en esa
columna. (E i ) ↔ (E j ), por lo que se realiza una búsqueda de elementos a32
(2)
y a42
(2)
para el primer
elemento diferente de cero. Puesto que a32 = 0, se realiza la operación (E 2 ) ↔ (E 3 ) para
(2)
0 0 2 4 .. 12
Puesto que x2 ya se ha eliminado de E3 y Ã(3) será Ã(2) , y los cálculos continúan con la ope-
ración (E 4 + 2E 3 ) → (E 4 ), lo que nos da
.
1 −1 2 −1 .. −8
.
0 2 −1 1 ... 6
Ã(4) = 0 .
0 −1 −1 .. −4
.
0 0 0 2 .. 4
Finalmente, la matriz se vuelve a convertir en un sistema lineal que tiene una solución equi-
valente a la solución del sistema original y se aplica la sustitución hacia atrás:
4
x4 = = 2,
2
[−4 − (−1)x4 ]
x3 = = 2,
−1
[6 − [(−1)x3 + x4 ]]
x2 = = 3,
2
[−8 − [(−1)x2 + 2x3 + (−1)x4 ]]
x1 = = −7.
1
276 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
akk
(k)
= 0 para algunas k = 1, 2, . . . , n − 1. Para
la k-ésima columna de à (k−1)
desde la k
pk = 0 para algunas p, con k + 1 ≤ p ≤ n, entonces se realiza
entrada diferente a cero. Si a (k)
la operación (E k ) ↔ (E p ) para obtener Ã(k−1) . El procedimiento puede continuar para for-
pk = 0 para cada p, se puede mostrar (consulte el teorema
mar Ã(k) y así sucesivamente. Si a (k)
Ilustración
realizarán de manera simultánea en dos sistemas lineales
x1 + x2 + x3 = 4, x1 + x2 + x3 = 4,
2x1 + 2x2 + x3 = 6, y 2x1 + 2x2 + x3 = 4,
x1 + x2 + 2x3 = 6, x1 + x2 + 2x3 = 6.
x1 + x2 + x3 = 4, x1 + x2 + x3 = 4,
−x3 = −2, y −x3 = −4,
x3 = 2, x3 = 2.
-
diante x3 = 2, x2 = 2 − x1 , y x1 de manera arbitraria.
El segundo sistema conduce a la contradicción x3 = 2 y x3 = 4, por lo que no existe
solución. Sin embargo, en este caso, no hay solución única, como concluimos a partir del
matrices aumentadas Ã(1) , . . . , Ã(n), los cálculos pueden realizarse con sólo un arreglo
n ×(n +1). En cada paso, simplemente reemplazamos el valor anterior de ai j por el nuevo.
Además, podemos almacenar multiplicadores de mji en las ubicaciones de aji porque aji tiene
el valor 0 para cada i = 1, 2, . . . , n − 1 y j = i + 1, i + 2, . . . , n. Por lo tanto, A se puede
Conteo de operaciones
Tanto el tiempo requerido para completar los cálculos como el error de redondeo subse-
las operaciones de conteo para un método determinado, contaremos las operaciones reque-
ridas para resolver un sistema lineal común de n ecuaciones con n incógnitas mediante el
-
278 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
Multiplicaciones/divisiones:
Sumas/restas:
(n − i)(n − i + 1).
Multiplicaciones/divisiones:
n−1 n−1
(n − i)(n − i + 2) = (n 2 − 2ni + i 2 + 2n − 2i)
i=1 i=1
n−1 n−1 n−1 n−1
= (n − i)2 + 2 (n − i) = i2 + 2 i
i=1 i=1 i=1 i=1
(n − 1)n(2n − 1) (n − 1)n 2n 3 + 3n 2 − 5n
= +2 = .
6 2 6
Sumas/restas:
n−1 n−1
(n − i)(n − i + 1) = (n 2 − 2ni + i 2 + n − i)
i=1 i=1
n−1 n−1 n−1 n−1
= (n − i)2 + (n − i) = i2 + i
i=1 i=1 i=1 i=1
(n − 1)n(2n − 1) (n − 1)n n3 − n
= + = .
6 2 3
Multiplicaciones/divisiones:
n−1 n−1
1+ ((n − i) + 1) = 1 + (n − i) +n−1
i=1 i=1
n−1 n−1
n2 + n
=n+ (n − i) = n + i= .
i=1 i=1
2
Sumas/restas:
n−1 n−1 n−1
n2 − n
((n − i − 1) + 1) = (n − i) = i=
i=1 i=1 i=1
2
Multiplicaciones/divisiones:
2n 3 + 3n 2 − 5n n2 + n n3 n
+ = + n2 − .
6 2 3 3
Sumas/restas:
n3 − n n2 − n n3 n2 5n
+ = + − .
3 2 3 2 6
no son cero.
Si akk
(k)
es de magnitud pequeña, en comparación con a (k)
jk , entonces la magnitud del
multiplicador
a (k)
jk
m jk =
akk
(k)
280 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
será mucho más grande que 1. El error de redondeo introducido en el cálculo de uno de los
términos akl(k) se multiplica mediante mjk al calcular a (k+1)
jl , que compone el error original.
Además, al realizar la sustitución hacia atrás para
n
ak,n+1
(k)
− j=k+1 ak(k)
j
xk = ,
akk
(k)
por medio de aritmética de cuatro dígitos con redondeo y compare los resultados con la so-
lución exacta x1 = 10.00 y x2 = 1.000.
5.291
m 21 = = 1763.66,
0.003000
(E 2 − m 21 E 1 ) → (E 2 ) y el redondeo
adecuado da el sistema
x2 ≈ 1.001,
que es una aproximación cercana al valor real x2 5 1.000. Sin embargo, debido al pivote
pequeño a11 5 0.003000,
59.17 − (59.14)(1.001)
x1 ≈ = −10.00
0.003000
59.14
≈ 20000.
0.003000
la que el error se puede presentar fácilmente. Para sistemas más grandes es mucho más difícil
predecir cuándo se presentará un error de redondeo devastador.
6.2 Estrategias de pivoteo 281
Figura 6.1
x2
Aproximación E2
(210, 1.001) Solución exacta
(10, 1) E1
210 10 x1
Pivoteo parcial
-
te akk j , para k ≤ i ≤ n y k ≤ j ≤ n. Para evitar este
es pequeño relativo a las entradas ai(k)
(k)
problema se realiza pivoteo al seleccionar un elemento a (k) pq con una magnitud más grande
como el pivote y al intercambiar las k-ésima y p
intercambio de la k-ésima y q-ésima columnas, en caso necesario.
La estrategia más simple, llamada pivoteo parcial, es seleccionar un elemento en la
-
p ≥ k más pequeña de tal forma que
pk | = máx |aik |
|a (k) (k)
k≤i≤n
con pivoteo parcial y aritmética de cuatro dígitos con redondeo y compare los resultados con
la solución exacta x1 = 10.00 y x2 = 1.000.
máx |a11
(1) (1)
|, |a21 | = máx {|0.003000|, |5.291|} = |5.291| = |a21
(1)
|.
a21
(1)
m 21 = = 0.0005670,
a11
(1)
La respuesta de cuatro dígitos resultante a partir de la sustitución hacia atrás son los
valores correctos de x1 = 10.00 y x2 = 1.000.
282 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
Cada multiplicador mji en el algoritmo de pivoteo parcial tiene una magnitud menor o
5.291
m 21 = = 0.1764
30.00
conduce al sistema
x2 ≈ 1.001 y x1 ≈ −10.00.
escala si
si = máx |ai j |.
1≤ j≤n
Si tenemos si 5 0 para algunas i, entonces el sistema no tiene solución única ya que todas
las entradas en la i-és
adecuado para colocar los ceros en la primera columna se determina al seleccionar el último
entero p con
|a p1 | |ak1 |
= máx
sp 1≤k≤n sk
E k − m ki E i , para k = i + 1, . . . , n,
|a pi | |aki |
= máx
sp i≤k≤n sk
Por consiguiente,
y se realiza el intercambio (E 1 ) ↔ (E 2 ).
Al aplicar la eliminación gaussiana al nuevo sistema
La matriz aumentada A A
..
2.11 .. 2.01
−4.21 .921
4.01 10.2 −1.12 .. −3.09 .
..
1.09 .987 .832 . 4.21
6.2 Estrategias de pivoteo 285
Puesto que
a32
m 32 = = −1.07,
a22
Finalmente, la sustitución hacia atrás da la solución x, la cual, para tres dígitos decimales, es
x1 = −0.431, x2 = 0.430, y x3 = 5.12.
Los primeros cálculos adicionales requeridos para pivoteo parcial escalado resultan de la
determinación de los factores de escala; existen (n 2
n
n(n − 1) comparaciones.
n divisiones y (n 2
Los factores de escalamiento se calculan solamente una vez, por lo que el segundo paso
requiere
(n 2 divisiones y (n 2
286 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
2 divisiones y 1 comparación.
En consecuencia, el pivoteo parcial escalado añade un total de
n−1
(n − 1)n 3
n(n − 1) + k = n(n − 1) + = n(n − 1) comparaciones
k=1
2 2
y
n n
n(n + 1) 1
k= k −1= − 1 = (n − 1)(n + 2) divisiones
k=2 k=1
2 2
tal forma que se determinaran factores de escala nuevos cada vez que se realice una decisión
n(n 2 -
zado por
n
1
k(k − 1) = n(n 2 − 1).
k=2
3
En consecuencia, esta técnica de pivoteo añadiría O(n 3 /3) comparaciones, además de las
[n(n 1 2 1 divisiones.
Pivoteo completo
pivoteo comple-
to (o máximo k-ésimo paso busca todas las entradas ai j , para i = k, k + 1, . . . , n y
j 5 k, k +1, . . . , n
y de columna se realizan para colocar esta entrada en la posición pivote. El primer paso del
pivoteo total requiere realizar n2 2 1 comparaciones, el segundo paso requiere (n − 1)2 − 1
comparaciones, y así sucesivamente. El tiempo adicional total requerido para incorporar el
pivoteo completo a la eliminación gaussiana es
n
n(n − 1)(2n + 5)
(k 2 − 1) =
k=2
6
y manipular sistemas lineales. En esta sección consideramos cierta álgebra relacionada con
matrices y muestra cómo se puede utilizar para resolver problemas asociados con sistemas
lineales.
2 3
2 −1 7
= −1 1
3 1 0
7 0
Aritmética de matriz
Dos operaciones importantes en matrices son la suma de dos matrices y la multiplicación de
una matriz por un número real.
2 −1 7 4 2 −8
A= B= y λ = −2.
3 1 0 0 1 6
, ,
Solución Tenemos
2+4 −1 + 2 7 − 8 6 1 −1
A+B = =
3+0 1+1 0+6 3 2 6
n 3 m con entradas reales como espacio vectorial sobre el campo de números reales.
O denote una matriz, donde todas sus entradas son 0 y 2A denota la matriz
cuyas entradas son 2aij.
288 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
Teorema 6.5 Si A, B y C son matrices n 3 m y l y m son números reales. Se cumplen las siguientes pro-
piedades de suma y multiplicación escalar:
i) A + B = B + A, ii) (A + B) + C = A + (B + C),
iii) A + O = O + A = A, iv) A + (−A) = − A + A = O,
v) λ(A + B) = λA + λB, vi) (λ + µ)A = λA + µA,
vii) λ(µA) = (λµ)A, viii) 1A = A.
Productos matriz-vector
-
mos el producto de una matriz n 3 m y un vector columna m 3 1.
Definición 6.6 Sea A una matriz n 3 m y b un vector columna m-dimensional. El producto matriz-vector
de A y b, denotado Ab, es un vector columna n-dimensional dado por
m
a11 a12 · · · a1m b1 i=1 a1i bi
a21 a22 · · · a2m b2 i=1 m
a2i bi
Ab = . .. .. .. = .. .
..
. . . .
m
an1 an2 · · · anm bm i=1 ani bi
3 2
3
Ejemplo 2 Determine el producto Ab si A = −1 1 y b= .
−1
6 4
Es decir,
3 2 7
3
Ab = −1 1 = −4 .
−1
6 4 14
Ax = b,
6.3 Álgebra lineal e inversión de matriz 289
donde
puesto que todas las entradas en el producto Ax deben corresponder con las entradas en el
vector b. Por lo tanto, la matriz n 3 m se puede ver como una función con dominio en con-
m
n-dimensional.
Productos de matriz-matriz
matriz-matriz.
para cada i = 1, 2, . . . n, y j = 1, 2, . . . , p.
donde
m
ci j = ai1 b1 j + ai2 b2 j + · · · + aim bm j = aik bk j .
k=1
3 2
2 1 −1
A = −1 1 , B =
3 1 2
,
1 4
2 1 0 1
1 −1
C = −1 3 2 1 , y D =
2 −1
.
1 1 2 0
AB : 3 × 3, BA : 2 × 2, AD : 3 × 2, BC : 2 × 4, DB : 2 × 3, y DD : 2 × 2.
12 5 1 7
−5
4 1
AB = 1 0 3 , BA = AD = 1 0 ,
10 15
,
14 5 7 9 −5
2 4 0 3 −1 0 −3 −1 0
BC = DB = y DD =
7 8 6 4
,
1 1
,
0 −1
.
−4
1 1 0 1 1 2 0 1 1 1 1 0
= mientras =
1 0 1 1 0 1 1 1 1 0 2 1
.
Teorema 6.8 Si A es una matriz n 3 m, B es una matriz m 3 k, C es una matriz k 3 p, D es una matriz
m 3 k y l es un número real. Las siguientes propiedades se mantienen:
a) A(BC) = (AB)C; b) A(B + D) = AB + AD; c) λ(AB) = (λA)B = A(λB).
Demostración -
todo involucrado. Las otras partes se pueden demostrar de manera similar.
Para mostrar que A(BC) = (AB)C, calcule la i j-entrada de cada lado de la ecuación. BC
es una matriz m 3 p con i j-entrada
k
(BC)s j = bsl cl j .
l=1
Matrices cuadradas
-
tantes en aplicaciones.
Definición 6.9 i)
ii) D = [di j ] es una matriz cuadrada con di j = 0 siempre que
El término diagonal aplicado
i = j.
entradas en la diagonal que iii) La matriz identidad de orden n, In = [δi j ], es una matriz diagonal cuyas entradas
van desde la entrada superior diagonales son todas 1. Cuando el tamaño de In es claro, en general, la matriz se
izquierda hasta la entrada inferior escribe simplemente como I.
derecha.
1 0 0
I = 0 1 0 .
0 0 1
u i j = 0, para cada i = j + 1, j + 2, . . . , n;
y una matriz triangular inferior L = [li j ] tiene, para cada j = 1, 2, . . . , n las entradas
que tiene todas las entradas cero,
li j = 0, para cada i = 1, 2, . . . , j − 1.
principal. -
bido a que sus entradas diferentes de cero deben estar en la diagonal principal.
1 0 0
I3 = 0 1 0 .
0 0 1
In A = A = AIn .
Considere que esta propiedad, en general, no es cierta, incluso para las matrices cuadradas.
292 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
Matrices inversas
La inversa de una matriz está relacionada con los sistemas lineales.
i) A−1 es única.
ii) A−1 es no singular y (A−1 )−1 = A.
iii) Si B también es una matriz no singular n × n, entonces (AB)−1 = B −1 A−1 .
Ejemplo 4 Si
1 2 − 29 5
− 19
9
−1
4
A= 2 1 0 y B= − 19 2
.
9 9
−1 1 2 − 13 1 1
3 3
Muestre que B = A−1 y que la solución para el sistema lineal descrito mediante
x1 + 2x2 − x3 = 2,
2x1 + x2 = 3,
−x1 + x2 + 2x3 = 4,
está dado por las entradas en Bb, donde b es el vector columna con entradas 2, 3 y 4, res-
pectivamente.
1 2 −1 x1 2
2 1 0 x2 = 3
−1 1 2 x3 4
tenemos
− 29 5
− 19 1 2
9 −1
B Ax = 4
− 19 2
2 1 0 x = x
9 9
1 2
− 39 3
9
3
9
−1
6.3 Álgebra lineal e inversión de matriz 293
− 29 5
− 19 2
7
9 9
4
B Ax = B(b) = − 19 2
3 = 13
.
9 9 9
− 13 1 1 4 5
3 3 3
b1 j
b2 j
Bj =
.. .
.
bn j
n
c1 j a11 a12 a1n b1 j a1k bk j
··· k=1
n
c2 j a21 a22 ··· a2n b2 j k=1 a2k bk j
= C j = AB j =
.. .. .. .. .. = .. .
. . . . . .
cn j an1 an2 · · · ann bn j
n
k=1 ank bk j
0
..
.
0
Para encontrar B, necesitamos resolver n sistemas lineales en los que la j-ésima columna
de la inversa es la solución del sistema lineal con el lado derecho de la j-ésima columna de I.
La siguiente ilustración demuestra este método.
1 2
−1
A= 2 1 0 ,
−1 1 2
294 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
único cambio en los sistemas se presenta en el lado derecho de las ecuaciones. Como con-
secuencia, la eliminación gaussiana se puede realizar en una matriz aumentada formada al
combinar las matrices de cada uno de los sistemas:
.
1 2 −1 ... 1 0 0
2 1 0 .. 0 1 0 .
.
−1 1 2 .. 0 0 1
La sustitución hacia atrás se realiza en cada una de las tres matrices aumentadas,
. . .
1 2 −1 ... 1 1 2 −1 ... 0 1 2 −1 ... 0
0 −3 2 ... −2 , 0 −3 2 ... 1 , 0 −3 2 ... 0 ,
0 0 .
3 . −1 0 0 .
3 . 1 0 0 3 .. 1
A−1:
− 29 5 1
−9
9
4
B=A −1
= − 19 2
.
9 9
− 13 1
3
1
3
A−1
la matriz aumentada más grande,
..
A . I .
6.3 Álgebra lineal e inversión de matriz 295
de la forma
..
U . Y ,
donde U es una matriz triangular superior y Y es la matriz obtenida al realizar las mismas
operaciones en la identidad I que se realizaron para llevar A a U.
La eliminación gaussiana con sustitución hacia atrás requiere
4 3 1 4 3 n
n − n multiplicaciones/divisiones y n 3 − n 2 + sumas/restas
3 3 3 2 6
Definición 6.13 La transpuesta de una matriz A 5 [aij] n 3 m es la matriz At 5 [aij], m 3 n, donde para
cada i, la i-ésima columna de At es la misma que la i-ésima A A
recibe el nombre de simétrica si A 5 At.
7 2 0 6 4
−3
2 4 7
A= 3 5 −1 , B= C = 4 −2 0
3
,
−5 −1
0 5 −6 −3 0 1
tienen transpuestas
7 3 0 2 3 6 4 −3
At = 2 5 5 , B t = 4 −5 , Ct = 4 −2 0 .
0 −1 −6 7 −1 −3 0 1
Teorema 6.14 Las siguientes operaciones relacionadas con la transpuesta de una matriz se mantienen siem-
pre que la operación sea posible
o mediante
usado el término “determinante”.
n n
det A = ai j Ai j = (−1)i+ j ai j Mi j , para cualquier j = 1, 2, . . . , n.
i=1 i=1
general n 3 n O(n!)
restas. Incluso para valores relativamente pequeños de n, el número de cálculos se vuelve
detA
2 3 0
−1
4 −2 7 0
A=
1 5
−3 −4
6 −6 8 0
det A = a14 A14 + a24 A24 + a34 A34 + a44 A44 = 5A34 = −5M34 .
2 3
−1
det A = −5 det 4 −2 7
6 −6 8
−2 7 4 7 4 −2
= −5 2 det − (−1) det + 3 det = −30.
−6 8 6 8 6 −6
6 .4 Determinante de una matriz 297
Las siguientes propiedades son útiles para relacionar sistemas lineales y eliminación gau-
ssiana para determinantes. Éstas están probadas en cualquier texto de álgebra lineal estándar.
La parte ix) del teorema 6.16 indica que el determinante de una matriz triangular es
dadas en las partes iii), iv) y v), podemos reducir una matriz cuadrada determinada a la forma
triangular para encontrar su determinante.
1 12 − 12 1
2
0 1 1 5
à =
0 0 3
.
13
0 0 0 −13
Teorema 6.17 Las siguientes declaraciones son equivalentes para cualquier matriz n 3 n A:
i) La ecuación Ax 5 0 tiene la solución única x 5 0.
ii) El sistema Ax 5 b tiene una solución única para cualquier vector de columna n-di-
mensional b.
iii) La matriz A es no singular, es decir, existe A21.
iv) det A = 0.
v)
Ax 5 b para cualquier vector de columna n-dimensional b.
El siguiente corolario para el teorema 6.17 ilustra cómo se puede utilizar el determinante
para mostrar propiedades importantes sobre matrices cuadradas.
Corolario 6.18 Suponga que tanto A como B son matrices n 3 n ya sea con AB = I o B A = I . Entonces
B = A−1 (y A = B −1 ).
Demostración Suponga que A B 5 I. Entonces, por medio de la parte vi) del teorema 6.16
1 = det(I ) = det(AB) = det(A) · det(B), por lo que det(A) = 0 y det(B) = 0.
La equivalencia de las partes iii) y iv) del teorema 6.17 implica que existe tanto A21 como
B21. Por lo tanto,
Los papeles de A y B son similares, por lo que esto también establece que B A 5 I. Por lo
que B 5 A21.
Ejemplo 1 Compare el número aproximado de operaciones requeridas para determinar la solución para
un sistema lineal mediante una técnica que requiera O(n 3 /3) operaciones y una que necesite
O(2n 2 ) cuando n = 20, n = 100 y n = 1000.
a (1)
j1
(E j − m j,1 E 1 ) → (E j ), donde m j,1 = . (6.8)
a11
(1)
Estas operaciones transforman el sistema en uno en el que todas las entradas en la primera
columna por debajo de la diagonal son cero.
El sistema de operaciones en la ecuación (6.8) se puede observar de otra manera. Se
logra simultáneamente al multiplicar la matriz original A a la izquierda de la matriz
1 0.. .. .. . . . . . . . . . 0.
− m. 21 1 . . . . . ..
. ... ... ..
La factorización de matrices
M =
(1) .. .
0. . . . . . . . . . . ..
es otra de las técnicas .. .. . . . . . . .
.. . . .. ... 0
importantes que Gauss parece
−m n1 0 . . . . . . . . 0 1
haber descubierto primero.
Está incluida en su tratado de
dos volúmenes sobre mecánica Esto recibe el nombre de primera matriz de transformación gaussiana. Nosotros denota-
celeste Theoria motus corporum
coelestium in sectionibus conicis
mos el producto de esta matriz con A(1) ≡ A por A(2) y con b y b(2), por lo que
Solem ambientium, publicado
en 1809. A(2) x = M (1) Ax = M (1) b = b(2) .
300 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
De manera similar, construimos M(2), la matriz identidad con entradas por debajo de la
diagonal en la segunda columna reemplazadas por los negativos de los multiplicadores
a (2)
j2
m j,2 = .
a22
(2)
El producto de esta matriz con A(2) tiene ceros por debajo de la diagonal en las primeras dos
columnas y hacemos
.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0.
1 . 0
... ...
... ... ..
..
0. . . ... ... ..
... . ...
.. . . ..
. .. ... ...
.. .. . ... ... ..
. .. ..
. .. ... . ...
.. ..
. ... ... ..
.. 0. . ... ...
. . ... . .. ,
M = . .
. ... ..
(k)
.. .. .
.. .. − m. k+1,k . . . . ...
...
..
. . .. ... ..
.
.. .. .. .. ... ..
.
.. .. .. 0. . . . . . . ... .
. .. .. .. . . . . . . . . . ..
.. .. .. .. ... .. . .
...
. . .. . . . ... .. 0
.. .. ..
.. ...
. . .. .
0 ......... 0 . 0 . . . . . . . . . . . .0 1
−m n,k
para obtener
A(k+1) x = M (k) A(k) x = M (k) · · · M (1) Ax = M (k) b(k) = b(k+1) = M (k) · · · M (1) b. (6.9)
El proceso termina con la formación de A(n) x = b(n) , donde A(n), es la matriz triangular
superior
(1) . . . . . . . . . (1)
a11 a12 ... a. 1n
(1)
... ..
0. . . a22 (2)
. . . . . ..
A = .. . . . .
(n) ... .. .
.
,
. . . . a
. . . n−1,n
. ...
(n−1)
.
. .
0 . . . . . . . . . . .. 0 ann (n)
dada por
(E j − m j,k E k ) → (E j ), para j = k + 1, . . . , n.
6.5 Factorización de matriz 301
Invertir los efectos de esta transformación y regresar a A(k) requiere realizar las operaciones
(E j + m j,k E k ) → (E j ) para cada j = k + 1, . . . , n. esto es equivalente a multiplicar por
la inversa de la matriz M (k), la matriz
1 . . . 0.. .. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0.
... ... ..
0. . . . . . . . . . . . . ..
.. . . . . ... ... ..
. . .
.. ... ... ... ..
.. . . . ... .... . ..
.. 0. . ... .... ..
...
L (k) = [M (k) ]−1 .. .. ... ..
.
= .
.
.. .. m k+1,k
. ... ... ..
.. .. .. . ... . ... ..
. .
.. .. .. 0. . . . . . . . . . . . ..
.. .. .. .. . . . . . . . .
... ... . 0
.. .. .. ..
. . . .
. .. . . . ..
0 ......... 0 m n,k 0 . . . . . . . . . .0 1
1 0.. .. .. . . . . . . . . 0.
m. 21 1 . . . . . . . ..
L = L (1) L (2) · · · L (n−1) = . ... ... .... . ,
.. ... .
. .. ..... 0
m n1 . . . . . m n,n−1 . 1
puesto que el producto de L con la matriz triangular superior U = M (n−1) · · · M (2) M (1) A da
LU = L (1) L (2) · · · L (n−3) L (n−2) L (n−1) · M (n−1) M (n−2) M (n−3) · · · M (2) M (1) A
= [M (1) ]−1 [M (2) ]−1 · · · [M (n−2) ]−1 [M (n−1) ]−1 · M (n−1) M (n−2) · · · M (2) M (1) A = A.
Teorema 6.19 Si la eliminación gaussiana se puede realizar en el sistema lineal Ax 5 b sin intercambios de
A se puede factorizar en el producto de una matriz triangular inferior
ji /aii ,
L y una matriz triangular superior U, es decir, A 5 LU, donde m ji = a (i) (i)
(1) . . . . . . . . . (1)
a11 a12 ... a. 1n
(1)
0.. .. .. . . . . . . . .
... . 1 0.
. . . . ... ... ..
0. . . . a22 . . . m.. 21 . . .1. . . . . . . . . . . .
.
(2)
. . .
U = .. . . . ... y L= . .. ... .
... ..
,
.. . . . a (n−1) 0
. . . .. . .n−1,n . ...... .... .....
m n1 m n,n−1 1
0 ...........0
ann (n)
1 1 0 3 4
2 1 −1 1
A= y b = 1 .
3 −1 −1 2 −3
−1 2 3 −1 4
x1 + x2 + 3x4 = 8,
2x1 + x2 − x3 + x4 = 7,
3x1 − x2 − x3 + 2x4 = 14,
−x1 + 2x2 + 3x3 − x4 = −7.
302 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
x1 + x2 + 3x4 = 4,
− x2 − x3 − 5x4 = −7,
3x3 + 13x4 = 13,
− 13x4 = −13.
1 1 0 3 1 0 0 0 1 1 0 3
2 1 1
A=
−1 = 2 1 0 0
0 −1 −1 −5 = LU.
3 −1 2 3 4 1 0 0 0 3 13
−1
−1 2 3 −1 −1 −3 0 1 0 0 0 −13
b) Para resolver
1 0 0 0 1 1 0 3 x1 8
2 1 0 0 0 −1 −1 −5 x2 7
Ax = LU x =
3
=
4 1 0 0 0 3 13 x3 14 ,
−1 −3 0 1 0 0 0 −13 x4 −7
1 0 0 0 y1 8
2 1 0 0 y2 7
Ly =
3
=
4 1 0 y3 14 .
−1 −3 0 1 y4 −7
y1 = 8;
2y1 + y2 = 7, por lo que y2 = 7 − 2y1 = −9;
3y1 + 4y2 + y3 = 14, por lo que y3 = 14 − 3y1 − 4y2 = 26;
−y1 − 3y2 + y4 = −7, por lo que y4 = −7 + y1 + 3y2 = −26.
1 1 0 3 x1 8
0 −1 −1 −5 x2 = −9 .
0 0 3 13 x3 26
0 0 0 −13 x4 −26
ALGORITMO Factorización LU
6.4 Para factorizar la matriz n 3 n A = [ai j ] en el producto de la matriz triangular inferior
L = [li j ] y la matriz triangular superior U = [u i j ], es decir A 5 LU, donde la diagonal
principal ya sea de L o U consta sólo de unos:
b1
y1 = ,
l11
y, para cada i = 2, 3, . . . , n,
i−1
1
yi = bi − li j y j .
lii j=1
Después de encontrar y mediante este proceso de sustitución hacia adelante, el sistema trian-
gular superior U x 5 y se resuelve para x mediante sustitución hacia atrás con las ecuaciones
n
yn 1
xn = y xi = yi − ui j x j .
u nn u ii j=i+1
304 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
Matrices de permutación
En el análisis previo suponemos que A x 5 b se puede resolver por medio de eliminación
-
contramos al utilizar métodos de aproximación son de este tipo, pero ahora consideraremos
análisis con la introducción de una clase de matrices que se usan para reordenar, o permutar,
Ilustración La matriz
1 0 0
P= 0 0 1
0 1 0
1, si j = ki ,
pi j =
0, en otro caso.
Entonces
La multiplicación de la matriz • PA A; es decir,
AP permuta las columnas de A.
ak 1 1 ak 1 2 ··· ak 1 n
ak 1 ak 2 2 ··· ak 2 n
2
PA = .
.. .. .
.. ..
. . .
ak n 1 ak n 2 · · · ak n n
A, el sis-
tema lineal A x 5 b se puede resolver mediante la eliminación gaussiana, sin la posibilidad
P A se puede
factorizar en
P A = LU,
donde L es triangular inferior y U es triangular superior. Puesto que P21 5 P t, esto produce
la factorización
A = P −1 LU = (P t L)U.
La matriz U sigue siendo triangular superior, pero P t L no es triangular inferior a menos que
P 5 I.
0 0 −1 1
1 1 −1 2
A=
2 0
.
−1 −1
1 2 0 2
Solución La matriz A no puede tener una factorización LU porque a11 5 0. Sin embargo, utili-
(E 1 ) ↔ (E 2 ), seguido por (E 3 + E 1 ) → (E 3 ) y (E 4 − E 1 ) → (E 4 ),
produce
1 1 2
−1
0 0 −1 1
0 0 1 2
.
0 1 1 0
(E 2 ) ↔ (E 4 ), seguido de (E 4 + E 3 ) → (E 4 ), produce la
matriz
1 1 −1 2
0 1 1 0
U =
0 0 1 2
.
0 0 0 3
(E 1 ) ↔ (E 2 ) y (E 2 ) ↔
(E 4 ) es
0 1 0 0
0 0 0 1
P=
0 0 1 0
1 0 0 0
1 1 −1 2
1 2 0 2
PA =
2 0
.
−1 −1
0 0 −1 1
306 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
m 21 = 1, m 31 = −1, y m 43 = −1,
y la factorización LU de P A es
1 0 0 0 1 1 −1 2
1 1 0 0 0 1 1 0
PA = = LU.
0 1 0 0 0 1 2
−1
0 0 −1 1 0 0 0 3
0 0 1 1 1 2
−1 −1
t t
1 0 0 0 0 1 1 0
A = P (LU ) = P (LU ) = (P L)U =
−1
−1 0 1 0 0 0 1 2
.
1 1 0 0 0 0 0 3
Cada entrada de la diagonal Una matriz diagonalmente dominante es estrictamente diagonalmente dominante
principal en una matriz cuando la desigualdad en la ecuación (6.10) es estricta para cada n, es decir, cuando
estrictamente diagonalmente
dominante tiene una magnitud n
que es estrictamente superior a la
|aii | > |ai j | se mantiene para cada i = 1, 2, . . . , n.
suma de las magnitudes de todas
j=1,
j=i
7 2 0 6 4
−3
A= 3 5 −1 y B= 4 −2 0 .
0 5 −6 −3 0 1
6.6 Tipos especiales de matrices 307
|7| > |2| + |0|, |5| > |3| + |−1|, y |−6| > |0| + |5|.
Teorema 6.21 Una matriz estrictamente diagonalmente dominante A es no singular. Además, en este caso,
la eliminación gaussiana se puede realizar en cualquier sistema lineal de la forma Ax = b
-
bles respecto al crecimiento de errores de redondeo.
n
Puesto que j=1 ai j x j = 0 para cada i = 1, 2, . . . , n, tenemos, cuando i 5 k,
n
akk xk = − ak j x j .
j=1,
j=k
mostramos que cada una de las matrices A(2) , A(3) , . . . , A(n) generadas por el proceso de
eliminación gaussiana (y descrito en la sección 6.5) es estrictamente diagonalmente domi-
nante. Eso garantizaría que en cada etapa del proceso de eliminación gaussiana, el elemento
pivote es distinto a cero.
Puesto que A es estrictamente diagonalmente dominante, a11 = 0 y A(2) se puede reali-
zar. Por lo tanto, para cada i = 2, 3, . . . , n,
a1(1)j ai1
(1)
ai(2)
j = ai j −
(1)
, para 2 ≤ j ≤ n.
a11
(1)
Primero, ai1
(2)
= 0. La desigualdad triangular implica que
n n n n
a1(1)j ai1
(1)
a1(1)j ai1
(1)
|ai(2)
j |= ai(1)
j − ≤ |ai(1)
j |+ .
j=2 j=2 a11
(1)
j=2 j=2 a11
(1)
j =i j =i j =i j =i
308 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
por lo que
n (1) (1)
|ai1 | |ai1 ||a1i(1) |
|ai(2) (1) (1)
j | < |aii | − |ai1 | + (1)
(1)
(|a11 | − |a1i(1) |) = |aii(1) | − (1)
.
j=2 |a11 | |a11 |
j =i
lo cual nos da
n
|ai(2) (2)
j | < |aii |.
j=2
j =i
2, . . . , n A(2)
(2)
y A son la misma, por lo que A es estrictamente diagonalmente dominante.
Este proceso continúa de manera inductiva hasta que se obtiene A(n) triangular superior y
estrictamente diagonalmente dominante. Esto implica que todos los elementos diagonales son
Definición 6.22 Una matriz A es si es simétrica y si xt Ax > 0 para cada vector n-dimen-
sional x = 0.
Golub y van Loan (GV), una referencia estándar en métodos matriciales sólo requieren que
xt Ax debe ser positivo siempre xt Ax > 0 para cada x = 0. -
que x 5/ 0.
2 −1 0
A = −1 2 −1
0 −1 2
2 −1 0 x1
xt Ax = [x1 , x2 , x3 ] −1 2 −1 x2
0 −1 2 x3
2x1 − x2
a menos que x1 = x2 = x3 = 0.
Demostración
0, si i = j y i = k,
xi = 1, si i = j,
−1, si i = k.
310 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
Puesto que x = 0,
0 < xt Ax = a j j + akk − a jk − ak j .
Pero At = A, por lo que a jk = ak j , lo cual implica que
2ak j < a j j + akk . (6.11)
0, si i = j y i = k,
zi =
1, si i = j o i = k.
0, si k = j y k = i,
xk = α, si k = i,
1, si k = j,
Definición 6.24 Una primera submatriz principal de una matriz A es una matriz de la forma
para algunas 1 ≤ k ≤ n.
Ejemplo 2
2 0
−1
A = −1 2 −1
0 −1 2
6.6 Tipos especiales de matrices 311
2 0
−1
2 −1 −1 −1
det A3 = det −1 2 −1 = 2 det − (−1) det
−1 2 0 2
0 −1 2
=2(4 − 1) + (−2 + 0) = 4 > 0,
El siguiente resultado amplía la parte i) del teorema 6.23 e iguala los resultados estric-
tamente diagonalmente dominantes presentados en el teorema 6.21 en la página 307. No
probaremos este teorema porque requiere introducir terminología y resultados que no son
necesarios para cualquier otro propósito. El desarrollo y la demostración se pueden encontrar
en [We], p. 120 ff.
i−1
Paso 3 Determine di = aii − j=1 li j v j .
i−1
Paso 4 Para j = i + 1, . . . , n determine l ji = (a ji − k=1 l jk vk )/di .
Corolario 6.29 Si A es una matriz simétrica n 3 n para el que se puede aplicar eliminación gaussiana sin
A se puede factorizar en LDL t, donde L es triangular inferior
con números 1 en su diagonal y D es la matriz diagonal con a11 , . . . , ann
(1) (n)
en su diagonal.
4 1
−1
A = −1 4.25 2.75 .
1 2.75 3.5
d1 d1l21 d1l31
2
= d1l21 d2 + d1l21 d2l32 + d1l21l31 .
2 2
d1l31 d1l21l31 + d2l32 d1l31 + d2l32 + d3
Por lo tanto,
y tenemos
1 0 0 4 0 0 1 −0.25 0.25
Paso 5 Para j = i + 1, . . . , n
i−1
determine l ji = a ji − k=1 l jk lik /lii .
1/2
n−1 2
Paso 6 Determine lnn = ann − k=1 l nk .
4 1
−1
A = −1 4.25 2.75 .
1 2.75 3.5
Por lo tanto,
2
a11 : 4 = l11 l11 = 2, a21 : − 1 = l11l21 l21 = −0.5
2 2
a31 : 1 = l11l31 l31 = 0.5, a22 : 4.25 = l21 + l22 l22 = 2
2 2 2
a32 : 2.75 = l21l31 + l22l32 l32 = 1.5, a33 : 3.5 = l31 + l32 + l33 l33 = 1,
y tenemos
2 0 0 2 −0.5 0.5
A = L L t = −0.5 2 0 0 2 1.5 .
0.5 1.5 1 0 0 1
La factorización LDL t descrita en el algoritmo 6.5 requiere
1 3 7 1 3 1
n + n 2 − n multiplicaciones/divisiones y n − n sumas/restas.
6 6 6 6
314 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
La factorización LL t
1 3 1 2 2 1 3 1
n + n − n multiplicaciones/divisiones y n − n sumas/restas.
6 2 3 6 6
Paso 6 Determine y1 = b1 .
i−1
Paso 7 Para i = 2, . . . , n determine yi = bi − j=1 li j y j .
Finalmente, el sistema triangular superior L t x = z se resuelve con los pasos dados por
Paso 9 Determine xn = z n .
n
Paso 10 Para i = n − 1, . . . , determine xi = z i − j=i+1 l ji x j .
La tabla 6.4 muestra las operaciones adicionales requeridas para resolver el sistema
lineal.
-
les para resolver el sistema Ax = b son los siguientes. Primero borre la instrucción PARE
del paso 7. A continuación, añada:
Paso 8 Determine y1 = b1 /l11 .
i−1
Paso 9 Para i = 2, . . . , n determine yi = bi − j=1 li j y j lii .
Paso 10 Determine xn = yn /lnn .
n
Paso 11 Para i = n − 1, . . . , determine xi = yi − j=i+1 l ji x j lii .
Paso 12 SALIDA (xi para i = 1, . . . , n);
PARE.
Los pasos 8-12 requieren n2 1 n multiplicaciones/divisiones y n2 2 n sumas/restas.
6.6 Tipos especiales de matrices 315
Matrices de banda
La última clase de matrices considerada son las matrices de banda. En muchas aplicacio-
positivas.
Definición 6.30 Una matriz n 3 n recibe el nombre de matriz de banda si existen los enteros p y q con
1< p, q < n, con la propiedad de que ai j = 0 siempre que p ≤ j − i o q ≤ i − j. El
El nombre para una matriz de ancho de banda w = p + q − 1.
banda proviene del hecho de que
todas las entradas diferentes a
cero se encuentran en una banda El número p describe el número de diagonales sobre la diagonal principal, incluyendo
centrada en la diagonal principal. la diagonal principal, en la que pueden encontrar entradas diferentes a cero. El número q
describe el número de diagonales debajo de la diagonal principal, incluyendo la diagonal
principal, en la que pueden encontrar entradas diferentes a cero. Por ejemplo, la matriz
7 2 0
A= 3 5 −1
0 −5 −6
diferentes a cero alrededor de la diagonal. Dos casos especiales de matrices de banda que se
presentan con frecuencia tienen p 5 q 5 2 y p 5 q 5 4.
Matrices tridiagonales
Las matrices de ancho de banda 3 se presentan cuando p 5 q 5 2, reciben el nombre de
tridiagonales porque tienen la forma
a11 a12 0.. .. .. . . . . . . . . . . . . . . . . 0.
. ..
a21 a22 a23 . . . . . ..
...
. .
.. . . . 32 . . .a33 . . .a. 34 . . . . . . . . . . ...
0 a
A = . ... ... . .
... . . ... . .. . .
0
..
. ... ..... ..... ....
... ...
..
. . . . . . . an−1,n
. .. .
0 . . . . . . . . . . . . . . . 0 an,n−1 ann
Las matrices tridiagonales también se consideran en el capítulo 11 junto con el estudio de las
aproximaciones lineales por tramos para problemas de valor en la frontera. El caso p 5 q 5 4,
se utilizará para solucionar problemas de valor en la frontera al aproximar funciones que
asumen la forma de splines cúbicos.
-
ces de banda debido al gran número de ceros que aparecen en estas matrices en patrones regulares.
Es especialmente interesante observar la forma que el método Crout o Doolittle asume en este caso.
Para ilustrar la situación, suponga que una matriz tridiagonal A se puede factorizar en las
matrices triangulares L y U. Entonces A tiene máximo (3n 2 2) entradas diferentes a cero.
Por lo que existen solamente (3n 2 2) condiciones a aplicar para determinar las entradas de
L y U, siempre y cuando, por supuesto, también se obtengan las entradas cero de A.
Suponga que las matrices L y U también tienen forma tridiagonal; es decir,
a11 = l11 ;
ai,i−1 = li,i−1 , para cada i = 2, 3, . . . , n; (6.13)
aii = li,i−1 u i−1,i + lii , para cada i = 2, 3, . . . , n; (6.14)
Una solución para este sistema se encuentra al utilizar primero la ecuación (6.13) para
obtener los términos fuera de la diagonal diferentes a cero en L y después, con las ecuaciones
(6.14) y (6.15) para obtener de manera alternativa el resto de las entradas en U y L. Una vez
que se calcula una entrada L o U, la entrada correspondiente en A no es necesaria. Por lo que,
las entradas en A se pueden sobrescribir mediante las entradas en L y U con el resultado de
que no se requiere almacenamiento nuevo.
El algoritmo 6.7 resuelve un sistema n 3 n -
ciente es tridiagonal. Este algoritmo solamente requiere (5n 2 4) multiplicaciones/divisio-
nes y (3n 2 3) sumas/restas. Por consiguiente, tiene una ventaja computacional considerable
sobre los métodos que no consideran la tridiagonalidad de la matriz.
2 −1 0 0
−1 2 −1 0
0 −1 2 −1
0 0 −1 2
2x1 − x2 = 1,
−x1 + 2x2 − x3 = 0,
− x2 + 2x3 − x4 = 0,
− x3 + 2x4 = 1.
a11 0 0 0 l11 0 0 0 1 u 12 0 0
a21 a22 a23 0 l21 l22 0 0 0 1 u 23 0
A=
0 a32 a33 a34 = 0 l32 l33 0 0 0 1 u 34
Por lo tanto,
2 −1 0 0 2 0 0 0 1 − 12 0 0
3
−1 2 −1 0 −1 0 0 0 1 − 23 0
A= 2 = LU.
= 4
0 −1 2 −1 0 −1 0 0 0 1 − 34
3
0 0 −1 2 0 0 −1 5
4
0 0 0 1
Al resolver el sistema
1
2 0 0 0 z1 1 z1
2
3 1
−1 0 0 z2 0 z2 3
Lz = 2 nos da
=
0 −1 4
0 z3 0 z3 = ,
1
3 4
0 0 −1 5
z4 1 z4
4 1
318 CAPÍTULO 6 Métodos directos para resolver sistemas lineales
y al resolver
1
1 − 12 0 0 x1 x1 1
2
1
0 1 − 23 0 x2 x2 1
Ux = 3
nos da
= =
x3 1
.
0 0 1 − 34 x3
1
4
0 0 0 1 x4 x4 1
1
El algoritmo de factorización Crout se puede aplicar siempre que lii = 0 para cada
i = 1, 2, . . . , n. Dos condiciones, cualquiera que garantice que esto es verdad, son que la
dominante. Una condición adicional que garantiza la aplicación de este algoritmo se propor-
ciona en el siguiente teorema, cuya demostración se considera en el ejercicio 30.
Teorema 6.31 Suponga que A = [ai j ] es tridiagonal con ai,i−1 ai,i+1 = 0, para cada i = 2, 3, . . . , n − 1.
Si |a11 | > |a12 |, |aii | ≥ |ai,i−1 | + |ai,i+1 |, para cada i = 2, 3, . . . , n − 1, y |ann | > |an,n−1 |,
entonces A es no singular y los valores de li i descritos en el algoritmo de factorización Crout
son diferentes a cero para cada i = 1, 2, . . . , n.
1. Matriz general P A 5 LU
2. A 5 LLt
Las secciones Preguntas de análisis, Conceptos clave y Revisión del capítulo están dis-
ponibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
CAPÍTULO
Introducción
Las vigas son estructuras livianas capaces de sostener cargas pesadas. En el diseño de puen-
tes, las partes individuales de las vigas están conectadas con uniones orientables que permi-
2
f1 f4
f3
f1 f3 f4
F1 l1
1 3 4
f2 f2 f5 f5
10 000 N
F2 F3
Si la viga está en equilibrio estático, las fuerzas en cada unión se deben sumar al vector
cero, por lo que la suma de los componentes horizontales y verticales en cada unión debe
matriz de 8 × 8 que describe este sistema tiene 47 entradas cero y sólo 17 entradas diferentes
dispersas
y, a menudo, se resuelven utilizando métodos iterativos en lugar de técnicas directas. La so-
10 en la sección 7.4.
319
320 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
Los métodos que se presentan en el capítulo 6 usaban técnicas directas para resolver
un sistema de n 3 n ecuaciones lineales de la forma Ax 5 b. En este capítulo presentamos
métodos iterativos para resolver un sistema de este tipo.
Definición 7.1 Una norma vectorial en Rn, es una función, · , de Rn, a R, con las siguientes propiedades:
i) x 0 para toda x ∈ Rn ,
ii) x 0 si y sólo si x = 0,
iii) αx α x para toda α ∈ R y x ∈ Rn ,
iv) x+y x y para toda x, y ∈ Rn .
Los vectores en Rn, son vectores columna y es conveniente usar la notación de la trans-
puesta presentada en la sección 6.3 cuando un vector se representa en términos de sus com-
x1
x2
x=
..
.
xn
se escribirá x = (x1 , x2 , . . . , xn )t .
Rn, a pesar de que se presenta una tercera
n
norma en R
Observe que cada una de estas normas se reduce al valor absoluto para el caso n 5 1.
La norma l2 recibe el nombre de norma euclidiana del vector x porque representa la no-
ción común de distancia desde el origen cuando x está en R1 ≡ R, R2 o R3
la norma l2 del vector x = (x1 , x2 , x3 )t provee la longitud del segmento recto que une los
puntos (0, 0, 0) y (x1 , x2 , x3 ) R2 y R3
que tienen una norma l2 l∞.
Figura 7.1
x2 x3
Los vectores en el
Los vectores en !2 primer octante de !3
con la norma l2 menor con la norma l2 menor
a 1 se encuentran dentro (0, 1) a 1 están dentro de esta
de esta figura. (0, 0, 1) figura.
(21, 0) (1, 0)
x1
(1, 0, 0) (0, 1, 0)
x1 x2
(0, 21)
Figura 7.2
x2 x3
(1, 1, 1)
x1
(21, 0) (1, 0)
(1, 0, 0)
(0, 1, 0)
x1
(1, 1, 0) x2
(21, 21) (0, 21) (1, 21)
√
x 2 = (−1)2 + (1)2 + (−2)2 = 6
l∞ porque
siguen resultados similares para valores absolutos. La única propiedad que requiere más de-
mostración es iv) y, en este caso, si x = (x1 , x2 , . . . , xn )t y y = (y1 , y2 , . . . , yn )t , entonces
x+y ∞ = máx |xi + yi | ≤ máx (|xi | + |yi |) ≤ máx |xi | + máx |yi x ∞ y ∞.
1≤i≤n 1≤i≤n 1≤i≤n 1≤i≤n
Las primeras tres condiciones también son fáciles de demostrar para la norma l2. Pero
para mostrar eso
usó una forma de integral doble Sin embargo x 2 >0y y 2 > 0, por lo que podemos hacer λ x 2/ y 2 para obtener
de esta desigualdad en 1885.
Más detalles sobre la historia se n
x 2 2 x 2
2 2
2 x y = 2 x 22 .
pueden encontrar en [Stee].
xi yi 2 + 2
y 2 i=1
y 2
2
Por lo tanto,
n
2 y 2
2 xi yi ≤ 2 x 2 =2 x 2 y 2,
i=1
x 2
7.1 Normas de vectores y matrices 323
y
n n 1/2 n 1/2
xt y = xi yi x 2 y 2 = xi2 yi2 .
i=1 i=1 i=1
2 2 1/2
x+y 2 ≤ x 2 +2 x 2 y 2 y 2 x 2 y 2.
y
1/2
x − x̃ 2 = (1 − 1.2001)2 + (1 − 0.99991)2 + (1 − 0.92538)2
= [(0.2001)2 + (0.00009)2 + (0.07462)2 ]1/2 = 0.21356.
A pesar de que los componentes x̃2 y x̃3 son buenas aproximaciones para x2 y x3, el compo-
nente x̃1 es una aproximación débil para x1 y |x1 − x̃1 | domina ambas normas.
324 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
El concepto de distancia en Rn
vectores en este espacio.
n ·
Definición 7.5 Se dice que una sucesión {x(k) }∞
k=1 de vectores en R converge a x respecto a la norma
si, dado cualquier ε > 0, existe un entero N (ε) tal que
Demostración Suponga que {x(k) } converge a x respecto a la norma l∞. Dado cualquier
ε > 0, existe un entero N (ε) tal que para toda k ≥ N (ε),
Este resultado implica que |xi(k) − xi | < ε, para cada i = 1, 2, . . . , n, por lo que
límk→∞ xi(k) = xi para cada i.
Por el contrario, suponga que límk→∞ xi(k) = xi, para cada i = 1, 2, . . . , n. Para un
ε > 0, dado, sea Ni (ε) para cada i representa un entero con la propiedad de que
|xi(k) − xi | < ε,
el teorema 7.6 implica que la sucesión {x(k) } converge a (1, 2, 0, 0) t respecto a la norma l∞.
(1, 2, 0, 0) t respecto a
la norma l2
caso especial
x ∞ x 2.
Por lo que,
n n
2
x 2 = xi2 ≤ x 2j = nx 2j = n||x||2∞ ,
i=1 i=1
√
y x 2 ≤ n x ∞.
n 5 2.
Figura 7.3
x2
i xi ` < 1
1
i x i2 < 1
21 1 x1
i x i` < √
2
2
21
Ejemplo 4 {x(k) },
t
1 3
x(k) = 1, 2 + , 2 , e−k sen k ,
k k
converge a x = (1, 2, 0, 0)t respecto a la norma l∞. Muestre que esta sucesión también
converge a x respecto a la norma l2.
Solución Dado cualquier ε > 0, existe un entero N (ε/2) con la propiedad de que
ε
x(k) − x < ,
2
∞
cuando k ≥ N (ε/2). Por lo que {x(k) } también converge a x respecto a la norma l2.
326 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
Se puede mostrar que todas las normas en Rn son equivalentes respecto a la convergen-
cia; es decir, si · y · son dos normas cualquiera sobre Rn y {x(k) }∞ k=1 tiene el límite x
respecto a · , entonces {x(k) }∞
k=1 también tiene el límite x respecto a · . La prueba de este
hecho para el caso general se puede encontrar en [Or2], p. 8. El caso para las normas l2 y l∞
se siguen el teorema 7.7.
i) A 0;
ii) A 0, si y sólo si A es O, la matriz con todas las entradas 0;
iii) αA α A ;
iv) A+B A B ;
v) AB A B .
A máx Ax (7.2)
x 1
z Az
máx Ax máx A = máx ,
x 1 z=0 z z=0 z
Az
A máx . (7.3)
z=0 z
A .
Corolario 7.10 para cualquier vector z = 0, matriz A y cualquier norma natural · , tenemos
Az A · z .
7.1 Normas de vectores y matrices 327
extiende los vectores unitarios relativos a esa norma. La extensión máxima es la norma de la
matriz. Las normas de la matriz que consideraremos tienen las formas
y
A 2 = máx Ax 2 , la norma l2.
x 2 =1
0 −2
A=
2 0
.
Figura 7.4
x2
x2
Ax para
2 !x!` 5 1
!x!` 5 1 ! A! `
1
1
x Ax
1
21 x1 22 21 1 2 x1
21
21
22
Figura 7.5
x2
3
Ax para
! x !2 5 1
x2
Ax
! x !2 5 1
1
! A! 2 1
21 x
1 x1 22 21 1 2 x1
21
21
23
328 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
n
Demostración Primero, mostramos que A ∞ ≤ máx |ai j |.
1≤i≤n
j=1
Sea x un vector n-dimensional con 1 x ∞ = máx1≤i≤n |xi |. Puesto que Ax también
es un vector n-dimensional
n n
Ax ∞ = máx |(Ax)i | = máx ai j x j ≤ máx |ai j | máx |x j |.
1≤i≤n 1≤i≤n 1≤i≤n 1≤ j≤n
j=1 j=1
y, por consiguiente,
n
A ∞ = máx Ax ∞ ≤ máx |ai j |. (7.4)
x ∞ =1 1≤i≤n
j=1
1, si a pj ≥ 0,
xj =
−1, si a pj < 0.
n n n n
Ax ∞ = máx ai j x j ≥ a pj x j = |a pj | = máx |ai j |.
1≤i≤n 1≤i≤n
j=1 j=1 j=1 j=1
n
Al unir esto con la desigualdad (7.4) obtenemos A ∞ = máx |ai j |.
1≤i≤n
j=1
7.2 Eigenvalores y eigenvectores 329
1 2 −1
A= 0 3 −1 .
5 −1 1
Solución Tenemos
3 3
|a1 j | = |1| + |2| + | − 1| = 4, |a2 j | = |0| + |3| + | − 1| = 4,
j=1 j=1
y
3
|a3 j | = |5| + | − 1| + |1| = 7.
j=1
p(λ) = det(A − λI ).
• (A − λI )x = 0.
Ejemplo 1 Muestre que no hay vectores x diferentes a cero en R2 con Ax paralelo a x si
0 1
A=
0
.
−1
−λ 1
0 = det(A − λI ) = det = λ2 + 1,
−1 −λ
0 −i 1 x1 −i x1 + x2
= =
0
,
−1 −i x2 −x1 − i x2
Figura 7.6
a) l . 1 b) 1 . l . 0 c) l , 21 d) 21 , l , 0
Ax
x
x x x
Ax
Ax
Ax
Ax 5 lx
Una consecuencia importante de esto es que para cualquier norma vectorial || · ||, podríamos
seleccionar α = ±||x||−1 , lo cual resultaría en ax como el eigenvector con norma 1. Por lo que,
• Para todos los eigenvalores y cualquier norma vectorial, existen eigenvectores con norma 1.
7.2 Eigenvalores y eigenvectores 331
2 0 0
A= 1 1 2 .
1 −1 4
2−λ 0 0
0 0 0 0 x1
0 = 1 −1 2 · x2 .
0 1 −1 2 x3
x1 − x2 + 2x3 = 0,
x1 = 0, tenemos
x2 = 2x3 , por lo que una elección sería x2 = (0, 2, 1)t . También podríamos seleccio-
nar x2 = 0, lo cual requiere que x1 = −2x3 . Por lo tanto, x3 = (−2, 0, 1)t da un segundo
eigenvector para el eigenvalor λ2 = 2 que no es un múltiplo de x2. Los eigenvectores de A
correspondientes al eigenvalor λ2 = 2 generan un plano entero. Este plano se describe
mediante todos los vectores de la forma
para constantes arbitrarias a y b, siempre y cuando al menos una de las constantes sea
diferente de cero.
Las nociones de los eigenvalores y los eigenvectores se introducen aquí para convenien-
a su aproximación numérica.
Radio espectral
Definición 7.14 El radio espectral ρ(A) de una matriz A
ρ(A) = máx{2, 3} = 3.
El radio espectral está estrechamente relacionado con la norma de una matriz, como se
muestra en el siguiente teorema.
i) A 2 = [ρ(At A)]1/2 ,
ii) ρ( A) A , para cualquier norma natural · .
|λ| = |λ| · x λx Ax A x A .
Por lo tanto,
ρ(A) = máx |λ A .
Un resultado interesante y útil, que es similar a la parte ii) del teorema 7.15, es que para
cualquier matriz A y cualquier ε > 0, existe una norma natural · con la propiedad de que
ρ(A) < A < ρ(A) + ε. Por consiguiente, ρ(A) es la cota inferior más grande para las
normas naturales en A. La prueba de este resultado se puede encontrar en [Or2], p. 23.
1 1 0
A = 1 2 1 .
−1 1 2
Solución Para aplicar el teorema 7.15, necesitamos calcular ρ(At A), por lo que primero
necesitamos los eigenvalores de At A:
1 1 −1 1 1 0 3 2 −1
At A = 1 2 1 1 2 1 = 2 6 4 .
0 1 2 −1 1 2 −1 4 5
Si
3−λ 2
−1
0 = det(At A − λI ) = det 2 6−λ 4
−1 4 5−λ
= − λ3 + 14λ2 − 42λ = −λ(λ2 − 14λ + 42),
√
mediante λ = 0 o λ = 7 ± 7. Mediante el teorema 7.15, tenemos
√ √ √
||A||2 = ρ(At A) = máx{0, 7 − 7, 7 + 7} = 7+ 7 ≈ 3.106.
7.2 Eigenvalores y eigenvectores 333
Matrices convergentes
Al estudiar técnicas de matrices iterativas, es especialmente importante saber cuándo las po-
tencias de una matriz se vuelven pequeñas (es decir, cuando todas las entradas se aproximan
a cero). Las matrices de este tipo reciben el nombre de convergentes.
y, en general,
( 12 )k 0
Ak = .
k
2k+1
( 12 )k
Método de Jacobi
El método iterativo de Jacobi se obtiene al resolver la i-ésima ecuación en Ax = b para xi
para obtener (siempre que aii = 0)
n
ai j x j bi
xi = − + , para i = 1, 2, . . . , n.
j=1
aii aii
j=i
Para cada k ≥ 1, genere los componentes xi de x(k) a partir de los componentes de x(k−1)
(k)
por medio de
n
1
xi(k) = − ai j x (k−1) + bi para i = 1, 2, . . . , n. (7.5)
aii j=1 j ,
j=i
E 1 : 10x1 − x2 + 2x3 = 6,
E2 : −x1 + 11x2 − x3 + 3x4 = 25,
E3 : 2x1 − x2 + 10x3 − x4 = −11,
E4 : 3x2 − x3 + 8x4 = 15
Carl Gustav Jacob Jacobi tiene la solución única x = (1, 2, −1, 1)t. Utilice la técnica iterativa de Jacobi para encontrar
aproximaciones x(k) para x, que inicia con x(0) = (0, 0, 0, 0)t hasta
el área de la teoría de números
x(k) − x(k−1)
y funciones elípticas, pero
< 10−3 .
∞
sus intereses matemáticos y x(k) ∞
capacidades eran muy amplias.
Tenía una personalidad fuerte
Solución Primero resolvemos la ecuación Ei para xi, para cada i 5
de una actitud orientada hacia la
1 1 3
investigación que se convirtió en x1 = x2 − x3 + ,
el centro del resurgimiento de las 10 5 5
matemáticas en las universidades
1 1 3 25
alemanas en el siglo XIX. x2 = x1 + x3 − x4 + ,
11 11 11 11
1 1 1 11
x3 = − x1 + x2 + x4 − ,
5 10 10 10
3 1 15
x4 = − x2 + x3 + .
8 8 8
7.3 Técnicas iterativas de Jacobi y Gauss-Siedel 335
A partir de la aproximación inicial x(0) = (0, 0, 0, 0)t tenemos x(1) provista por
1 (0) 1 3
x1(1) = x2 − x3(0) + = 0.6000,
10 5 5
1 (0) 1 (0) 3 (0) 25
x2(1) = x + x3 − x + = 2.2727,
11 1 11 11 4 11
1 (0) 1 (0) 1 (0) 11
x3(1) = − x1 + x2 + x − = −1.1000,
5 10 10 4 10
3 1 15
x4(1) = − x2(0) + x3(0) + = 1.8750.
8 8 8
Las iteraciones adicionales, x(k) = (x1(k) , x2(k) , x3(k) , x4(k) )t , se generan de manera similar y se
presentan en la tabla 7.1.
Tabla 7.1
k 0 1 2 3 4 5 6 7 8 9 10
x1(k) 0.000 0.6000 1.0473 0.9326 1.0152 0.9890 1.0032 0.9981 1.0006 0.9997 1.0001
x2(k) 0.0000 2.2727 1.7159 2.053 1.9537 2.0114 1.9922 2.0023 1.9987 2.0004 1.9998
x3(k) 0.0000 −1.1000 −0.8052 −1.0493 −0.9681 −1.0103 −0.9945 −1.0020 −0.9990 −1.0004 −0.9998
x4(k) 0.0000 1.8750 0.8852 1.1309 0.9739 1.0214 0.9944 1.0036 0.9989 1.0006 0.9998
En general, las técnicas iterativas para resolver sistemas lineales implican un proceso
que convierte el sistema Ax = b en un sistema equivalente de la forma x = T x + c para una
T y vector c. Después de seleccionar el vector inicial x(0), la sucesión de los vec-
tores solución aproximados se generan al calcular
x(k) = T x(k−1) + c,
para cada k = 1, 2, 3, . . .
capítulo 2.
El método de Jacobi se puede escribir en la forma x(k) = T x(k−1) + c al dividir A en sus
partes diagonal o fuera de la diagonal. Para observar esto, permita que D sea la matriz diago-
nal cuyas entradas diagonales sean las de A, 2L es la parte estrictamente triangular inferior
de A y 2U es la parte estrictamente triangular superior de A. Con esta notación,
se divide en
a11 0 .. .. .. . . . . . 0. 0 .. .. .. . . . . . . . . . . . 0. 0. . . −a .. . . . . −a. 1n
.. . . . 12 . . .
0 . . a . . . . ... ..
− a. 21 . . .. .
..
.. .. . . ..
.
.
A = .. . . . . . . . ... . ....
22 .
..
. .. . ..
. . .
. . . . ...
− .. . . − ..
.. ..
. .0 .. .
.. . . .−an−1,n
. .. .
.. .. ..
0 . . . . . . . . . 0 ann . −an1 . . . −an,n−1 .0 0 . . . . . . . . . . . . 0
= D − L − U.
x = D −1 (L + U )x + D −1 b.
Esto resulta en forma matricial de la técnica iterativa de Jacobi:
E 1 : 10x1 − x2 + 2x3 = 6,
E 2 : −x1 + 11x2 − x3 + 3x4 = 25,
E3 : 2x1 − x2 + 10x3 − x4 = −11,
E4 : 3x2 − x3 + 8x4 = 15,
en la forma x(k) = T x(k−1) + c.
Solución
forma
1 1 3
x1 = x2 − x3 + ,
10 5 5
1 1 3 25
x2 = x1 + x3 − x4 + ,
11 11 11 11
1 1 1 11
x3 = − x1 + x2 + x4 − ,
5 10 10 10
3 1 15
x4 = − x2 + x3 + .
8 8 8
El paso 3 del algoritmo requiere que aii = 0, para cada i = 1, 2, . . . , n. Si una de las
entradas ai i es 0 y el sistema es no singular, se puede realizar una reorganización de las ecua-
ciones de tal forma que aii = 0. Para acelerar la convergencia, las ecuaciones se deberían
reordenar de tal forma que ai i resulte tan grande como sea posible. Este tema se analiza con
mayor detalle más adelante en este capítulo.
Otro posible criterio para detenerse en el paso 4 es iterar hasta que
x(k) − x(k−1)
x(k)
es más pequeña que parte de la tolerancia prescrita. Para este propósito, se puede utilizar
cualquier norma conveniente, la más común es la norma l∞.
Jacobi resolviendo problemas
sobre sistemas de ecuaciones
lineales que derivaron del El método Gauss-Siedel
cuadrados. En general, estas
ecuaciones tienen elementos
fuera de la diagonal que son Los componentes de x(k−1) se usaban para calcular los componentes xi(k) de x(k) . Pero, para
mucho más pequeños que los i > 1, los componentes x1(k) , . . . , xi−1
(k)
de x(k) ya se han calculado y se espera que sean me-
de la diagonal, por lo x1 , . . . , xi−1 que x1
(k−1)
, . . . , xi−1
(k−1)
. Por
que los métodos iterativos son lo tanto, parece razonable calcular xi usando estos valores calculados recientemente. Es
(k)
especialmente efectivos. Las
técnicas iterativas que en la decir, utilizar
actualidad se conocen como
i−1 n
de Jacobi y Gauss-Siedel eran
1
previamente conocidas por xi(k) = − ai j x (k)
j − ai j x (k−1)
j + bi , (7.8)
Gauss antes de aplicarse en aii j=1 j=i+1
esta situación; sin embargo, era
frecuente que los resultados
de Gauss no se difundieran para cada i = 1, 2, . . . , n,
ampliamente. de técnica iterativa Gauss-Siedel
338 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
Ejemplo 3 Utilice la técnica iterativa Gauss-Siedel para encontrar soluciones aproximadas para
10x1 − x2 + 2x3 = 6,
−x1 + 11x2 − x3 + 3x4 = 25,
2x1 − x2 + 10x3 − x4 = −11,
3x2 − x3 + 8x4 = 15,
x(k) − x(k−1)
< 10−3 .
∞
x(k) ∞
1 (k−1) 1 3
x1(k) = x2 − x3(k−1) + ,
10 5 5
1 (k) 1 (k−1) 3 (k−1) 25
x2(k) = x + x3 − x + ,
11 1 11 11 4 11
1 1 1 (k−1) 11
x3(k) = − x1(k) + x2(k) + x − ,
5 10 10 4 10
3 1 15
x4(k) = − x2(k) + x3(k) + .
8 8 8
Cuando x(0) = (0, 0, 0, 0)t , tenemos x(1) = (0.6000, 2.3272, −0.9873, 0.8789)t. Los valo-
res de las iteraciones subsiguientes se muestran en la tabla 7.2.
Tabla 7.2 k 0 1 2 3 4 5
x1(k) 0.0000 0.6000 1.030 1.0065 1.0009 1.0001
x2(k) 0.0000 2.3272 2.037 2.0036 2.0003 2.0000
x3(k) 0.0000 −0.9873 −1.014 −1.0025 −1.0003 −1.0000
x4(k) 0.0000 0.8789 0.9844 0.9983 0.9999 1.0000
Puesto que
x(5) se acepta como aproximación razonable para la solución. Observe que el método de
(D − L)x(k) = U x(k−1) + b
Paso 1 Determine k = 1.
Paso 2 Mientras (k ≤ N ) haga los pasos 3–6.
Paso 3 Para i = 1, . . . , n
i−1 n
1
Determine xi = − ai j x j − ai j X O j + bi .
aii j=1 j=i+1
Los comentarios que siguen al algoritmo 7.1 respecto a los criterios de reorganización e
interrupción también se aplican al algoritmo 7.2 de Gauss-Siedel.
superior al método de Jacobi. Esto casi siempre es verdad, pero existen sistemas lineales para
donde x(0) es arbitraria. El siguiente lema y el teorema 7.17 en la página 333 dan la clave
para este estudio.
Lema 7.18 Si el radio espectral satisface ρ(T ) < 1, entonces (I − T )−1 existe, y
∞
(I − T )−1 = I + T + T 2 + · · · = T j.
j=0
x(k) = T x(k−1) + c
= T (T x(k−2) + c) + c
= T 2 x(k−2) + (T + I )c
..
.
= T k x(0) + (T k−1 + · · · + T + I )c.
lím T k x(0) = 0.
k→∞
7.3 Técnicas iterativas de Jacobi y Gauss-Siedel 341
por lo que
La prueba del siguiente corolario es similar a las pruebas en el corolario 2.5 en la página 47.
Se considera en el e
Corolario 7.20 Si T < 1 para cualquier norma matricial normal y c es un vector determinado, entonces
la sucesión {x(k) }∞
k=0 x(k) = T x(k−1) + c converge, para cualquier x(0) ∈ Rn ,
para un vector x ∈ R , con x 5 T x 1 c, y las siguientes cotas de error se mantienen:
n
i) x − x(k) T k
x(0) − x ; T k
ii) x − x(k) 1 T
x(1) − x(0) .
T j = D −1 (L + U ) y Tg = (D − L)−1 U.
x(k) = D −1 (L + U )x(k−1) + D −1 b,
y si {x(k) }∞
k=0 converge a x, entonces
x = D −1 (L + U )x + D −1 b.
Dx = (L + U )x + b y (D − L − U )x = b.
[Or2], p. 120).
342 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
Teorema 7.21 Si A es estrictamente diagonalmente dominante, entonces para cualquier selección de x(0),
tanto los métodos de Gauss-Siedel y de Jacobi dan sucesiones {x(k) }∞
k=0 que convergen a la
solución única de Ax 5 b.
La relación de la rapidez de convergencia para el radio espectral de la matriz de itera-
ción T se puede observar a partir del corolario 7.20. Las desigualdades se mantienen para
cualquier norma matricial natural, por lo que sigue la declaración después del teorema 7.15
en la página 332 que
Por lo tanto, nos gustaría seleccionar la técnica iterativa con ρ(T ) < 1 mínima para un
sistema particular Ax 5 b. No existen resultados generales para decir cuál de las dos téc-
nicas, Jacobi o Gauss-Siedel, será más exitosa para cualquier sistema lineal arbitraria. En
casos especiales, sin embargo, la respuesta es conocida, como se demuestra en el siguiente
Para el caso especial descrito en el teorema 7.22, observamos, a partir de la parte i), que
cuando un método proporciona convergencia, entonces provee convergencia y el método de
Gauss-Siedel converge más rápido que el método de Jacobi. La parte ii) indica que cuando
un método diverge, entonces ambos divergen y la divergencia es más pronunciada para el
método Gauss-Siedel.
t
ri(k) = r1i(k) , r2i(k) , . . . , rni(k)
7.4 Técnicas de relajación para resolver sistemas lineales 343
o, de manera equivalente,
i−1 n
rmi
(k)
= bm − am j x (k)
j − am j x (k−1)
j − ami xi(k−1) ,
j=1 j=i+1
para cada m = 1, 2, . . . , n.
En particular, el i-ésimo componente de ri(k) es
i−1 n
rii(k) = bi − ai j x (k)
j − ai j x (k−1)
j − aii xi(k−1) ,
j=1 j=i+1
por lo que
i−1 n
aii xi(k−1) + rii(k) = bi − ai j x (k)
j − ai j x (k−1)
j . (7.14)
j=1 j=i+1
i−1 n
1
xi(k) = bi − ai j x (k)
j − ai j x (k−1)
j
, (7.15)
aii j=1 j=i+1
Por consiguiente, el método Gauss-Siedel se puede caracterizar seleccionando xi(k) para sa-
tisfacer
rii(k)
xi(k) = xi(k−1) + . (7.16)
aii
i n
ri,i+1
(k)
= bi − ai j x (k)
j − ai j x (k−1)
j
j=1 j=i+1
i−1 n
= bi − ai j x (k)
j − ai j x (k−1)
j − aii xi(k) .
j=1 j=i+1
7.4 Técnicas de relajación para resolver sistemas lineales 345
x1(k) = −0.75x2(k−1) + 6,
x3(k) = 0.25x2(k) − 6,
Las primeras siete iteraciones para cada método se listan en las tablas 7.3 y 7.4. Para que
las iteraciones sean precisas para siete lugares decimales, el método de Gauss-Siedel requie-
re 34 iteraciones, en comparación con las 14 del método SOR con v 5 1.25.
Tabla 7.3
k 0 1 2 3 4 5 6 7
x1(k) 1 5.250000 3.1406250 3.0878906 3.0549316 3.0343323 3.0214577 3.0134110
x2(k) 1 3.812500 3.8828125 3.9267578 3.9542236 3.9713898 3.9821186 3.9888241
x3(k) 1 −5.046875 −5.0292969 −5.0183105 −5.0114441 −5.0071526 −5.0044703 −5.0027940
Tabla 7.4
k 0 1 2 3 4 5 6 7
x1(k) 1 6.3125000 2.6223145 3.1333027 2.9570512 3.0037211 2.9963276 3.0000498
x2(k) 1 3.5195313 3.9585266 4.0102646 4.0074838 4.0029250 4.0009262 4.0002586
x3(k) 1 −6.6501465 −4.6004238 −5.0966863 −4.9734897 −5.0057135 −4.9982822 −5.0003486
Una pregunta obvia es cómo se selecciona el valor adecuado de v cuando se usa el méto-
do SOR. A pesar de que no se conoce una respuesta completa a esta pregunta para el sistema
lineal n 3 n, los siguientes resultados se pueden utilizar en ciertas situaciones importantes.
2
ω= .
1+ 1 − [ρ(T j )]2
4 3 0
A= 3 4 −1 .
0 −1 4
Solución Esta matriz es claramente triangular, por lo que podemos aplicar el resultado del
todas sus primeras submatrices principales tienen determinantes positivos. Esto se observa
fácilmente es este caso porque
4 3
det(A) = 24, det = 7, y det ([4]) = 4.
3 4
Puesto que
1
0 0 0 −3 0 0 −0.75 0
4
1
T j = D −1 (L + U ) = 0 0 −3 0 1 = −0.75 0 0.25 ,
4
0 0 1 0 1 0 0 0.25 0
4
tenemos
0
−λ −0.75
T j − λI = −0.75 −λ 0.25 ,
0 0.25 −λ
por lo que
Por lo tanto,
√
ρ(T j ) = 0.625
2 2
ω= = √ ≈ 1.24.
1+ 1 − [ρ(T j )]2 1+ 1 − 0.625
ALGORITMO SOR
7.3 Para resolver Ax 5 b dado el parámetro v y una aproximación inicial x(0):
ENTRADA el número de ecuaciones y valores desconocidos n; las entradas ai j , 1 ≤ i, j ≤ n
de la matriz A; las entradas bi , 1 ≤ i ≤ n, de b; las entradas X Oi , 1 ≤ i ≤ n, de XO = x(0) ;
el parámetro v; tolerancia TOL; el número máximo de iteraciones N.
SALIDA la solución aproximada x1 , . . . , xn o un mensaje que indique que se superó el
número de iteraciones.
Paso 1 Determine k = 1.
Paso 2 Mientras (k ≤ N ) haga los pasos 3–6.
7.5 Cotas de error y refinamiento iterativo 347
Paso 3 Para i = 1, . . . , n
determine xi = (1 − ω)X Oi +
1
ω − i−1j=1 ai j x j −
n
j=i+1 ai j X O j + bi .
aii
Paso 4 Si||x − XO|| < TOL entonces SALIDA (x1 , . . . , xn );
(El procedimiento fue exitoso.)
PARE.
Paso 5 Determine k = k + 1.
Paso 6 Para i = 1, . . . , n determine X Oi = xi .
Paso 7 SALIDA (‘Número máximo de interacciones alcanzado’);
(El procedimiento no fue exitoso.)
PARE.
1 2 x1 3
=
1.0001 2 x2 3.0001
Solución Tenemos
3 1 2 3 0.0002
r = b − Ax̃ = − =
3.0001 1.0001 2 0
,
−0.0001
por lo que r ∞ = 0.0002. A pesar de que la norma del vector residual es pequeña, la apro-
ximación x̃ = (3, −0.0001)t x − x̃ ∞ = 2.
El punto (3, −0.0001) se encuentra en l2, y las rectas son casi paralelas. Esto implica
que (3, −0.0001) también se encuentra cerca de l1
348 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
Figura 7.7
x2
(1, 1)
1
(3, 0)
1 l1 4 x1
(3, 20.0001) l2
-
dual pequeño implique una aproximación precisa.
En la situación general no podemos depender de la geometría del sistema para propor-
cionar una indicación de cuándo pueden surgir los problemas. Sin embargo, podemos obte-
ner esta información al considerar las normas de la matriz A y su inversa.
Teorema 7.27 Suponga que x̃ es una aproximación a la solución de Ax 5 b, A es una matriz no singular y
r es el vector residual para x̃. Entonces, para cualquier norma natural,
x − x̃ r · A−1 ,
y si x = 0 y b = 0,
x − x̃ r
A · A−1 . (7.20)
x b
x − x̃ A−1 r A−1 · r .
x − x̃ A · A−1
≤ r .
x b
Números de condición
Las desigualdades en el teorema 7.27 implican que A−1 y A · A−1 proveen una indi-
cación de la conexión entre el vector residual y la precisión de la aproximación. En general
el error relativo x− x̃ / x es de mayor interés, y, mediante la desigualdad (7.20), este
error está acotado por el producto de A · A−1 con el residuo relativo de esta aproxima-
ción, r / b .
K (A) A · A−1 .
r
x − x̃ K (A)
A
7.5 Cotas de error y refinamiento iterativo 349
y
x − x̃ r
≤ K (A) .
x b
Una matriz A está bien condicionada si K (A) está cerca de 1 y está mal condicionada cuan-
do K (A
a la seguridad relativa de que un vector residual pequeño implica una solución aproximada
correspondientemente precisa.
1 2
A=
1.0001 2
.
Solución
−0.0001)t para la solución exacta (1, 1)t tenía un vector residual con norma pequeña,
por lo que deberíamos esperar que el número de condición de A sea grande. Tenemos
A ∞ = máx{|1| + |2|, |1.001| + |2|} = 3.0001, que no se podría considerar grande. Sin
embargo,
−10000 10000
A−1 = así A−1 = 20000,
5000.5
, ∞
−5000
r 10−t A · x̃ . (7.21)
parte de la pérdida de precisión implicada con la resta de los números casi iguales que se
presentan en el cálculo del residuo.
La aproximación para el número de condición K (A) con t dígitos proviene de la consi-
deración del sistema lineal
Ay = r.
350 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
La solución para este sistema se puede aproximar fácilmente porque los multiplicadores para
A se puede factorizar de
la forma Pt L U ỹ, la solución
aproximada de Ay = r, satisface
x ≈ x̃ + ỹ.
Por lo que ỹ es un cálculo del error producido cuando x̃ se aproxima a la solución x del sis-
tema original. Las ecuaciones (7.21) y (7.22) implican que
Esto nos da una aproximación para el número de condición que participa en la solución
del sistema Ax 5 b usando eliminación gaussiana y el tipo de t dígitos de la aritmética que
acabamos de describir:
ỹ
K (A) ≈ 10t . (7.23)
x̃
Ilustración El sistema lineal dado por
r = b − Ax̃
15913 3.3330 15920 −10.333 1.2001
Por lo que
r ∞ = 0.27413.
3.3330 15920 y1
−10.333 −0.00518
2.2220 16.710 9.6120 y2 = 0.27413 .
1.5611 5.1791 1.6852 y3 −0.18616
ỹ 0.20008 5
K (A) ≈ 105 = 10 = 16672.
∞
(7.24)
x̃ ∞ 1.2001
Para determinar el número de condición exacto de A, primero debemos encontrar A21. Usan-
do aritmética de cinco dígitos para los cálculos obtenemos la aproximación
x − x̃ ∞ 0.2001
x − x̃ = 0.2001 y = = 0.2001.
x ∞ 1
∞
Las cotas de error dadas en el teorema 7.27 para estos valores son
r (15999)(0.27413)
x − x̃ ≤ K (A) = 0.27525
∞
=
A 15934
∞
∞
x − x̃ ∞ r (15999)(0.27413)
≤ K (A) = 0.27561.
∞
=
x ∞ b ∞ 15913
352 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
Refinamiento iterativo
En la ecuación (7.22) utilizamos el cálculo ỹ ≈ x − x̃, donde ỹ es la solución aproximada
para el sistema Ay = r. En general, x̃+ỹ es una aproximación más precisa del sistema lineal
Ax 5 b que la original x̃. El método que usa esta suposición recibe el nombre de -
miento iterativo, o mejora iterativa, y consiste en realizar iteraciones sobre el sistema cuyo
precisos satisfactorios.
Si se aplica el proceso mediante aritmética de t dígitos y si K ∞ (A) ≈ 10q , entonces
después de k
dígito más pequeño de t y k(t 2 q) dígitos correctos. Si el sistema está bien condicionado,
una o dos iteraciones indicarán que la solución es precisa. Existe la posibilidad de mejora
A también esté tan mal
condicionada que K ∞ (A) > 10t . En esa situación, se usaría la precisión incrementada para
x − x̃(2) ∞ = 1 × 10−5 .
Ax 5 b, A y b se
pueden representar de forma exacta. Siendo realistas, las entradas ai j y b j, se alterarían o
perturbarían por una cantidad de δai j y δb j , que causaría que el sistema lineal
(A + δ A)x = b + δb
que incluso si A y b se representan de manera exacta, los errores de redondeo pueden causar
que x − x̃ sea grande. El siguiente teorema relaciona las perturbaciones del sistema lineal
para el número de condición de una matriz. La prueba de este resultado se puede encontrar
en [Or2], p. 33.
x, y xt y, (7.26)
a) x, y y, x ; b) αx, y x, αy α x, y ;
c) x + z, y x, y z, y ; d) x, x 0;
e) x, x 0 si y sólo si x = 0.
conjugado.
g(x) x, Ax 2 x, b .
Con x y v h en t mediante
h (t) = −2 v, b − Ax 2t v, Av ,
v, b − Ax
t̂ = ,
v, Av
h( t̂ ) = g(x + t̂v)
= g(x) − 2t̂ v, b − Ax t̂ 2 v, Av
2
v, b − Ax v, b − Ax
= g(x) − 2 v, b − Ax v, Av
v, Av v, Av
v, b − Ax 2
= g(x) − .
v, Av
Así, para cualquier vector v = 0, tenemos g(x + t̂v) < g(x) a menos que v, b − Ax 0,
en cuyo caso g(x) = g(x + t̂v). Éste es el resultado básico que necesitamos para probar el
teorema 7.31.
Suponga que x∗ satisface Ax∗ = b. Entonces v, b − Ax∗ 0 para cualquier vector v y
g(x g(x∗ ). Por lo tanto, x∗ minimiza g.
Por otro lado, suponga que x∗ es un vector que minimiza g. Entonces, para cualquier
vector v, tenemos g(x∗ + t̂v) ≥ g(x∗ ). Por lo tanto, v, b − Ax∗ 0 . Esto implica que
b − Ax∗ = 0 y, por consiguiente, que Ax∗ = b.
Para comenzar el método gradiente conjugado seleccionamos x, una solución aproxima-
da para Ax∗ = b y v = 0, lo cual nos da una dirección de búsqueda para alejarnos de x con
r = b − Ax el vector residual relacionado con x y
v, b − Ax v, r
t= = .
v, Av v, Av
356 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
y seleccionamos una dirección de búsqueda nueva v(k+1) . El objetivo es realizar esta selec-
ción de tal forma que la sucesión de aproximaciones {x(k) } converja rápidamente a x∗.
Para seleccionar las direcciones de búsqueda, observamos g como una función de los
componentes de x = (x1 , x2 , . . . , xn )t . Por lo tanto,
n n n
g(x1 , x2 , . . . , xn ) x, Ax 2 x, b ai j xi x j − 2 xi bi .
i=1 j=1 i=1
que es el k-ésimo componente del vector 2(Ax 2 b). Por lo tanto, el gradiente de g es
t
∂g ∂g ∂g
∇g(x) = (x), (x), . . . , (x) = 2(Ax − b) = −2r,
∂ x1 ∂ x2 ∂ xn
v(i) , Av( j) 0, si i = j.
Teorema 7.32 Sea {v(1) , . . . , v(n) } un conjunto de vectores diferentes a cero ortogonal a A relacionados con
A y sea x(0)
v(k) , b − Ax(k−1)
tk = y x(k) = x(k−1) + tk v(k) ,
v(k) , Av(k)
por lo que
Por lo tanto,
{v(1) , . . . , v(n) }. A partir de esto, sigue (consulte el ejercicio 15) que Ax(n) − b = 0, por lo
que Ax(n) = b.
tiene la solución exacta x∗ = (3, 4, −5)t . Muestre que el procedimiento descrito en el teore-
ma 7.32 con x(0) = (0, 0, 0)t produce esta solución exacta después de tres iteraciones.
Solución
4 3 0
A= 3 4 −1
0 −1 4
3
4 3 0
−4
v(1) , Av(2) v(1)t Av(2) = (1, 0, 0) 3 4 −1 1 = 0,
0 −1 4 0
4 3 0 − 37
y
−3
4 3 0
7
3
v(2) , Av(3) − , 1, 0 3 4 −1 47 = 0.
4 0 −1 4 1
Al continuar, tenemos
v(2) , r(1) 12 48
r(1) = b − Ax(1) = (0, 12, −24)t , t1 = = = ,
v(2) , Av(2) 7/4 7
t t
48 3 6 48
x(2) = x(1) + t1 v(2) = (6, 0, 0)t + − , 1, 0 = , ,0 ,
7 4 7 7
120 v(3) , r(2) −120/7
r(2) = b − Ax(2) = 0, 0, − , t2 = = = −5,
7 v(3) , Av(3) 24/7
y
t t
6 48 3 4
x(3) = x(2) + t2 v(3) = , ,0 + (−5) − , , 1 = (3, 4, −5)t .
7 7 7 7
Puesto que aplicamos la técnica n 5 3 veces, ésta debe ser la solución real.
Antes de analizar cómo determinar el conjunto ortogonal a A, continuaremos con el de-
sarrollo. El uso de un conjunto {v(1) , . . . , v(n) } de vectores de dirección ortogonal a A provee
lo que se conoce como método de dirección conjugada. El siguiente teorema muestra la
ortogonalidad de los vectores residuales r(k) y de los vectores de dirección v( j). Una prueba
de este resultado mediante inducción matemática se considera en el ejercicio 16.
Teorema 7.33 Los vectores residuales r(k), donde k = 1, 2, . . . , n, para un método de dirección conjugada,
satisfacen las ecuaciones
v(k−1) , Av(k) 0.
Puesto que
Av(k) = Ar(k−1) + sk−1 Av(k−1)
y
v(k−1) , Av(k) v(k−1) , Ar(k−1) sk−1 v(k−1) , Av(k−1) ,
360 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
También se puede mostrar que con esta selección de sk−1, tenemos v(k) , Av(i) 0, para
cada i = 1, 2, . . . , k − 2 (consulte [Lu], p. 245). Por lo tanto, {v(1) , . . . v(k) } es un conjunto
ortogonal a A.
v(k) , calculamos
r(k−1) , r(k−1)
tk = . (7.30)
v(k) , Av(k)
Por lo tanto,
Esto da
por lo que
v(k) , Ar(k) r(k) , Av(k) (1/tk ) r(k) , r(k) r(k) , r(k)
sk = − = − = = .
v(k) , Av(k) v(k) , Av(k) (1/tk ) r(k−1) , r(k−1) r(k−1) , r(k−1)
En resumen, tenemos
y para k = 1, 2, . . . , n,
r(k−1) , r(k−1) r(k) , r(k)
tk = , x(k) = x(k−1) + tk v(k) , r(k) = r(k−1) − tk Av(k) , sk = (k−1) (k−1) ,
v , Av
(k) (k) r ,r
y
Precondicionamiento
En lugar de presentar un algoritmo para el método de gradiente conjugado mediante estas
fórmulas ampliamos el método para incluir precondicionamiento. Si la matriz A está mal
condicionada, el método de gradiente conjugado es altamente susceptible a errores de re-
dondeo. Por lo tanto, a pesar de que se obtendría la respuesta exacta en los n pasos, normal-
mente, éste no es el caso. Como método directo, el método de gradiente conjugado no es tan
bueno como la eliminación gaussiana con pivoteo. El uso principal del método de gradiente
conjugado es un método iterativo aplicado a un sistema mejor condicionado. √ En este caso,
con frecuencia se obtiene una solución aproximada aceptable alrededor de n pasos.
El precondicioamiento reemplaza Cuando se usa precondicionamiento, el método de gradiente conjugado no se aplica
un sistema determinado por uno
directamente a la matriz A -
que tiene las mismas soluciones,
pero con mejores características
de convergencia. solución de este sistema, será fácil obtener la solución para el sistema original. La expectati-
positiva de la matriz resultante, necesitamos multiplicar en cada lado por una matriz no
singular. Denotaremos esta matriz mediante C21 y consideraremos
à = C −1 A(C −1 )t ,
Ãx̃ = b̃,
donde x̃ = C t x y b̃ = C −1 b. Entonces,
Por lo tanto, podemos resolver Ãx̃ = b̃ para x̃ y, después, obtener x al multiplicar por C −t .
Sin embargo, en lugar de reescribir la ecuación (7.31) mediante r̃(k) , ṽ(k) , t̃k , x̃(k) y s̃k , inclui-
mos implícitamente la precondición.
Puesto que
x̃(k) = C t x(k) ,
tenemos
r̃(k) = b̃ − Ãx̃(k) = C −1 b − (C −1 AC −t )C t x(k) = C −1 (b − Ax(k) ) = C −1 r(k) .
Si ṽ(k) = C t v(k) y w(k) = C −1 r(k) . Entonces
r̃(k) , r̃(k) C −1 r(k) , C −1 r(k)
s̃k = = ,
r̃(k−1) , r̃(k−1) C −1 r(k−1) , C −1 r(k−1)
por lo que
w(k) , w(k)
s̃k = . (7.32)
w(k−1) , w(k−1)
Por lo tanto,
r̃(k−1) , r̃(k−1) C −1 r(k−1) , C −1 r(k−1) w(k−1) , w(k−1)
t̃k = = =
ṽ(k) , Ãṽ(k) C t v(k) , C −1 AC −t C t v(k) C t v(k) , C −1 Av(k)
362 CAPÍTULO 7 Técnicas iterativas en álgebra de matrices
y puesto que
C t v(k) , C −1 Av(k) [C t v(k) ]t C −1 Av(k)
= [v(k) ]t CC −1 Av(k) = [v(k) ]t Av(k) v(k) , Av(k) ,
tenemos
w(k−1) , w(k−1)
t̃k = . (7.33)
v(k) , Av(k)
Además
x̃(k) = x̃(k−1) + t̃k ṽ(k) , entonces C t x(k) = C t x(k−1) + t̃k C t v(k)
y
x(k) = x(k−1) + t̃k v(k) . (7.34)
Al continuar,
r̃(k) = r̃(k−1) − t̃k Ãṽ(k) ,
por lo tanto
C −1 r(k) = C −1 r(k−1) − t̃k C −1 AC −t ṽ (k) , r(k) = r(k−1) − t̃k AC −t C t v(k) ,
y
r(k) = r(k−1) − t̃k Av(k) . (7.35)
Finalmente,
ṽ(k+1) = r̃(k) + s̃k ṽ(k) y C t v(k+1) = C −1 r(k) + s̃k C t v(k) ,
por lo que
v(k+1) = C −t C −1 r(k) + s̃k v(k) = C −t w(k) + s̃k v(k) . (7.36)
tiene solución (3, 4, −5)t . Utilice el método de gradiente conjugado con x(0) = (0, 0, 0)t y
sin precondicionamiento, es decir, con C = C −1 = I , para aproximar la solución.
Puesto que x(3) es aproximadamente la solución exacta, el error de redondeo no afecta sig-
v 5 1.25
requería 14 iteraciones para una precisión de 1027. Sin embargo, se debería observar, en este
ejemplo que en verdad estamos comparando un método directo para métodos iterativos.
0.2 0.1 1 1 0
0.1 4 −1 1 −1
A= 1 60 0 −2
−1
1 1 0 8 4
0 −1 −2 4 700
mediante
1 1 1 1 1
a1 = √ ; a2 = √ ; a3 = √ ; a4 = √ ; a5 = √ ,
0.2 4.0 60.0 8.0 700.0
y la matriz de precondicionamiento es
2.23607 0 0 0 0
0 .500000 0 0 0
0
C −1 = 0 0 0
.129099 .
0 0 0 0
.353553
0 0 0 0 0.0377965
La matriz precondicionada es
à = C −1 AC −t
1.000002 0.1118035 0.2886744 0.7905693 0
0.1118035 1 −0.0645495 0.1767765 −0.0188983
0.2886744 0.9999931 0
= −0.0645495 −0.00975898
.
0.7905693 0.1767765 0 0.9999964 0.05345219
0 −0.0188983 −0.00975898 0.05345219 1.000005
Los números de condición de A y à con la norma l∞ que se encuentran son 13961.7 para A y
16.1155 para Ã. Sin duda alguna, es verdad que en este caso à está mejor condicionada que
la matriz original A.
0.2 0.1 1 1 0 1
0.1 4 −1 1 −1 2
A= 1 60 0 y b= 3
−1 −2
1 1 0 8 4 4
0 −1 −2 4 700 5
tiene la solución
La tabla 7.5 muestra los resultados obtenidos al utilizar los métodos iterativos de Jacobi,
Gauss-Siedel y SOR (con v 5 1.25) para el sistema con A con una tolerancia de 0.01, así
como aquellos cuando el método de gradiente conjugado se aplica tanto en su forma no
precondicionada como mediante la matriz de precondicionamiento descrita en el ejemplo 3.
El método de gradiente conjugado no sólo provee las aproximaciones más precisas, sino que
también utiliza un número más pequeño de iteraciones.
Tabla 7.5
Número de
Método iteraciones x(k) x∗ − x(k) ∞
Estos sistemas se deben resolver para soluciones aproximadas para problemas de valores
en la frontera de ecuaciones diferenciales ordinarias (secciones 11.3, 11.4 y 11.5). Mientras
más grande sea el sistema, más prometedor será el método de gradiente conjugado porque
Las secciones Preguntas de análisis, Conceptos clave y Revisión del capítulo están dis-
ponibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
CAPÍTULO
8 Teoría de aproximación
Introducción
La ley de Hooke establece que cuando se aplica una fuerza a un resorte construido con mate-
rial uniforme, la longitud del resorte es una función lineal de esa fuerza. Podemos escribir la
función lineal como F(l) = k(l − E), donde F(l) representa la fuerza requerida para estirar
el resorte l unidades, la constante E representa la longitud del resorte sin fuerza aplicada y la
constante k es la constante del resorte.
l
14
12
10
E 6
k(l 2 E) 5 F(l)
4
l
2
2 4 6 F
Suponga que queremos determinar la constante para un resorte que tiene una longitud ini-
cial de 5.3 pulgadas. Aplicamos fuerzas de 2, 4 y 6 libras al resorte y encontramos que su lon-
gitud aumenta a 7.0, 9.4 y 12.3 pulgadas, respectivamente. Una revisión rápida muestra que los
puntos (0, 5.3), (2, 7.0), (4, 9.4) y (6, 12.3) no se encuentran completamente en línea recta. Aun-
que podríamos usar un par aleatorio de estos puntos de datos para aproximar la constante del
resorte, parecería más razonable encontrar la recta que mejor aproxima a todos los puntos de
datos para determinar la constante. En este capítulo se considerará este tipo de aproximación y
es posible encontrar esta aplicación de resorte en el ejercicio 7 de la sección 8.1.
La teoría de la aproximación implica dos tipos generales de problemas. Uno surge cuan-
“más simple”, como un polinomio, para los valores aproximados de una función determina-
da. El otro problema se preocupa por ajustar funciones a un dato establecido y encontrar la
“mejor” función de cierta clase para representar los datos.
Ambos problemas se han analizado en el capítulo 3. El enésimo polinomio de Taylor
alrededor del número x0 es una excelente aproximación para una función f (n 1 1) veces di-
ferenciable en una vecindad de x0. Los polinomios de interpolación de Lagrange o, de modo
más general, osculantes, se analizaron como polinomios de interpolación y para ajustar cier-
tos datos. Los splines cúbicos también se analizaron en el capítulo 3. En este capítulo, se
consideran las limitaciones para estas técnicas y se analizan otras vías de enfoque.
369
370 CAPÍTULO 8 Teoría de aproximación
Figura 8.1
y
16
14
12
10
2 4 6 8 10 x
Figura 8.2
(10, 15.6)
14 (9, 13.0)
12 (8, 12.5)
10 (7, 10.1)
(6, 8.8)
8
(5, 7.0)
6
(4, 5.0)
4 (3, 4.2)
(2, 3.5)
2
(1, 1.3)
2 4 6 8 10
x
Este polinomio es claramente una predicción de la información entre una serie de puntos
de datos. Un mejor enfoque sería encontrar la recta que se aproxima “mejor” (en cierto sen-
tido), incluso si no concuerda precisamente con los datos en ningún punto.
8.1 Aproximación por mínimos cuadrados discretos 371
Esta cantidad recibe el nombre de desviación absoluta. Para minimizar una función de dos
variables, necesitamos igualar sus derivadas parciales a cero y resolver simultáneamente las
ecuaciones resultantes. En el caso de la desviación absoluta, necesitamos encontrar a0 y a1 con
10 10
∂ ∂
0= |yi − (a1 xi + a0 )| y 0 = |yi − (a1 xi + a0 )|.
∂a0 i=1
∂a1 i=1
que está fuera de la línea con la aproximación. El enfoque de mínimos cuadrados asigna con-
siderablemente más peso en un punto que está fuera de la línea que al resto de los datos, pero
no permitirá que el punto domine por completo la aproximación. Una razón adicional para
considerar el enfoque de mínimos cuadrados implica el estudio de la distribución estadística
del error (consulte [Lar], p. 463–481).
El problema general de ajustar la mejor línea de mínimos cuadrados para una recopila-
m
ción de datos {(xi , yi )}i=1 implica minimizar el error total,
m
E ≡ E 2 (a0 , a1 ) = [yi − (a1 xi + a0 )]2 ,
i=1
372 CAPÍTULO 8 Teoría de aproximación
respecto a los parámetros a0 y a1. Para que se presente un mínimo, necesitamos que
∂E ∂E
=0 y = 0,
∂a0 ∂a1
es decir,
m m
∂
0= [(yi − (a1 xi − a0 )]2 = 2 (yi − a1 xi − a0 )(−1)
∂a0 i=1 i=1
y
m m
∂ 2
0= [yi − (a1 xi + a0 )] = 2 (yi − a1 xi − a0 )(−xi ).
∂a1 i=1 i=1
y
m m m
m xi yi − xi yi
i=1 i=1 i=1
a1 = 2
. (8.2)
m m
m xi2 − xi
i=1 i=1
Ejemplo 1 Encuentre la línea de mínimos cuadrados que se aproxima a los datos en la tabla 8.1.
Solución Primero ampliamos la tabla para incluir xi2 y xi yi y sumamos las columnas. Esto
se muestra en la tabla 8.2.
385(81) − 55(572.4)
a0 = = −0.360
10(385) − (55)2
10(572.4) − 55(81)
a1 = = 1.538,
10(385) − (55)2
Figura 8.3
y
16
14
12
10
8 y 5 1.538x 2 0.360
6
2 4 6 8 10 x
de grado n < m − 1, por medio del procedimiento de mínimos cuadrados se maneja de for-
ma similar. Seleccionamos las constantes a0 , a1 , . . . , an para minimizar el error de mínimos
cuadrados E = E 2 (a0 , a1 , . . . , an ), donde
m
E= (yi − Pn (xi ))2
i=1
m m m
= yi2 − 2 Pn (xi )yi + (Pn (xi ))2
i=1 i=1 i=1
374 CAPÍTULO 8 Teoría de aproximación
2
m m n m n
j j
= yi2 − 2 a j xi yi + a j xi
i=1 i=1 j=0 i=1 j=0
m n m n n m
j j+k
= yi2 − 2 aj yi xi + a j ak xi .
i=1 j=0 i=1 j=0 k=0 i=1
Como en el caso lineal, para minimizar E es necesario que ∂ E/∂a j = 0, para cada
j = 0, 1, . . . , n. Por lo tanto, para cada j, debemos tener
m n m
∂E j j+k
0= = −2 yi xi + 2 ak xi .
∂a j i=1 k=0 i=1
..
.
m m m m m
a0 xin + a1 xin+1 + a2 xin+2 + · · · + an xi2n = yi xin .
i=1 i=1 i=1 i=1 i=1
Estas ecuaciones normales tienen una única solución siempre y cuando las x i sean dis-
tintas (consulte el ejercicio 14).
Ejemplo 2 Ajuste los datos en la tabla 8.3 con el polinomio de mínimos cuadrados discretos de grado
máximo 2.
Tabla 8.3
Solución Para este problema, n 5 2, m 5 5, y las tres ecuaciones normales son
i xi yi
1 0 1.0000 5a0 + 2.5a1 + 1.875a2 = 8.7680,
2 0.25 1.2840 2.5a0 + 1.875a1 + 1.5625a2 = 5.4514, y
3 0.50 1.6487
1.875a0 + 1.5625a1 + 1.3828a2 = 4.4015.
4 0.75 2.1170
5 1.00 2.7183 Al resolver las ecuaciones obtenemos
Por lo tanto, el polinomio de mínimos cuadrados de grado 2 que se ajusta a los datos de
la tabla 8.3 es
Figura 8.4
y
El error total,
5
E= (yi − P(xi ))2 = 2.74 × 10−4 ,
i=1
Tabla 8.4 i 1 2 3 4 5
xi 0 0.25 0.50 0.75 1.00
yi 1.0000 1.2840 1.6487 2.1170 2.7183
P(xi ) 1.0051 1.2740 1.6482 2.1279 2.7129
yi − P(xi ) −0.0051 0.0100 0.0004 −0.0109 0.0054
Algunas veces es adecuado asumir que los datos están exponencialmente relacionados.
Esto requiere que la función de aproximación sea de la forma
y = beax (8.4)
y = bx a , (8.5)
m
E= (yi − beaxi )2 , en el caso de la ecuación (8.4)
i=1
376 CAPÍTULO 8 Teoría de aproximación
o
m
E= (yi − bxia )2 , en el caso de la ecuación (8.5).
i=1
y
m
∂E
0= =2 (yi − beaxi )(−bxi eaxi ), en el caso de la ecuación (8.4),
∂a i=1
o
m
∂E
0= =2 (yi − bxia )(−xia )
∂b i=1
y
m
∂E
0= =2 (yi − bxia )(−b(ln xi )xia ), en el caso de la ecuación (8.5).
∂a i=1
En cualquier caso, ahora aparece un problema lineal y las soluciones para ln b y a se pueden
Sin embargo, la obtenida de esta forma no es la aproximación por mínimos cuadrados para
el problema original, y
de la aproximación de mínimos cuadrados para el problema original. La aplicación en el
ejercicio 13 describe este problema. Esta aplicación se reconsiderará en el ejercicio 9 en la
sección 10.3, donde la solución exacta para el problema exponencial de mínimos cuadrados
se aproxima con métodos adecuados para resolver sistemas de ecuaciones no lineales.
Ilustración Considere el conjunto de datos en las primeras tres columnas de la tabla 8.5.
Si xi yi, los datos parecen tener una relación lineal, por lo que es razo-
nable suponer una aproximación de la forma
Al expandir la tabla y suponer que las columnas apropiadas dan los datos restantes en la
tabla 8.5.
Usando las ecuaciones normales (8.1) y (8.2),
(5)(14.422) − (7.5)(9.404)
a= = 0.5056
(5)(11.875) − (7.5)2
(11.875)(9.404) − (14.422)(7.5)
ln b = = 1.122.
(5)(11.875) − (7.5)2
y 5 3.071e0.5056xi.
Figura 8.5
y
6
y 5 3.071e0.5056x
5
b n 2
E ≡ E 2 (a0 , a1 , . . . , an ) = f (x) − ak x k d x.
a k=0
Figura 8.6
y
f (x)
n
Pn (x) 5 Sax k
k
n
( f (x) 2 S a x (
2
k50 k
k
k50
a b x
∂E
= 0, para cada j = 0, 1, . . . , n.
∂a j
Puesto que
b n b b n 2
E= [ f (x)]2 d x − 2 ak x k f (x) d x + ak x k d x,
a k=0 a a k=0
tenemos
b n b
∂E
= −2 x f (x) d x + 2
j
ak x j+k d x.
∂a j a k=0 a
8.2 Polinomios ortogonales y aproximación por mínimos cuadrados 379
se deben resolver para las (n 1 1) incógnitas aj. Las ecuaciones normales siempre tienen una
única solución siempre y cuando f ∈ C[a, b]. (Consulte el ejercicio 15.)
Ejemplo 1 Encuentre el polinomio de aproximación de grado 2 por mínimos cuadrados para la función
f (x) 5 sen π x en el intervalo [0, 1].
Solución Las ecuaciones normales para P2 (x) = a2 x 2 + a1 x + a0 son
1 1 1 1
a0 1 d x + a1 x d x + a2 x2 dx = sen π x d x,
0 0 0 0
1 1 1 1
a0 x d x + a1 x 2 d x + a2 x3 dx = x sen π x d x, y
0 0 0 0
1 1 1 1
a0 x 2 d x + a1 x 3 d x + a2 x4 dx = x 2 sen π x d x.
0 0 0 0
1 1 2 1 1 1 1 1 1 1 π2 − 4
a0 + a1 + a2 = , a0 + a1 + a2 = , y a0 + a1 + a2 = .
2 3 π 2 3 4 π 3 4 5 π3
Figura 8.7
y
y 5 sen px
1.0
0.8
0.6 y = P2(x)
0.4
0.2
-
mos cuadrados. Se debe resolver un sistema lineal (n 1 1) 3 (n 1 1) para las incógnitas
David Hilbert (1862–1943) a0 , . . . , an
fue un matemático dominante
XX. Se le
b
recuerda mejor por impartir b j+k+1 − a j+k+1
x j+k d x = ,
una charla en el Congreso
a j +k+1
Internacional de Matemáticos,
en París, en 1900, donde planteó
23 problemas que había pensado un sistema lineal que no tiene una solución numérica fácil de calcular. La matriz en el siste-
que sería importante que los ma lineal es conocida como matriz de Hilbert -
matemáticos del siglo siguiente des de error de redondeo (consulte el ejercicio 9 de la sección 7.5).
resolvieran.
Otra desventaja es similar a la situación que se presentó cuando los polinomios de
Lagrange se presentaron por primera vez en la sección 3.1. Los cálculos realizados para
obtener el mejor polinomio de enésimo grado Pn (x), no reducen la cantidad de trabajo re-
querido para obtener Pn+1 (x), el polinomio del siguiente grado superior.
Pn (x) es sencillo determinar Pn+1 (x) Para facilitar el análisis, necesitamos algunos concep-
tos nuevos.
Definición 8.1 Se dice que el conjunto de funciones {φ0 , . . . , φn } es linealmente independiente en [a, b] si,
Teorema 8.2 Suponga que, para cada j = 0, 1, . . . , n, φ j (x) es un polinomio de grado j. Entonces el
conjunto {φ0 , . . . , φn } es linealmente independiente en cualquier intervalo [a, b].
En esta representación de P (x), el único término que contiene una potencia de x n−1 es
cn−1 φn−1 (x), por lo que este término también debe ser cero y
n−2
P(x) = c j φ j (x).
j=0
De la misma forma, las constantes restantes cn−2 , cn−3 , . . . , c1 , c0 son cero, lo cual implica
que {φ0 , φ1 , . . . , φn } es linealmente independiente en [a, b].
Ejemplo 2 Si φ0 (x) = 2, φ1 (x) = x −3, y φ2 (x) = x 2 +2x +7, y Q(x) = a0 +a1 x +a2 x 2 . Muestre que
existen constantes c0 , c1 , y c2 tales que Q(x) = c0 φ0 (x) + c1 φ1 (x) + c2 φ2 (x).
1 3
1= φ0 (x), x = φ1 (x) + 3 = φ1 (x) + φ0 (x)
2 2
y que
3 1
x 2 = φ2 (x) − 2x − 7 = φ2 (x) − 2 φ1 (x) + φ0 (x) − 7 φ0 (x)
2 2
13
= φ2 (x) − 2φ1 (x) − φ0 (x).
2
Por lo tanto,
1 3 13
Q(x) = a0 φ0 (x) + a1 φ1 (x) + φ0 (x) + a2 φ2 (x) − 2φ1 (x) − φ0 (x)
2 2 2
1 3 13
= a0 + a1 − a2 φ0 (x) + [a1 − 2a2 ] φ1 (x) + a2 φ2 (x).
2 2 2
Teorema 8.3 Suponga que {φ0 (x), φ1 (x), . . . , φn (x)} es un conjunto de polinomios linealmente indepen-
dientes en n. Entonces, un polinomio en n se puede escribir de manera única como una
combinación lineal de φ0 (x), φ1 (x), . . . , φn (x).
Funciones ortogonales
Analizar la aproximación general de una función requiere la introducción de las nociones de
función de peso y ortogonalidad.
Definición 8.4 Una función integrable w recibe el nombre de función de peso en el intervalo I si w(x) ≥ 0,
para todas las x en I, pero w(x) ≡ 0 en cualquier subintervalo de I.
El objetivo de una función de peso es asignar varios grados de importancia a las aproxi-
maciones en ciertas partes del intervalo. Por ejemplo, la función de peso
1
w(x) = √
1 − x2
asigna menos énfasis cerca del centro del intervalo (21, 1) y más énfasis cuando |x| está
21 1 x Este problema reduce la situación considerada al inicio de esta sección en el caso especial
cuando w(x) ≡ 1 y φk (x) = x k , para cada k = 0, 1, . . . , n.
382 CAPÍTULO 8 Teoría de aproximación
Las ecuaciones normales relacionadas con este problema se derivan del hecho de que
para cada j = 0, 1, . . . , n,
b n
∂E
0= =2 w(x) f (x) − ak φk (x) φ j (x) d x.
∂a j a k=0
1 b
aj = w(x) f (x)φ j (x) d x.
αj a
Definición 8.5 Se dice que {φ0 , φ1 , . . . , φn } es un conjunto ortogonal de funciones en el intervalo [a, b]
respecto a la función de peso w si
b
0, cuando j = k,
w(x)φk (x)φ j (x) d x =
a α j > 0, cuando j = k.
donde
b 2
a xw(x)[φ0 (x)] d x
B1 = b
,
a w(x)[φ0 (x)] d x
2
Corolario 8.8 Para cualquier n > 0, el conjunto de funciones polinomiales {φ0 , . . . , φn } dado en el teore-
ma 8.7 es linealmente independiente en [a, b] y
b
w(x)φn (x)Q k (x) d x = 0,
a
Además,
1 1
x3 dx 2
−1 x d x 1
B2 = −1
=0 y C2 = = ,
1 1 3
−1 x2 dx −1 1 d x
por lo que
1 1
P2 (x) = (x − B2 )P1 (x) − C2 P0 (x) = (x − 0)x − · 1 = x2 − .
3 3
-
van de la misma forma. A pesar de que la integración puede ser tediosa, no es difícil con un
sistema de álgebra para computadora.
Figura 8.9 y
1 y = P1(x)
y = P2(x)
0.5
y = P3(x)
y = P4(x)
y = P5(x)
21 1 x
20.5
21
Tenemos
4 1 4 3
P3 (x) = x P2 (x) − P1 (x) = x 3 − x − x = x 3 − x,
15 3 15 5
y los siguientes dos polinomios de Legendre son
6 3 10 3 5
P4 (x) = x 4 − x 2 + y P5 (x) = x 5 − x + x.
7 35 9 21
Los polinomios de Legendre fueron introducidos en la sección 4.7, en donde sus raíces,
determinadas en la página 168, se utilizaron como los nodos en la cuadratura gaussiana.
es decir,
Puesto que T0 (x) = 1 y T1 (x) = x, la relación de recurrencia implica que los siguientes
tres polinomios de Chebyshev son
Figura 8.10
y
y = T1(x)
y = T3(x) 1
y = T4(x)
21 1 x
21 y = T2(x)
1
dθ = − √ dx
1 − x2
y
1 0
Tn (x)Tm (x) π
√ dx = − cos(nθ) cos(mθ) dθ = cos(nθ) cos(mθ) dθ.
−1 1 − x2 π 0
1
cos(nθ) cos(mθ) = [cos(n + m)θ + cos(n − m)θ ],
2
tenemos
1
Tn (x)Tm (x) 1 π
1 π
√ dx = cos((n + m)θ ) dθ + cos((n − m)θ ) dθ
−1 1−x 2 2 0 2 0
1 1 π
= sen((n + m)θ ) + sen((n − m)θ ) = 0.
2(n + m) 2(n − m) 0
Teorema 8.9 El polinomio de Chebyshev Tn (x) de grado n ≥ 1 tienen ceros simples en [21, 1] en
2k − 1
x̄k = cos π , para cada k = 1, 2, . . . , n.
2n
kπ
x̄k = cos con Tn (x̄k ) = (−1)k , para cada k = 0, 1, . . . , n.
n
Demostración Si
2k − 1
x̄k = cos π , para k = 1, 2, . . . , n.
2n
Entonces
2k − 1 2k − 1
Tn (x̄k ) = cos(n arccos x̄k ) = cos n arccos cos π = cos π = 0.
2n 2
Pero x̄k son distintas (consulte el ejercicio 12) y Tn (x) es un polinomio de grado n, por lo que
todos los ceros de Tn (x) deben tener esta forma.
Para mostrar la segunda declaración, primero observe que
d n sen(n arccos x)
Tn (x) = [cos(n arccos x)] = √
dx 1 − x2
y que, cuando k = 1, 2, . . . , n − 1,
kπ
n sen n arccos cos
n n sen(kπ )
Tn (x̄k ) = = = 0.
kπ 2 kπ
1 − cos sen
n n
Por lo que se presenta un máximo en cada valor par de k y un mínimo en cada valor impar.
Los polinomios T̃n (x)
se derivan a partir de los polinomios de Chebyshev Tn (x)
2n21. Por lo tanto,
1
T̃0 (x) = 1 y T̃n (x) = Tn (x), por cada n ≥ 1. (8.11)
2n−1
388 CAPÍTULO 8 Teoría de aproximación
1
T̃2 (x) = x T̃1 (x) − T̃0 (x) y
2
1
T̃n+1 (x) = x T̃n (x) − T̃n−1 (x), por cada n ≥ 2. (8.12)
4
T˜1 , T˜2 , T˜3 , T˜4 y T˜5
Figura 8.11
y
,
y = T1(x)
1
,
y = T2(x)
,
y = T3(x)
, ,
y = T5(x) y = T4(x)
21 1 x
21
Puesto que T̃n (x) es sólo un múltiplo de Tn (x), el teorema 8.9 implica que los ceros de
T̃n (x) también se presentan en
2k − 1
x̄k = cos π , para cada k = 1, 2, . . . , n,
2n
kπ (−1)k
x̄k = cos , con T̃n (x̄k ) = , para cada k = 0, 1, 2, . . . , n. (8.13)
n 2n−1
Sea que n denota el conjunto de todos los polinomios mónicos de grado n. La rela-
ción expresada en la ecuación (8.13) conduce a una propiedad de minimización importante
que distingue T̃n (x) de los otros miembros de n.
Teorema 8.10 Los polinomios de la forma T̃n (x) cuando n ≥ 1, tienen la propiedad de que
1
= máx |T˜n (x)| ≤ máx |Pn (x)|, para toda Pn (x) ∈ .
2n−1 x∈[−1,1] x∈[−1,1] n
Sea Q = T˜n − Pn . Entonces tanto T˜n (x) como Pn (x) son polinomios mónicos de grado n,
por lo que Q(x) es un polinomio de grado máximo (n 2 1). Además, en los n 1 1 puntos
extremos x̄k de T˜n (x), tenemos
(−1)k
Q(x̄k ) = T˜n (x̄k ) − Pn (x̄k ) = n−1 − Pn (x̄k ).
2
Sin embargo,
1
|Pn (x̄k )| ≤ , para cada k = 0, 1, . . . , n,
2n−1
por lo que tenemos
Q(x̄k ) ≤ 0, cuando k es impar y Q(x̄k ) ≥ 0, cuando k es par.
Puesto que Q es continuo, el teorema de valor intermedio implica que para cada j 5
0, 1, . . . , n − 1, el polinomio Q(x) tiene por lo menos un cero entre x̄ j y x̄ j+1 . Por lo tanto,
Q tiene por lo menos n ceros en el intervalo [21, 1]. Pero el grado de Q(x) es menor que n,
por lo que Q ≡ 0. Esto implica que Pn ≡ T˜n .
f (n+1) (ξ(x))
f (x) − P(x) = (x − x0 )(x − x1 ) · · · (x − xn ),
(n + 1)!
para cualquier selección de x0, x1, . . . , xn en el intervalo [21, 1]. El siguiente corolario sigue
estas observaciones.
390 CAPÍTULO 8 Teoría de aproximación
Corolario 8.11 Suponga que P(x) es el polinomio de interpolación de grado a lo sumo n con nodos en los
ceros de Tn+1 (x). Entonces
1
máx | f (x) − P(x)| ≤ máx | f (n+1) (x)|, para cada f ∈ C n+1 [−1, 1].
x∈[−1,1] 2n (n + 1)! x∈[−1,1]
1
x̃ = [(b − a)x + a + b]
2
para transformar los números x̄k en el intervalo [21, 1] en el número correspondiente x̄k en
el intervalo [a, b], como se muestra en el siguiente ejemplo.
Ejemplo 1 Sea f (x) = xe x en [0, 1.5]. Compare los valores determinados por el polinomio de Lagran-
ge con cuatro nodos igualmente espaciados con los dados por el polinomio de Lagrange con
nodos determinados por los ceros del cuarto polinomio de Chebyshev.
Los valores funcionales requeridos para estos polinomios se dan en las últimas dos co-
lumnas de la tabla 8.7. El polinomio de interpolación de grado máximo 3 es
Para comparación, en la tabla 8.8 se listan varios valores de x, junto con los valores de
f (x), P3(x) y P̃3 (x). A partir de esta tabla se puede observar que, a pesar de que el error por
medio de P3(x) es menor al que resulta de utilizar P̃3 (x) alrededor de la mitad de la tabla, el
error máximo relacionado con el uso de P̃3 (x), 0.0180, es considerablemente menor cuando
se utiliza P3(x
Tabla 8.8 x f (x) = xe x P3 (x) |xe x − P3 (x)| P̃3 (x) |xe x − P̃3 (x)|
0.15 0.1743 0.1969 0.0226 0.1868 0.0125
0.25 0.3210 0.3435 0.0225 0.3358 0.0148
0.35 0.4967 0.5121 0.0154 0.5064 0.0097
0.65 1.245 1.233 0.012 1.231 0.014
0.75 1.588 1.572 0.016 1.571 0.017
0.85 1.989 1.976 0.013 1.974 0.015
1.15 3.632 3.650 0.018 3.644 0.012
1.25 4.363 4.391 0.028 4.382 0.019
1.35 5.208 5.237 0.029 5.224 0.016
Figura 8.12
y
6
,
y = P3(x)
5 y 5 xe x
1 1
máx (Pn (x) − Pn−1 (x)) ≥ n−1 .
x∈[−1,1] an 2
La igualdad se presenta precisamente cuando
1
(Pn (x) − Pn−1 (x)) = T̃n (x).
an
1 |an |
máx |Pn (x) − Pn−1 (x)| = |an | máx (Pn (x) − Pn−1 (x)) = n−1 .
x∈[−1,1] x∈[−1,1] an 2
Ilustración La función f (x) = e x se aproxima en el intervalo [21, 1] mediante el cuarto polinomio de
Maclaurin
x2 x3 x4
P4 (x) = 1 + x + + + ,
2 6 24
| f (5) (ξ(x))||x 5 | e
|R4 (x)| = ≤ ≈ 0.023, para − 1 ≤ x ≤ 1.
120 120
Suponga que un error de 0.05 es tolerable y que nos gustaría reducir el grado del polino-
mio de aproximación mientras nos mantenemos dentro de esta cota.
El polinomio de grado 3 o menor, que mejor se aproxima de manera uniforme a P4(x)
en [21, 1]
x2 x3 x4 1 1
P3 (x) = P4 (x) − a4 T̃4 (x) = 1 + x + + + − x4 − x2 +
2 6 24 24 8
191 13 1
= + x + x 2 + x 3.
192 24 6
8.4 Aproximación de función racional 393
1 1 1
|P4 (x) − P3 (x)| = |a4 T̃4 (x)| ≤ · 3 = ≤ 0.0053.
24 2 192
Al sumar esta cota de error a la cota del error de truncamiento de Maclaurin obtenemos
1
P2 (x) = P3 (x) − T̃3 (x)
6
191 13 1 1 3 191 9 13
= + x + x2 + x3 − x3 − x = + x + x 2.
192 24 6 6 4 192 8 24
Sin embargo,
2
1 1 1 1
|P3 (x) − P2 (x)| = T̃3 (x) = = ≈ 0.042,
6 6 2 24
que, cuando se suma a la cota del error ya acumulada de 0.0283, excede la tolerancia de 0.05.
Por consiguiente, el polinomio de menor grado que mejor se aproxima a ex en [21, 1] con
una cota de error menor a 0.05 es
191 13 1
P3 (x) = + x + x 2 + x 3.
192 24 6
mediante el error máximo de aproximación. Ahora consideramos los métodos que distribu-
yen el error de aproximación de modo uniforme sobre el intervalo de aproximación. Estas
técnicas implican funciones racionales.
Una función racional r de grado N tiene la forma
p(x)
r (x) = ,
q(x)
Aproximación de Padé
Henri Padé (1863–1953) aportó Suponga que r es una función racional de grado N 5 n 1 m de la forma
un estudio sistemático de lo que
hoy llamamos aproximaciones de p(x) p0 + p 1 x + · · · + p n x n
Padé en su tesis doctoral r (x) = = ,
en 1892. Probó los resultados en q(x) q0 + q1 x + · · · + qm x m
su estructura general y también
estableció claramente la conexión que se utiliza para aproximar una función f en un intervalo cerrado I que contiene a cero. Para
entre las aproximaciones de que r q0 = 0. De hecho, podemos suponer que q0 = 1,
Padé y fracciones continuas. si éste no es el caso, simplemente reemplazamos p(x) por p(x)/q0 y q(x) por q(x)/q0 . Por
Sin embargo, Daniel Bernoulli
(1700–1782) y otros habían consiguiente, existen N 1 1 parámetros q1 , q2 , . . . , qm , p0 , p1 , . . . , pn disponibles para la
estudiado estas ideas desde 1730. aproximación de f mediante r.
James Stirling (1692–1770) La técnica de aproximación de Padé es la extensión de la aproximación polinomial
presentó un método similar de Taylor para las funciones racionales. Se seleccionan los parámetros N 1 1 de tal forma
en Methodus differentialis
(Método diferencial) publicado que f (k) (0) = r (k) (0), para cada k = 0, 1, . . . , N . Cuando n 5 N y m 5 0, la aproximación
en el mismo año y Euler usó de Padé es simplemente el enésimo polinomio de Maclaurin.
la aproximación de Padé para Considere la diferencia
encontrar la suma de una serie.
m n
p(x) f (x)q(x) − p(x) f (x) i=0 qi x i − i=0 pi x i
f (x) − r (x) = f (x) − = =
q(x) q(x) q(x)
en las N 1 1 incógnitas q1 , q2 , . . . , qm , p0 , p1 , . . . , pn .
Ejemplo 1 La expansión de la serie de Maclaurin para e−x es
(−1)i i
∞
x.
i=0
i!
x2 x3
1−x + − + · · · (1 + q1 x + q2 x 2 ) − ( p0 + p1 x + p2 x 2 + p3 x 3 ).
2 6
1 − 35 x + 3 2
20
x − 1 3
60
x
r (x) = .
1 + 25 x + 1 2
20
x
La tabla 8.10 muestra los valores de r(x) y P 5(x), el quinto polinomio de Maclaurin. La apro-
ximación de Padé es claramente superior en este ejemplo.
396 CAPÍTULO 8 Teoría de aproximación
1 1 1 1
P5 (x) = − x+ x− x+ x − 1 x + 1.
120 24 6 2
por lo que un solo cálculo de r(x) requiere cinco multiplicaciones, cinco sumas/restas y
una división. Por lo tanto, el esfuerzo computacional parece favorecer la aproximación
polinomial.
398 CAPÍTULO 8 Teoría de aproximación
1 − 35 x + 3 2
20
x − 1 3
60
x
r (x) =
1 + 25 x + 1 2
20
x
− 13 x 3 + 3x 2 − 12x + 20
=
x 2 + 8x + 20
1 17 (− 152 x − 280 )
=− x+ + 2 3 3
3 3 x + 8x + 20
1 17 − 152
3
=− x+ +
3 3 x 2 +8x+20
x+(35/19)
o
1 17 − 152
3
r (x) = − x + + . (8.16)
3 3 117 3125/361
x+ 19
+ (x+(35/19))
Escrita de esta forma, un solo cálculo de r(x) requiere una multiplicación, cinco sumas/
restas y dos divisiones. Si la cantidad de cálculos requeridos para división es aproximada-
mente igual para la multiplicación, el esfuerzo computacional requerido para una evaluación
del polinomio P5(x -
ción racional r(x).
Usando fracciones continuadas Al expresar una aproximación de función racional en una forma como la ecuación (8.16)
para aproximación racional es recibe el nombre de fracción continuada. Ésta es una técnica de aproximación clásica de
un tema que se origina en los
trabajos de Christopher Clavius
(1537–1612). Por ejemplo, Euler, una técnica especializada que analizaremos más adelante. Un tratamiento bastante amplio de
Lagrange y Hermite lo usaron en este tema y de la aproximación racional en general se puede encontrar en [RR], p. 285-322.
los siglos XVIII y XIX. A pesar de que la aproximación de la función racional en el ejemplo 1 da resultados
superiores a la aproximación polinomial del mismo grado observe que la aproximación tiene
una amplia variación en precisión. La aproximación en 0.2 es precisa dentro de 8 3 1029,
pero en 1.0 la aproximación y la función sólo concuerdan dentro de 7 3 1025. Se espera esta
variación de precisión porque la aproximación de Padé está basada en una representación
de e2x, y la representación de Taylor tiene una amplia variación de precisión en [0.2, 1.0].
Al escribir f (x) en una serie relacionada con los polinomios de Chebyshev como
∞
f (x) = ak Tk (x)
k=0
8.4 Aproximación de función racional 399
da
n
pk Tk (x)
∞
k=0
f (x) − r (x) = ak Tk (x) − m
k=0 k=0 qk Tk (x)
o
m n
∞
k=0 ak Tk (x) k=0 qk Tk (x) − k=0 pk Tk (x)
f (x) − r (x) = m . (8.17)
k=0 qk Tk (x)
1
Ti (x)T j (x) = Ti+ j (x) + T|i− j| (x) . (8.18)
2
Prácticamente, sin embargo, estas integrales rara vez se pueden evaluar de forma cerrada
y se requiere una técnica de integración numérica para cada evaluación.
Ejemplo 2 Los primeros cinco términos de la expansión de Chebyshev para e−x son
P̃5 (x) = 1.266066T0 (x) − 1.130318T1 (x) + 0.271495T2 (x) − 0.044337T3 (x)
+ 0.005474T4 (x) − 0.000543T5 (x).
La tabla 8.11 contiene los valores de rT (x) y, para propósitos de comparación, los valores de
r (x) obtenidos en el ejemplo 1. Observe que la aproximación dada por r (x) es superior al
de rT (x) para x 5 0.02 y 0.4 pero el error máximo para r (x) es 6.33 5 1025 en comparación
con 9.13 3 1026 para rT (x).
Paso 1 Determine N = m + n.
2 π
Paso 2 Determine a0 = f (cos θ ) dθ ; (El coeficiente a 0 se duplica para
π 0 eficiencia computacional. )
Para k = 1, 2, . . . , N + m determine
2 π
ak = f (cos θ ) cos kθ dθ .
π 0
b N ,N +1
Paso 19 Si m > 0 entonces determine qm = . (Comience la sustitución regresiva.)
b N ,N
N
bi,N +1 − j=i+1 bi, j q j−n
Paso 20 Para i = N − 1, N − 2, . . . , n + 1 determine qi−n = .
bi,i
N
Paso 21 Para i = n, n − 1, . . . , 0 determine pi = bi,N +1 − j=n+1 bi, j q j−n .
Paso 22 SALIDA (q0 , q1 , . . . , qm , p0 , p1 , . . . , pn );
PARE. (El procedimiento fue exitoso. )
El uso de series de funciones de seno y coseno para representar funciones arbitrarias tiene
su inicios en la década de 1750 con el estudio del movimiento de una cuerda vibrante. Este
problema fue considerado por Jean d’Alembert y, después, por el matemático más destacado
de todos los tiempos, Leonhard Euler. Pero fue Daniel Bernoulli quien abogó primero por
que ahora conocemos como series de Fourier. En la primera parte del siglo XIX, Jean Baptiste
-
tante compleja sobre el tema.
XVII y principios
La primera observación en el desarrollo de la serie de Fourier es que, para cada entero
del XVIII, la familia Bernoulli
produjo no menos de ocho positivo n, el conjunto de funciones {φ0 , φ1 , . . . , φ2n−1 }, donde
1
matemáticos y físicos destacados.
El trabajo más importante de φ0 (x) = ,
Daniel Bernoulli implicaba la 2
presión, la densidad y la velocidad
φk (x) = cos kx, para cada k = 1, 2, . . . , n,
lo que se conoce como el principio
de Bernoulli. y
φn+k (x) = sen kx, para cada k = 1, 2, . . . , n − 1,
1
sen t1 sen t2 = [cos(t1 − t2 ) − cos(t1 + t2 )],
2
1
cos t1 cos t2 = [cos(t1 − t2 ) + cos(t1 + t2 )], y (8.19)
2
1
sen t1 cos t2 = [sen(t1 − t2 ) + sen(t1 + t2 )].
2
8.5 Aproximación polinomial trigonométrica 403
−π f (x) cos kx d x 1
π π
ak = = f (x) cos kx d x, para cada k = 0, 1, 2, . . . , n,
−π (cos kx) d x
π 2 π −π
(8.20)
−π f (x) sen kx d x 1
π π
Joseph Fourier (1768–1830) bk = = f (x) sen kx d x, para cada k = 1, 2, . . . , n − 1.
−π (sen kx) d x
publicó su teoría de series π 2 π −π
trigonométricas en Théorie (8.21)
analytique de la chaleur
(Teoría analítica del calor)
para resolver el problema de
El límite de Sn (x) cuando n → ∞ recibe el nombre de serie de Fourier de f. Las series
distribución de calor de estado de Fourier se usan para describir la solución de las diferentes ecuaciones ordinarias y dife-
estable en un sólido. renciales parciales que se presentan en situaciones físicas.
Solución
0
1 π
1 1 π
2 π
a0 = |x| d x = − x dx + x dx = x d x = π,
π −π π −π π 0 π 0
1 π
2 π
2
ak = |x| cos kx d x = x cos kx d x = (−1)k − 1 ,
π −π π 0 πk 2
para cada k = 1, 2, . . . , n, y
1 π
bk = |x| sen kx d x = 0, para cada k = 1, 2, . . . , n − 1.
π −π
Al hecho de que todas las b k’s son 0 sigue que g(x) = |x| sen k x es una función impar para
cada k y que la integral de una función impar continua sobre un intervalo de la forma [2a,
a] es 0 (consulte los ejercicios 15 y 16). El polinomio trigonométrico de Tn que se aproxima
a f es, por lo tanto,
n
π 2 (−1)k − 1
Sn (x) = + cos kx.
2 π k=1
k2
Figura 8.13
p y5 !x!
4 4
y 5 S 3(x) 5 2 2 p cos x 2 9p cos 3x
p
4
y 5 S 1(x) 5 S 2(x) 5 2 2 p cos x
p
p
2
y 5 S 0(x) 5 p2
2p p p p x
22 2
2 (−1)k − 1
∞
π
S(x) = lím Sn (x) = + cos kx.
n→∞ 2 π k=1
k2
Puesto que | cos kx| ≤ 1 para cada k y x, la serie converge, y S(x) existe para todos los nú-
meros reales x.
j
x j = −π + π, para cada j = 0, 1, . . . , 2m − 1. (8.22)
m
Si no es [−π, π ], se podría usar una transformación lineal simple para transformar los datos
en esta forma.
Figura 8.14
24 23 22 21 0 1 2 3 4
2p 5 x0 xm p 5 x 2m
{φ0 , φ1 , . . . , φ2n−1 } es ortogonal respecto a la suma sobre los puntos uniformemente espa-
ciados {x j }2m−1
j=0 en [−π, π ]. Con esto queremos decir que para cada k = l,
2m−1
φk (x j )φl (x j ) = 0. (8.24)
j=0
2m−1 2m−1
• cos r x j = 0 y sen r x j = 0.
j=0 j=0
Pero
eir x j = eir (−π+ jπ/m) = e−ir π · eir jπ/m ,
por lo que
2m−1 2m−1 2m−1
cos r x j + i sen r x j = e−ir π eir jπ/m .
j=0 j=0 j=0
2m−1
Puesto que eir jπ/m es una serie geométrica con el primer término 1 y radio eir π/m = 1,
tenemos j=0
2m−1
1 − (eir π/m )2m 1 − e2ir π
eir jπ/m = = .
j=0
1 − eir π/m 1 − eir π/m
Esto implica que tanto la parte real como la imaginaria son cero, por lo que
2m−1 2m−1
cos r x j = 0 y sen r x j = 0.
j=0 j=0
Puesto que
1
cos kx j sen lx j = [sen(l + k)x j + sen(l − k)x j ]
2
y tanto (l 1 k) como (l 2 k) son enteros que no son multiplicadores de 2m, el lema 8.12
implica que
Esta técnica se usa para mostrar que la condición de ortogonalidad se satisface para
cualquier par de funciones y para producir el siguiente resultado.
son
2m−1
1
• ak = m y j cos kx j , para cada k = 0, 1, . . . , n,
j=0
y
2m−1
1
• bk = y j sen kx j , para cada k = 1, 2, . . . , n − 1.
m j=0
8.5 Aproximación polinomial trigonométrica 407
2m−1
∂E
0= =2 [y j − Sn (x j )](− sen kx j ),
∂bk j=0
por lo que
2m−1 2m−1
0= y j sen kx j − Sn (x j ) sen kx j
j=0 j=0
La ortogonalidad implica que todas las sumas, excepto la primera y la última en el lado
m. Por lo tanto,
2m−1
0= y j sen kx j − mbk ,
j=0
El resultado para las ak es similar, pero necesita un paso adicional para determinar a0
(consulte el ejercicio 19).
j
xj = π + π y y j = f (x j ) = 2x 2j − 9, para j = 0, 1, 2, 3, 4, 5.
m
El polinomio trigonométrico es
1
S2 (x) = a0 + a2 cos 2x + (a1 cos x + b1 sen x),
2
donde
5 5
1 1
ak = y j cos kx j , para k = 0, 1, 2, y b1 = y j sen x j .
3 j=0
3 j=0
408 CAPÍTULO 8 Teoría de aproximación
1 2π π π 2π
a0 = f (−π) + f − + f − + f (0) + f + f
3 3 3 3 3
= −4.10944566,
1 2π 2π π π
a1 = f (−π) cos(−π ) + f − cos − + f − cos −
3 3 3 3 3
π π 2π 2π
+ f (0) cos 0 + f cos + f cos = −8.77298169,
3 3 3 3
1 2π 4π π 2π
a2 = f (−π) cos(−2π ) + f − cos − + f − cos −
3 3 3 3 3
π 2π 2π 4π
+ f (0) cos 0 + f cos + f cos = 2.92432723,
3 3 3 3
1 2π π π π
b1 = f (−π) sen(−π ) + f − sen − + f − −
3 3 3 3 3
π π 2π 2π
+ f (0) sen 0 + f + f = 0.
3 3 3 3
Por lo tanto,
1
S2 (x) = (−4.10944562) − 8.77298169 cos x + 2.92432723 cos 2x.
2
f (x) y el polinomio trigonométrico de mínimos cuadrados discretos
S2(x).
Figura 8.15
y
10
8
6 y = f (x)
4
y = S2 (x)
2
23 21 1 3 x
22
24
26
210
El siguiente ejemplo da una ilustración de cómo encontrar una aproximación por míni-
[−π, π ].
8.5 Aproximación polinomial trigonométrica 409
z j = π(x j − 1).
zj 9
z j, f 1 + .
π j=0
donde
9
1 zj
ak = f 1+ cos kz j , para k = 0, 1, 2, 3,
5 j=0
π
9
1 zj
bk = f 1+ sen kz j , para k = 1, 2.
5 j=0
π
que (consulte el ejercicio 10) tiene el valor 2m. Esto requiere que el polinomio de interpola-
ción se escriba como
m−1
a0 + am cos mx
Sm (x) = + (ak cos kx + bk sen kx) (8.26)
2 k=1
si queremos que la forma de las constantes ak y bk concuerde con las del polinomio de míni-
mos cuadrados discretos; es decir,
2m−1
1
• ak = y j cos kx j , para cada k = 0, 1, . . . , m, y
m j=0
2m−1
1
• bk = y j sen kx j para cada k = 1, 2, . . . , m − 1.
m j=0
donde
2m−1
ck = y j eikπ j/m , para cada k = 0, 1, . . . , 2m − 1. (8.28)
j=0
Leonhard Euler proporcionó Una vez que las constantes ck se han determinado, ak y bk se pueden recuperar por medio
primero esta fórmula en 1748 de la fórmula de Euler,
en Introductio in analysin
que hizo que las
ideas de Johann Bernoulli fueran ei z = cos z + i sen z.
más precisas. Este trabajo basa
los cálculos en la teoría de Para cada k = 0, 1, . . . , m, tenemos
funciones elementales en lugar
2m−1 2m−1
de curvas. 1 1 1 1
ck (−1)k = ck e−iπ k = y j eikπ j/m e−iπ k = y j eik(−π+(π j/m))
m m m j=0
m j=0
2m−1
1 πj πj
= yj cos k −π + + i sen k −π +
m j=0
m m
2m−1
1
= y j (cos kx j + i sen kx j ).
m j=0
(−1)k
ak + ibk = ck . (8.29)
m
Pero
2, si j es par,
1 + eiπ j =
0, si j es impar,
es decir,
m−1
ck + cm+k = 2 y2 j eikπ j/(m/2) . (8.30)
j=0
De forma similar,
m−1
ck − cm+k = 2eikπ/m y2 j+1 eikπ j/(m/2) . (8.31)
j=0
Puesto que ck y cm+k se pueden recuperar a partir de las ecuaciones (8.30) y (8.31), estas
ck. También observe que las sumas en las ecua-
ciones (8.30) y (8.31) son de la misma forma que la suma en la ecuación (8.28), excepto que
el índice m ha sido reemplazado por m/2.
Existen 2m c0 , c1 , . . . , c2m−1 que deben calcularse. Usar la fórmu-
la básica (8.28) requiere 2m
(2m)2 operaciones. La ecuación (8.30) requiere m multiplicaciones complejas para cada
k = 0, 1, . . . , m − 1, y la ecuación (8.31) requiere m11 multiplicaciones complejas para
cada k 5 0, 1, , m 2 1. Utilizar estas ecuaciones para calcular c0 , c1 , . . . , c2m−1 reducen
el número de multiplicaciones complejas desde (2m)2 5 4m2 hasta
m · m + m(m + 1) = 2m 2 + m.
Las sumas en las ecuaciones (8.30) y (8.31) tienen la misma forma que la original y m es
una potencia de 2, por lo que la técnica de reducción se puede volver a aplicar a las sumas en
las ecuaciones (8.30) y (8.31). Cada una de estas es reemplazada por dos sumas desde j 5 0
hasta j 5 (m / 2) 2 1. Esto reduce la parte 2m2 de la suma a
m m m m
2 · + · +1 = m 2 + m.
2 2 2 2
(m 2 + m) + m = m 2 + 2m
Al aplicar la técnica una vez más obtenemos cuatro sumas, cada una con m / 4 términos
y reduce la parte m2 de este total a
m 2 m m m2
4 + +1 = + m,
4 4 4 2
m2
+ mr.
2r −2
(2 p )2
+ m( p + 1) = 2m + pm + m = 3m + m log2 m = O(m log2 m).
2 p−1
Debido a la forma en que se ordenan los cálculos, el número de adiciones complejas reque-
ridas es comparable.
m 5 210 5 1 024.
El cálculo directo de ck , para k = 0, 1, . . . , 2m − 1, requeriría
donde
7 7
1 1
ak = y j cos kx j y bk = y j sen kx j , k = 0, 1, 2, 3, 4.
4 j=0
4 j=0
7
1
ck eikx ,
4 j=0
donde
7
ck = y j eikπ j/4 , para k = 0, 1, . . . , 7.
j=0
414 CAPÍTULO 8 Teoría de aproximación
yj en estas ecuaciones son 1 o 21. Esta frecuencia disminuirá en una aplicación más gran-
de, para contar las operaciones computacionales de manera precisa, la multiplicación por
1 o 21 se incluirá, a pesar de que no sería necesaria en este ejemplo. Con esta compren-
sión, se requieren 64 multiplicaciones/divisiones y 56 sumas/restas para el cálculo directo
de c0 , c1 , . . . , c7 .
Para aplicar el procedimiento de transformada rápida de Fourier con r 5 1, primero
determinamos
c0 + c4 c2 + c6
d0 = = y0 + y2 + y4 + y6 ; d4 = = y0 − y2 + y4 − y6 ;
2 2
c0 − c4 c2 − c6
d1 = = y1 + y3 + y5 + y7 ; d5 = = i(y1 − y3 + y5 − y7 );
2 2
c1 + c5 c3 + c7
d2 = = y0 + i y2 − y4 − i y6 ; d6 = = y0 − i y2 − y4 + i y6 ;
2 2
c1 − c5 c3 − c7
d3 = d7 =
2 2
i +1 i −1
= √ (y1 + i y3 − y5 − i y7 ); = √ (y1 − i y3 − y5 + i y7 ).
2 2
r 5 2,
d0 + d4 d2 + d6
e0 = = y0 + y4 ; e4 = = y0 − y4 ;
2 2
d0 − d4 d2 − d6
e1 = = y2 + y6 ; e5 = = i(y2 − y6 );
2 2
id1 + d5 id3 + d7 i −1
e2 = = i(y1 + y5 ); e6 = = √ (y1 − y5 );
2 2 2
id1 − d5 id3 − d7 i −1
e3 = = i(y3 + y7 ); e7 = =i √ (y3 − y7 ).
2 2 2
8.6 Transformadas rápidas de Fourier 415
Finalmente, para r 5 p 1 1 5
√
e0 + e4 ((i + 1)/ 2)e2 + e6 i −1
f0 = = y0 ; f4 = = √ y1 ;
2 2 2
√
e0 − e4 ((i + 1)/ 2)e2 − e6 i −1
f1 = = y4 ; f5 = = √ y5 ;
2 2 2
√
ie1 + e5 ((i − 1)/ 2)e3 + e7 −i − 1
f2 = = i y2 ; f6 = = √ y3 ;
2 2 2
√
ie1 − e5 ((i − 1)/ 2)e3 − e7 −i − 1
f3 = = i y6 ; f7 = = √ y7 .
2 2 2
f 0 = y0 ; f 1 = y4 ; f 2 = i y2 ; f 3 = i y6 ;
i −1 i −1 i +1 i +1
f4 = √ y1 ; f5 = √ y5 ; f6 = − √ y3 ; f7 = − √ y7 .
2 2 2 2
ek :
i −1
e0 = f 0 + f 1 ; e1 = −i( f 2 + f 3 ); e2 = − √ ( f 4 + f 5 );
2
i +1
e3 = − √ ( f 6 + f 7 );
2
e4 = f 0 − f 1 ; e5 = f 2 − f 3 ; e6 = f 4 − f 5 ; e7 = f 6 − f 7 .
dk :
d0 = e0 + e1 ; d1 = −i(e2 + e3 ); d2 = e4 + e5 ; d3 = −i(e6 + e7 );
d4 = e0 − e1 ; d5 = e2 − e3 ; d6 = e4 − e5 ; d7 = e6 − e7 .
ck :
c0 = d0 + d1 ; c1 = d2 + d3 ; c2 = d4 + d5 ; c3 = d6 + d7 ;
c4 = d0 − d1 ; c5 = d2 − d3 ; c6 = d4 − d5 ; c7 = d6 − d7 .
Calcular las constantes c0, c1, , c7 de esta forma requiere el número de operaciones
mostradas en la tabla 8.31. Observe de nuevo que la multiplicación por 1 o 21 se ha incluido
en el conteo, a pesar de que no requiere esfuerzo computacional.
ENTRADA m, p; y0 , y1 , . . . , y2m−1 .
SALIDA números complejos c0 , . . . , c2m−1 ; números reales a0 , . . . , am ; b1 , . . . , bm−1 .
Paso 1 Determine M = m;
q = p;
ζ = eπi/m .
Paso 2 Para j = 0, 1, . . . , 2m − 1 determine c j = y j .
Paso 3 Para j = 1, 2, . . . , M determine ξ j = ζ j ;
ξ j+M = −ξ j .
Paso 4 Determine K = 0;
ξ0 = 1.
Paso 5 Para L = 1, 2, . . . , p + 1 haga los pasos 6–12.
Paso 6 Mientras K < 2m − 1 haga los pasos 7–11.
Paso 7 Para j = 1, 2, . . . , M haga los pasos 8–10.
Paso 8 Sea K = k p · 2 p + k p−1 · 2 p−1 + · · · + k1 · 2 + k0 ;
(Descomponga k.)
determine K 1 = K /2q = k p · 2 p−q + · · · + kq+1 · 2 + kq ;
K 2 = kq · 2 p + kq+1 · 2 p−1 + · · · + k p · 2q .
Paso 9 Determine η = c K +M ξ K 2 ;
c K +M = c K − η;
c K = c K + η.
Paso 10 Determine K = K + 1.
Paso 11 Determine K = K + M.
8.6 Transformadas rápidas de Fourier 417
Paso 12 Determine K = 0;
M = M/2;
q = q − 1.
Paso 13 Mientras K < 2m − 1 haga los pasos 14–16.
Paso 14 Sea K = k p · 2 p + k p−1 · 2 p−1 + · · · + k1 · 2 + k0 ; (Decomponga k.)
determine j = k0 · 2 p + k1 · 2 p−1 + · · · + k p−1 · 2 + k p .
Paso 15 Si j > K entonces intercambie c j y ck .
Paso 16 Determine K = K + 1.
Paso 17 Determine a0 = c0 /m;
am = Re(e−iπ m cm /m).
Paso 18 Para j = 1, . . . , m − 1 determine a j = Re(e−iπ j c j /m);
b j = Im(e−iπ j c j /m).
Paso 19 SALIDA (c0 , . . . , c2m−1 ; a0 , . . . , am ; b1 , . . . , bm−1 );
PARE.
Ejemplo 1 Encuentre el polinomio trigonométrico de interpolación de grado 2 en [2π, π] para los datos
3
(x j , f (x j )) j=0 , donde f (x) = 2x 2 − 9.
Solución Tenemos
3 3
1 1
ak = f (x j ) cos(kx j ) para k = 0, 1, 2 y b1 = f (x j ) sen(x j ) por lo que,
2 j=0
2 j=0
1 π π
a0 = f (−π) + f − + f (0) + f = −3.19559339,
2 2 2
1 π π π π
a1 = f (−π) cos(−π ) + f − cos − + f (0) cos 0 + f cos
2 2 2 2 2
= −9.86960441,
1 π π
a2 = f (−π) cos(−2π ) + f − cos(−π ) + f (0) cos 0 + f cos (π )
2 2 2
= 4.93480220,
1 π π π π
b1 = f (−π) sen(−π ) + f − sen − + f (0) sen 0 + f sen = 0.
2 2 2 2 2
Por lo que,
1
S2 (x) = (−3.19559339 + 4.93480220 cos 2x) − 9.86960441 cos x.
2
Figura 8.16
y
10
8
6 y = f (x)
4 y = S2 (x)
23 21 1 3 x
22
24
26
28
210
Ejemplo 2 Determine el polinomio de interpolación trigonométrica de grado 4 en [0, 2] para los datos
{( j/4, f ( j/4))}7j=0 , donde f (x) = x 4 − 3x 3 + 2x 2 − tan x(x − 2).
Solución Primero necesitamos transformar el intervalo [0, 2] a [2π, π]. Esto está dado por
z j = π(x j − 1),
zj 7
z j, f 1 + .
π j=0
El polinomio de interpolación en z es
Figura 8.17
y
y 5 f (x)
y 5 S4(x)
x
1 2
rápida de Fourier se pueden encontrar en [Ham], que presenta el método desde un enfoque
matemático, o en [Brac], donde la presentación está basada en métodos que quizá sean fami-
liares para los ingenieros.
[AHU], p. 252–269 es una buena referencia para un análisis de los aspectos computa-
m no es una
potencia de 2 se puede encontrar en [Win]. Una presentación de las técnicas y el material
relacionado desde el punto de vista del álgebra abstracta aplicada se da en [Lau], p. 438–465.
La biblioteca netlib contiene una rutina para calcular la aproximación de mínimos cua-
drados polinomiales para un conjunto discreto de puntos y una rutina para evaluar este poli-
nomio y cualquiera de sus derivadas en un punto determinado.
Las secciones Preguntas de análisis, Conceptos clave y Revisión del capítulo están dis-
ponibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
CAPÍTULO
9 Aproximación de eigenvalores
Introducción
Las vibraciones longitudinales de un barra elástica de rigidez local p(x) y densidad ρ (x) se
describen mediante la ecuación diferencial parcial
∂ 2v ∂ ∂v
ρ(x) (x, t) = p(x) (x, t) ,
∂t 2 ∂x ∂x
donde
d du k
p(x) (x) + λk ρ(x)u k (x) = 0.
dx dx
v(x,t)
0 x l x
2 −1 0 0 w1 w1
−1 2 −1 0 w2
= −0.04 ρ λ w 2 = −0.04 ρ λw.
Aw =
0 −1 2 −1 w 3 p w3 p
0 0 −1 2 w4 w4
421
422 CAPÍTULO 9 Aproximación de eigenvalores
p(λ) = det(A − λI )
y, entonces, determinamos sus ceros. Encontrar el determinante de una matriz n 3 n es caro
desde el punto computacional y hallar buenas aproximaciones para las raíces de p(λ) también
es difícil. En este capítulo exploraremos otros medios para aproximar los eigenvalores de
de una matriz m 3 n en una forma que tiene aplicaciones valiosas en numerosas áreas.
convergerá si todos los eigenvalores asociados con el problema tienen magnitud menor que
1. Los valores exactos de los eigenvalores en este caso no son muy importantes, sólo la
-
tido fue descubierto primero por S. A. Geršgorin. Es el tema de un libro muy interesante de
Richard Varga [Var2].
Por lo tanto,
n
ak j x j = λxk − akk xk = (λ − akk )xk ,
j=1,
j=k
9.1 Álgebra lineal y eigenvalores 423
n n
|λ − akk | · |xk | = ak j x j ≤ |ak j ||x j |.
j=1, j=1,
j=k j=k
Ejemplo 1
4 1 1
A= 0 2 1
−2 0 9
Figura 9.1
Eje
imaginario
Incluso cuando necesitamos encontrar los eigenvalores, muchas técnicas para su aproxi-
mación son iterativas. La determinación de las regiones en las que se encuentran es el primer
paso para hallar las aproximaciones porque nos da aproximaciones iniciales.
Antes de considerar otros resultados concernientes a eigenvalores y a eigenvectores ne-
que se requerirán en lo que resta de este capítulo se listan aquí para facilitar la referencia su
consulta. Las demostraciones de muchos de estos resultados no proporcionados se conside-
descritas en la sección 8.2. De hecho, mucho de lo que veremos en esta sección se compara
con el material del capítulo 8.
424 CAPÍTULO 9 Aproximación de eigenvalores
dependiente.
Teorema 9.3 Suponga que {v(1) , v(2) , v(3) , . . . , v(k) } n vectores linealmente indepen-
dientes en Rn. Entonces, para cualquier vector x ∈ Rn , -
tes β1 , β2 , . . . , βn con
A(β1 , β2 , . . . , βn )t = x, que tiene una única solución para cualquier vector x ∈ Rn . Esto,
a su vez, es equivalente a la declaración de que para cualquier vector x ∈ Rn , existe un único
β1 , β2 , . . . , βn con
Ejemplo 2 a) Muestre que v(1) = (1, 0, 0)t , v(2) = (−1, 1, 1)t , y v(3) = (0, 4, 2)t es una base para R , y
b) dado un vector arbitrario x ∈ R3 , encuentre β1 , β2 y β3 con
β1 − β 2 = x 1 , β2 + 4β3 = x2 , β2 + 2β3 = x3 .
Teorema 9.5 Si A es una matriz y λ1 , . . . , λk son eigenvalores distintos de A con eigenvectores asociados
x(1) , x(2) , . . . , x(k) , entonces {x(1) , x(2) , . . . , x(k) }
2 0 0
A= 1 1 2 .
1 −1 4
ácter diferente.
Ejemplo 4 3
2 1 0
B= 0 2 0
0 0 3
Solución Esta matriz también tiene el mismo polinomio característico que la matriz A en
2−λ 1 0
0 x1 1 0 x1 −x1 + x2
−1
0 = (B − 3I ) x2 = 0 −1 0 x2 = −x2 .
0 x3 0 0 0 x3 0,
Considerando λ2 = 2. Si
0 x1 0 1 0 x1 x2
0 = (B − 2λ) x2 = 0 0 0 · x2 = 0 ,
0 x3 0 0 1 x3 x3 ,
Definición 9.6 {v(1) , v(2) , . . . , v(n) } recibe el nombre de ortogonal si (v(i) )t v( j)5
0, para toda i = j. Si, además (v(i) )t v(i) = 1, para toda i = 1, 2, . . . , n . Entonces el
ortonormal.
Ejemplo 5 a) Muestre que los vectores v(1) = (0, 4, 2)t , v(2) = (−5, −1, 2)t y v(3) = (1, −1, 2)t for-
b)
males.
(v(1) )t v(3) = 0(1) + 4(−1) + 2(2) = 0, y (v(2) )t v(3) = −5(1) − 1(−1) + 2(2) = 0,
por lo que los vectores son ortogonales y forman una base para Rn. Las normas l2 de estos
vectores son
√ √ √
v(1) 2 = 2 5, v(2) 2 = 30, y v(3) 2 = 6.
b) Los vectores
t
√ √ t
v(1) 0 4 2 2 5 5
u(1)
= (1) = √ , √ , √ = 0, , ,
v 2 2 5 2 5 2 5 5 5
t
√ √ √ t
v(2) −5 −1 2 30 30 30
u(2) = = √ ,√ ,√ = − ,− , , y
v(2) 2 30 30 30 6 30 15
t
√ √ √ t
v(3) 1 −1 2 6 6 6
u(3)
= (3) = √ ,√ ,√ = ,− ,
v 2 6 6 6 6 6 3
Teorema 9.7
El proceso Gram-Schmidt -
ón
Schmidt, que nos permite construir una base ortogonal para Rn n vecto-
res linealmente independientes en Rn.
v1 = x1 ,
vt1 x2
v2 = x2 − v1 ,
vt1 v1
vt1 x3 vt2 x3
v3 = x3 − v1 − v2 ,
vt1 v1 vt2 v2
..
.
k−1
vit xk
vk = xk − vi
i=1
vit vi
R a partir
de tres vectores linealmente independientes en R .
Ejemplo 6
los vectores linealmente independientes
Solución Tenemos los vectores ortogonales v(1) , v(2) y v(3) , dados por
{v(1) , v(2) , v(3) } resulta ser tanto ortonormal, como ortogonal, pero comúnmente,
ésta no es la situación.
428 CAPÍTULO 9 Aproximación de eigenvalores
formadas usando estos vectores como sus columnas. Primero consideramos algunos resulta-
de vectores.
Definición 9.9 Se dice que una matriz Q es ortogonal si sus columnas {qt1 , qt2 , . . . , qtn }
ortonormal en Rn.
llamar ortonormales a las
matrices ortogonales porque las
Las siguientes propiedades importantes de las matrices ortogonales se consideran en el
columnas no sólo forman un
i) Q es invertible con Q −1 = Q t .
ii) Para cualquier x y y en Rn , (Qx)t Qy = xt y.
iii) Para cualquier x en Rn , ||Qx||2 = ||x||2 .
iv) Cualquier matriz invertible Q con Q −1 = Q t es ortogonal.
-
genvalores de una matriz.
9.2 Matrices ortogonales y transformaciones de similitud 429
Definición 9.11 Se dice que dos matrices A y B son similares si existe una matriz no singular S con A 5
S −1 B S.
Una característica importante de las matrices similares es que tienen los mismos eigen-
valores.
Teorema 9.12 Suponga que A y B son matrices similares con A 5 S −1 B S y λ es un eigenvalor de A con un ei-
genvector x relacionado. Entonces λ es un eigenvalor de B con un eigenvector relacionado Sx.
S −1 B Sx = Ax = λx.
B Sx = λSx.
Teorema 9.13 Una matriz A n 3 n es similar a una matriz diagonal D si y sólo si A tiene n eigenvectores
linealmente independientes. En este caso, D = S −1 AS, donde las columnas de S consisten
en eigenvectores y el i-ésimo elemento diagonal de D es el eigenvalor de A que corresponde
a la i-ésima columna de S.
El par de matrices S y D -
lumnas de S y el reordenamiento correspondiente de los elementos de la diagonal de D darán
Corolario 9.14 Una matriz A n 3 n que tiene n eigenvalores diferentes es similar a una matriz diagonal.
De hecho, no necesitamos que la matriz de similitud sea diagonal para que este concepto
sea útil. Suponga que A es similar a la matriz triangular B. La determinación de los eigen-
valores es fácil para una matriz triangular B, porque en este caso λ es una solución para la
ecuación
n
0 = det(B − λI ) = (bii − λ)
i=1
si y sólo si λ = bii para algunas i. El siguiente resultado describe una relación, llamada
transformación de similitud, entre las matrices arbitrarias y las triangulares.
430 CAPÍTULO 9 Aproximación de eigenvalores
T = U −1 AU,
conocido principalmente por su donde T es una matriz triangular superior, cuyas entradas diagonales consisten en eigenva-
lores de A.
de números, el análisis y otras
áreas. Publicó lo que se conoce La matriz U
Ux 2 x 2 para cualquier vector x. Las matrices con esta propiedad reciben el nombre
de unitarias. A pesar de que no usaremos esta propiedad de preservación de la norma, sí
La norma l2 de una matriz
unitaria es 1.
T, pero
no proporciona un medio constructivo para encontrar T ya que requiere un conocimiento de
los eigenvalores de A. En muchos casos, es demasiado difícil determinar la transformación
de similitud U.
El siguiente resultado para las matrices simétricas reduce la complicación porque, en
este caso, la matriz de transformación es ortogonal.
Teorema 9.16 La matriz A n 3 n es simétrica si y sólo si existe una matriz diagonal D y una matriz ortogo-
nal Q con A = QDQt .
Demostración Primero suponga que A = QDQt , donde Q es ortogonal y D es diagonal.
Entonces
t t
At = QDQt = Qt D Qt = QDQt = A,
y A es simétrica.
Para demostrar que todas las matrices simétricas A se pueden escribir de la forma
A = QDQt , primero considere los diferentes eigenvalores de A. Si Av1 = λ1 v1 y Av2
= λ2 v2 , con λ1 = λ2 , entonces, puesto que At = A, tenemos
(λ1 − λ2 )vt1 v2 = (λ1 v1 )t v2 − vt1 (λ2 v2 ) = (Av1 )t v2 − vt1 (Av2 ) = vt1 At v2 − vt1 Av2 = 0,
por lo que vt1 v2 = 0. Por lo tanto, seleccionamos vectores ortonormales para diferentes
eigenvalores simplemente al normalizar todos estos eigenvectores ortogonales. Cuando
los eigenvalores no son distintos, habrá subespacios de eigenvectores para cada uno de los
múltiples eigenvalores y con la ayuda del proceso de ortogonalización de Gram-Schmidt,
n eigenvectores ortonormales.
Corolario 9.17 Suponga que A es una matriz simétrica n 3 n. Entonces existen n eigenvectores de A que
A son números reales.
D = Q t AQ = Q −1 AQ implica que AQ = Q D.
Sea 1 ≤ i ≤ n y vi = (q1i , q2i , . . . , qni )t la i-ésima columna de Q. Entonces
Avi = dii vi ,
Puesto que vit Avi y vit vi son números reales y vit vi = 1, el eigenvalor dii = vit Avi es un
número real, para cada i = 1, 2, . . . , n.
A veces, una matriz simétrica
cuyos eigenvalores son todos A
números reales no negativos
para todos los vectores diferentes de cero, se tiene xt Ax > 0. El siguiente teorema caracteri-
recibe el nombre de
negativa (o -
positiva).
Teorema 9.18 Una matriz simétrica A ólo si todos los eigenvalores de A son po-
sitivos.
Para mostrar el recíproco, suponga que A es simétrica con eigenvalores positivos. Por
A tiene n eigenvectores, v(1) , v(2) , . . . , v(n) , -
cualquier x = 0, β1 , β 2 , . . . , β n
para las que
n
x= βi v(i) .
i=1
0, si i = j,
(v( j) )t v(i) =
1, si i = j.
Por lo tanto, A
El nombre de método de potencia Para aplicar el método de potencia, suponemos que la matriz n 3 n A tiene n eigenva-
se deriva del hecho de que las lores λ1 , λ2 , . . . , λn
iteraciones exageran el tamaño {v(1) , v(2) , v(3) , . . . , v(n) }. Además, suponemos que A tiene exactamente un eigenvalor λ1,
relativo de las magnitudes de los
eigenvalores. que es más grande en magnitud, por lo que
|λ1 | > |λ2 | ≥ |λ3 | ≥ · · · ≥ |λn | ≥ 0.
Puesto que |λ1 | > |λ j |, para todas j = 2, 3, . . . , n, tenemos lím k→∞ (λ j /λ1 )k = 0, y
|y (1)
p1 y(1) ∞
x(1) mediante
1 1
x(1) = y(1) = Ax(0) .
y (1)
p1 y (1)
p1
9.3 El método de potencia 433
Entonces
p1 = 1
x (1) x(1) ∞.
1
y(2) = Ax(1) = A2 x(0)
y (1)
p1
y
n
β1 λ21 v (1)
p1 + β j λ2j v (pj) y (1)
y (2)
p1
j=2 1 p1
µ (2)
= y (2)
p1 = =
x (1)
p1
β1 λ1 v (1) n ( j)
y (1)
p1 + j=2 β j λ j v p1 p1
n 2 ( j)
β1 v (1)
p1 + j=2 β j (λ j /λ1 ) v p1
= λ1 n ( j)
.
β1 v (1)
p1 + j=2 β j (λ j /λ1 )v p1
1 1 1
x(2) = y(2) = Ax(1) = A2 x(0) .
y (2)
p2 y (2)
p2 y (2)
p2 y p1
(1)
m=0 y {y
{x(m) }∞ (m) ∞
}m=1 y una suce-
sión de escalares {µ(m) }∞
m=1 de manera inductiva mediante
y(m) = Ax(m−1) ,
n m ( j)
β1 v (1)
pm−1 + j=2 (λ j /λ1 ) β j v pm−1
µ(m) = y (m)
pm−1 = λ1
β1 v (1) n m−1 β v ( j)
pm−1 + j=2 (λ j /λ1 ) j pm−1
y
y(m) Am x(0)
x(m) = = m ,
y (m)
pm
y (k)
pk
k=1
donde en cada paso, pm se usa para representar el entero más pequeño para el que
|y (m)
pm y(m) ∞.
Ilustración La matriz
−2 −3
A=
6 7
434 CAPÍTULO 9 Aproximación de eigenvalores
−5 −29 −125
x1 = Ax0 = x2 = Ax1 = x3 = Ax2 =
13
,
61
,
253
,
61 253 1021
λ(1)
1 = = 4.6923, λ(2)
1 = = 4.14754, λ(3)
1 = = 4.03557,
13 61 253
4093 16381
λ(4)
1 = = 4.00881, y λ(5)
1 = = 4.00200.
1021 4093
16381
Un eigenvector aproximado correspondiente a λ(5)
1 = = 4.00200 es
4093
−8189 1
x6 = , que, dividido entre 2 ≈ v1 .
16381 −2.00037
tiene un solo eigenvalor dominante. Tampoco se conoce cómo x(0) debería seleccionarse para
garantizar que su representación en términos de eigenvectores de la matriz contendrá una
contribución diferente de cero de eigenvectores asociados con el eigenvalor dominante, si
existiera.
Paso 1 Determine k = 1.
Paso 2 Determine el entero más pequeño p con 1≤ p ≤ n y |x p | = ||x||∞ .
Paso 3 Determine x = x/x p .
Paso 4 Mientras ( k ≤ N ) haga los pasos 5–11.
Paso 5 Determine y = Ax.
Paso 6 Determine µ = y p .
Paso 7 Encuentre el entero más pequeño p con 1 ≤ p ≤ n y |y p y ∞.
Convergencia acelerada
pm para el que |y (m)
pm y(m) garanti-
∞
{µ(m) }∞
m=1
converge en λ1 se determina mediante los radios |λ j /λ1 |m , para j = 2, 3, . . . , n, y en particu-
lar por medio |λ2 /λ1 |m . La velocidad de convergencia es O(|λ2 /λ1 |m ) (consulte [IK], p. 148),
por lo que existe una constante k, de tal forma que para m grande,
m
λ2
|µ(m) − λ1 | ≈ k ,
λ1
|µ(m+1) − λ1 | λ2
lím ≈ < 1.
m→∞ |µ (m) − λ1 | λ1
La sucesión {µ(m) } converge linealmente a λ1, por lo que el procedimiento "2 de Aitkens,
que se analiza en la sección 2.5, se puede utilizar para acelerar la convergencia. Al imple-
mentar el procedimiento "2
con lo siguiente:
Paso 1 Determine k = 1;
µ0 = 0;
µ1 = 0.
Paso 6 Determine µ = y p ;
(µ1 − µ0 )2
µ̂ = µ0 − .
µ − 2µ1 + µ0
Paso 10 Si ERR < TOL y k ≥ 4 entonces SALIDA (µ̂, x);
PARE.
Paso 11 Determine k = k + 1;
µ0 = µ1 ;
µ1 = µ.
−4 14 0
A = −5 13 0
−1 0 2
por lo que
y(1)
||y(1) ||∞ = 10, µ(1) = y1(1) = 10, y x(1) = = (1, 0.8, 0.1)t .
10
µ̂(m) representa la
2
sucesión generada por el procedimiento ! de Aitkens. Una aproximación para el eigenvalor
Matrices simétricas
Cuando A es simétrica, es posible hacer una variación en la selección de los vectores
x(m) y y(m) y los escalares µ(m)
la sucesión {µ(m) }∞
m=1 para el eigenvalor dominante λ1. De hecho, a pesar de que el índice
de convergencia del método de potencia general es O(|λ2 /λ1 |m ), el índice de convergencia
9.3 El método de potencia 437
Paso 1 Determine k = 1;
x = x/ x 2 .
Paso 2 Mientras ( k ≤ N ) haga los pasos 3–8.
Paso 3 Determine y = Ax.
Paso 4 Determine µ = xt y.
Paso 5 Si y 2 = 0, entonces SALIDA (‘Eigenvector’, x);
SALIDA (‘A tiene un eigenvalor de 0, seleccione
un nuevo vector x y reinicie’);
PARE.
y
Paso 6 Determine ERR = x − ;
y 2 2
x = y/ y 2 .
Paso 7 Si ERR < TOL entonces SALIDA (µ, x);
(El procedimiento fue exitoso.)
PARE.
Paso 8 Determine k = k + 1.
Paso 9 SALIDA (‘Número máximo de iteraciones excedido’);
(El procedimiento no fue exitoso.)
PARE.
4 −1 1
A = −1 3 −2 ,
1 −2 3
Tabla 9.2
m (y(m) )t µ(m) µ̂(m) (x(m) )t con x(m) ∞ =1
0 (1, 0, 0)
1 (4, −1, 1) 4 (1, −0.25, 0.25)
2 (4.5, −2.25, 2.25) 4.5 7 (1, −0.5, 0.5)
3 (5, −3.5, 3.5) 5 6.2 (1, −0.7, 0.7)
4 (5.4, −4.5, 4.5) 5.4 6.047617 (1, −0.8333̄, 0.8333̄)
5 (5.666̄, −5.1666̄, 5.1666̄) 5.666̄ 6.011767 (1, −0.911765, 0.911765)
6 (5.823529, −5.558824, 5.558824) 5.823529 6.002931 (1, −0.954545, 0.954545)
7 (5.909091, −5.772727, 5.772727) 5.909091 6.000733 (1, −0.976923, 0.976923)
8 (5.953846, −5.884615, 5.884615) 5.953846 6.000184 (1, −0.988372, 0.988372)
9 (5.976744, −5.941861, 5.941861) 5.976744 (1, −0.994163, 0.994163)
10 (5.988327, −5.970817, 5.970817) 5.988327 (1, −0.997076, 0.997076)
Ahora aplicaremos el método de potencia simétrica a esta matriz con el mismo vector
inicial (1, 0, 0)t. Los primeros pasos son
1
x(1) = · Ax(0) = (0.942809, −0.235702, 0.235702)t .
||Ax(0) ||2
Tabla 9.3
m (y(m) )t µ(m) µ̂(m) (x(m) )t con x(m) 2 =1
0 (1, 0, 0) (1, 0, 0)
1 (4, −1, 1) 4 7 (0.942809, −0.235702, 0.235702)
2 (4.242641, −2.121320, 2.121320 5 6.047619 (0.816497, −0.408248, 0.408248)
3 (4.082483, −2.857738, 2.857738) 5.666667 6.002932 (0.710669, −0.497468, 0.497468)
4 (3.837613, −3.198011, 3.198011) 5.909091 6.000183 (0.646997, −0.539164, 0.539164)
5 (3.666314, −3.342816, 3.342816) 5.976744 6.000012 (0.612836, −0.558763, 0.558763)
6 (3.568871, −3.406650, 3.406650) 5.994152 6.000000 (0.595247, −0.568190, 0.568190)
7 (3.517370, −3.436200, 3.436200) 5.998536 6.000000 (0.586336, −0.572805, 0.572805)
8 (3.490952, −3.450359, 3.450359) 5.999634 (0.581852, −0.575086, 0.575086)
9 (3.477580, −3.457283, 3.457283) 5.999908 (0.579603, −0.576220, 0.576220)
10 (3.470854, −3.460706, 3.460706) 5.999977 (0.578477, −0.576786, 0.576786)
Teorema 9.19 Suponga que A es una matriz simétrica n 3 n con eigenvalores λ1 , λ2 , . . . , λn . Si Ax−λx 2 <ε
para algunos números reales λ y vector x con x 2 = 1. Entonces
mín |λ j − λ| < ε.
1≤ j≤n
9.3 El método de potencia 439
Por lo tanto,
2
n n n
2
Ax − λx 2 = β j (λ j − λ)v ( j)
= |β j |2 |λ j − λ|2 ≥ mín |λ j − λ|2 |β j |2 .
1≤ j≤n
j=1 j=1 j=1
2
Pero
n
|β j |2 x 2
2 = 1, por lo que ε Ax − λx 2 > mín |λ j − λ|.
1≤ j≤n
j=1
1 1 1
, , . . ., ,
λ1 − q λ2 − q λn − q
n 1
βj v ( j)
y (m)
pm−1
j=1
(λ j − q)m pm−1
µ(m) = y (m)
pm−1 = =
1
,
x (m−1)
pm−1 n ( j)
j=1 j
β v p
(λ j − q)m−1 m−1
y(m)
x(m) = ,
y (m)
pm
donde, en cada paso, pm representa el entero más pequeño para el que |y (m)
pm | = ||y
(m)
||∞ . La
sucesión {µ (m)
1/(λk − q), donde
1 1
= máx
|λk − q| 1≤i≤n |λi − q|
Conociendo k
m
n
βk v (k)
pm−1 + j=1 βj λk −q
v (pj)
1 j=k
λ j −q m−1
µ(m) = .
λk − q m−1
n λk −q ( j)
βk v (k)
pm−1 + j=1 βj λ j −q
v pm−1
j=k
(A − q I )y(m) = x(m−1) .
En general, se usa la eliminación gaussiana con pivoteo pero, como en el caso de la factori-
zación LU, los multiplicadores se pueden guardar para reducir el cálculo. La selección de q
puede basarse en el teorema del círculo de Geršgorin o en otros medios de localización de
un eigenvalor.
q a partir de una aproximación inicial para el eigenvalor x(0)
mediante
x(0)t Ax(0)
q= .
x(0)t x(0)
xt Ax xt Ax
λ= = .
xt x x 22
Si q está cerca de un eigenvalor, la convergencia sería bastante rápida, pero se debería usar
eigenvalor q aproximado.
xt Ax
Paso 1 Determine q = .
xt x
Paso 2 Determine k = 1.
9.3 El método de potencia 441
La convergencia del método de potencia inversa es lineal, por lo que, de nuevo, el méto-
do !2
rápida convergencia del método de potencia inversa si q está cerca de un eigenvalor.
Ejemplo 3 Aplique el método de potencia inversa con x(0) = (1, 1, 1)t a la matriz
−4 14 0
x(0)t Ax(0) 19
A = −5 13 0 con q = (0)t (0) =
−1 0 2 x x 3
Solución -
tor inicial x(0) = (1, 1, 1)t . Éste nos dio el eigenvalor µ(12) = 6.000837 y el eigenvector
(x(12) )t = (1, 0.714316, −0.249895)t .
Para el método de potencia inversa, consideramos
31
− 3 14 0
A − q I = −5 20 3
0 .
−1 0 − 133
Con x(0) = (1, 1, 1)t , el método encuentra primero y(1) al resolver (A − q I )y(1) = x(0) . Esto
da
t
33 24 84
y(1) = − ,− , = (−6.6, −4.8, 1.292307692)t .
5 5 65
442 CAPÍTULO 9 Aproximación de eigenvalores
Por lo que
1 (1)
||y(1) ||∞ = 6.6, x(1) = y = (1, 0.7272727, −0.1958042)t ,
−6.6
1 19
µ(1) = − + = 6.1818182.
6.6 3
-
tados del método !2 de Aitkens aplicado a µ(m) . Estos son resultados claramente superiores
a los obtenidos con el método de potencia.
2m
λk − q
O .
λ−q
Métodos de deflación
Existen numerosas técnicas para obtener aproximaciones para los otros eigenvalores de una
matriz, una vez que se ha calculado una aproximación al eigenvalor dominante. Restringire-
mos nuestra presentación a las .
B, cuyos eigenva-
lores sean iguales a los de A, excepto que el eigenvalor dominante de A es reemplazado en
B
Teorema 9.20 Suponga que λ1 , λ2 , . . . , λn son eigenvalores de A con eigenvectores asociados v(1) , v(2) ,. . .
v(n) y λ1 tiene multiplicidad 1. Sea x un vector con xt v(1) = 1. Entonces la matriz
B = A − λ1 v(1) xt
para cada i = 2, 3, . . . , n.
9.3 El método de potencia 443
1
x= (ai1 , ai2 , . . . , ain )t ,
λ1 vi(1)
donde vi es una coordenada diferente de cero del eigenvector v(1) y los valores ai1 , ai2 , . . . , ain
(1)
1
xt v(1) = (λ1 vi(1) ) = 1.
λ1 vi(1)
Por lo tanto, x
la i-ésima B = A − λ1 v(1) xt contiene completamente entradas cero.
Si λ = 0 es un eigenvalor con un eigenvector asociado w, la relación Bw = λw implica
que la i-ésima coordenada de w también debe ser cero. Por consiguiente, la i-ésima columna
de la matriz B no contribuye al producto Bw = λw. Por lo tanto, la matriz B se puede reem-
plazar con una matriz B9 (n − 1) × (n − 1) obtenida al eliminar la i-ésima i-ésima
columna de B. La matriz B9 tiene eigenvalores λ2 , λ3 , . . . , λn .
Si |λ2 | > |λ3 |, el método de potencia se aplica nuevamente a la matriz B9 para determi-
nar este eigenvalor dominante y un eigenvector w(2) , asociado con λ2, respecto a la matriz
B9. Para encontrar el eigenvector asociado w(2) para la matriz B, inserte una coordinada cero
entre las coordenadas w i−1(2)
y w i(2) del vector (n 2 1) dimensional w(2) y, después, calcule
(2)
v
Ejemplo 4 La matriz
4 1
−1
A = −1 3 −2
1 −2 3
2
1 − 16 1
3 6
v(1) xt = −1 2
, − 16 , 1
= − 23 1
− 16 ,
3 6 6
1 2 1
−6 1
3 6
444 CAPÍTULO 9 Aproximación de eigenvalores
y
2
4 1 − 16 1
0 0 0
3 6
−1
B = A − λ1 v(1) xt = −1 3 −2 − 6 − 23 1
− 16 = 3 2 −1 .
6
1 −2 3 2
− 16 1 −3 −1 2
3 6
2 −1
B =
2
,
−1
-
te y el eigenvector asociado para una matriz, una vez que se ha determinado el eigenvalor
dominante y el eigenvector asociado.
Paso 3 Si i = 1 y i = n entonces
para k = i, . . . , n − 1
para j = 1, . . . , i − 1
vk+1
determine bk j = ak+1, j − ai j ;
vi
vj
b jk = a j,k+1 − ai,k+1 .
vi
Paso 4 Si i = n entonces
para k = i, . . . , n − 1
para j = i, . . . , n − 1
vk+1
determine bk j = ak+1, j+1 − ai, j+1 .
vi
Paso 5 Realice el método de potencia en la matriz (n − 1) × (n − 1) B = (bk j ) con x
como aproximación inicial.
Paso 6 Si el método falla, entonces SALIDA (‘El método falla’);
PARE.
si µ es el eigenvalor aproximado
w = (w 1 , . . . , w n−1 )t el eigenvector aproximado.
Paso 7 Si i = 1 entonces para k = 1, . . . , i − 1 determine w k = w k .
Paso 8 Determine w i = 0.
Paso 9 Si i = n entonces para k = i + 1, . . . , n determine w k = w k−1 .
Paso 10 Parak = 1, . . . , n
n
vk
determine u k = (µ − λ)w k + ai j w j .
j=1
vi
matriz similar que es casi diagonal. Las entradas diagonales de la matriz reducida son apro-
ximaciones para los eigenvalores de la matriz dada. En esta sección presentamos un método
concebido por Alston Householder para reducir una matriz simétrica arbitraria en una matriz
tridiagonal similar. A pesar de que existe una conexión entre los problemas que estamos resol-
viendo en estas dos secciones, el método de Householder tiene una aplicación tan amplia en
áreas diferentes a la aproximación de eigenvalores que merece un trato especial.
El método de Householder se usa para encontrar una matriz tridiagonal simétrica B
realizó investigaciones en
biología matemática antes de ser que es similar a una matriz simétrica A A es
similar a la matriz diagonal D, ya que existe una matriz ortogonal Q con la propiedad de
de Oak Ridge en Tennessee en que D = Q −1 AQ = Q t AQ. Puesto que, en general, la matriz Q (y por consiguiente, D)
es difícil de calcular, el método de Householder ofrece un compromiso. Después de haber
solución de sistemas lineales en
-
desarrollaron estos métodos.
resultante.
446 CAPÍTULO 9 Aproximación de eigenvalores
Transformaciones de Householder
Definición 9.21 Sea w ∈ Rn con wt w = 1. Entonces la matriz n 3 n
P = I − 2wwt
Demostración
P t = (I − 2wwt )t = I − 2wwt = P.
Además, wt w = 1, por lo que
y P −1 = P t = P.
El método de Householder comienza determinando una transformación P(1) tal que
A(2) = P (1) A P (1) tiene entradas ceros fuera de la primera columna de A, comenzando con la
j1 = 0,
a (2) para cada j = 3, 4, . . . , n.
P (1) = I − 2wwt
para satisfacer
P̂ = In−1 − 2ŵŵt .
9.4 Método de Householder 447
.
a11 1 .. 0 . . . . . . 0 a11
.
a21 . . . . . .. . . . . . . . . . . . . . . a11 a11 ----
0. ... ---- ----
α
a31
P
.. = . . · ŷ = P̂ ŷ = 0.
(1)
.. ..
..
..
. .
. . . P̂ .
0 ..
an1 0
con
α = a21 − 2r w 2
y
0 = a j1 − 2r w j , para cada j = 3, . . . , n.
Por lo tanto,
2r w 2 = a21 − α
2r w j = a j1 , para cada j = 3, . . . , n.
Al elevar al cuadrado ambos lados de cada una de las ecuaciones y sumar los términos
correspondientes da
n n
4r 2 w 2j = (a21 − α)2 + a 2j1 .
j=2 j=3
n
Puesto que wt w = 1 y w 1 = 0, tenemos j=2 w 2j = 1,
n
4r 2 = a 2j1 − 2αa21 + α 2 .
j=2
Por lo tanto,
n
α2 = a 2j1 ,
j=2
n
2r 2 = a 2j1 − αa21 .
j=2
448 CAPÍTULO 9 Aproximación de eigenvalores
α = −sgn(a21 ) a 2j1 ,
j=2
α = −sgn(a21 ) a 2j1 ,
j=2
1/2
1 2 1
r= α − a21 α ,
2 2
w 1 = 0,
a21 − α
w2 = ,
2r
y
a j1
wj = , por cada j = 3, . . . , n.
2r
a11
(2)
a12
(2)
0 0
···
a a22 a23 · · · a2n
(2) (2) (2)
(2)
21
A(2) = P (1) A P (1) 0 a32 a33 · · · a3n
= (2) (2) (2) .
. .. .. ..
.
. . . .
0 an2
(2)
an3
(2)
· · · ann
(2)
1/2
n
(k) 2
α = −sgn(ak+1,k ) (a (k)
jk ) ,
j=k+1
1/2
1 2 1 (k)
r= α − ααk+1,k ,
2 2
w 1(k) = w 2(k) = · · · = w k(k) = 0,
9.4 Método de Householder 449
ak+1,k
(k)
−α
w k+1
(k)
= ,
2r
a (k)
jk
w (k)
j = , para cada j = k + 2, k + 3, . . . , n,
2r
P (k) = I − 2w(k) · (w(k) )t ,
y
donde
a11 a (k+1). 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0.
... . . . . 12 . . . . . . . . . . . . . . .
(k+1)
.... ..
.... .
a21 .... .... .... ....... .
.. .......... .
(k+1)
....
....
0.. . . . . . . . . . . . 0 0
. .
.. . . . . . . . . . (k+1). . . . (k+1) . . . . (k+1) . . . . (k+1)
A(k+1) .. .... a ak+1,k+1 a ak+1,n
... . . . . k+1,k+2 ..
= . . . . k+1,k
.
.. .. .. . .... ..
..
0.. .. . . .... .
.. .. . . . . . . ...
.. ..
.
0 ................0 (k+1) . . . . . . . . . . . . . . . . . (k+1)
an,k+1 ann
4 1 2
−2
1 2 0 1
A=
0 3 −2
−2
2 1 −2 −1
1/2
4 1/2
1 1 √
α = −(1) a 2j1 = −3, r = (−3)2 − (1)(−3) = 6,
j=2
2 2
√ √ √
6 6 6
w = 0, ,− , ,
3 6 6
1 0 0 0 0
√ 2
0 1 0 0
−2 6 2
P (1) =
0 0 1 0 6 −1 · (0, 2, −1, 1)
0 0 0 1 1
450 CAPÍTULO 9 Aproximación de eigenvalores
1 0 0 0
0 −1 2
− 23
3 3
= ,
0 2 2 1
3 3 3
0 − 23 1
3
2
3
y
4 −3 0 0
10 4
−3
3
1 3
A(2) =
.
5
0 1 3
− 43
4
0 3
− 43 −1
1 0 0 0
0 1 0 0
P (2) =
0 0 − 35 − 45 ,
0 0 − 45 3
5
4 −3 0 0
10
−3
3
− 53 0
A (3)
=
0 − 53 − 33 68 .
25 75
68 149
0 0 75 75
Paso 3 Si ak+1,k
(k)
= 0 entonces determine α = −q 1/2
q 1/2 ak+1,k
(k)
si no determine α = − (k)
.
|ak+1,k |
Paso 4 Determine RSQ = α 2 − αak+1,k
(k)
. (Nota: RSQ = 2r 2 )
9.4 Método de Householder 451
1 1 (k) 1
Nota: u = A(k) v = A v = A(k) w.
RSQ 2r 2 r
n
Paso 7 Determine PROD = vi u i .
i=k+1
1 t (k)
Nota: PROD = vt u = v A v.
2r 2
PROD
Paso 8 Para j = k, k + 1, . . . , n determine z j = u j − vj.
2RSQ
1 1
Nota: z = u − vt uv = u − 2 vt uv
2RSQ 4r
1 1
= u − wwt u = A(k) w − wwt A(k) w.
r r
Paso 9 Para l = k + 1, k + 2, . . . , n − 1 haga los pasos 10 y 11.
(Nota: Calcule A (k+1) = A(k) − vzt − zvt = (I − 2wwt )A(k) (I − 2wwt ).)
Paso 10 Para j = l + 1, . . . , n determine
a (k+1)
jl = a (k)
jl − vl z j − v j z l ;
al(k+1)
j = a (k+1)
jl .
Paso 11 Determine all(k+1) = all(k) − 2vl zl .
Paso 12 Determine ann
(k+1)
= ann
(k)
− 2vn z n .
Paso 13 Para j = k + 2, . . . , n determine ak(k+1)
j = a (k+1)
jk = 0.
Paso 14 Determine ak+1,k
(k+1)
= ak+1,k
(k)
− vk+1 z k ;
ak,k+1
(k+1)
= ak+1,k
(k+1)
.
(Nota: Los otros elementos de A(k+1) son iguales a A(k) .)
Paso 15 SALIDA (A(n−1) );
(El proceso está completo. A (n−1) es simétrica, tridiagonal y similar a A .)
PARE.
A (n−1) no será tridiagonal a menos que la matriz original A sea simétrica, pero todas las
entradas debajo de la subdiagonal inferior serán 0. Una matriz de este tipo recibe el nombre
de Hessenberg superior. Es decir, H = (h i j ) es Hessenberg superior si h i j = 0, para toda
i ≥ j + 2.
452 CAPÍTULO 9 Aproximación de eigenvalores
n
1
Paso 6 Para j = 1, 2, . . . , n determine u j = a (k) vi ;
RSQ i=k+1 ji
n
1
yj = a (k) vi .
RSQ i=k+1 i j
PROD
Paso 8 Para j = 1, 2, . . . , n determine z j = u j − vj.
RSQ
Paso 9 Para l = k + 1, k + 2, . . . , n haga los pasos 10 y 11.
Paso 10 Para j = 1, 2, . . . , k determine a (k+1)
jl jl − z j vl ;
= a (k)
al(k+1)
j j − y j vl .
= al(k)
Paso 11 Para j = k + 1, . . . , n determine a (k+1)
jl jl − z j vl − yl v j .
= a (k)
9.5 El algoritmo QR
para calcular todos los eigenvalores de una matriz debido al crecimiento del error de redon-
deo. En esta sección consideramos el algoritmo QR, una técnica de reducción de matriz que
se usa para determinar en forma sistemática todos los eigenvalores de una matriz simétrica.
Para aplicar el método QR comenzamos con una matriz simétrica en forma diagonal; es
a1 b2 0 .. .. . . . . . . . . 0.
... ..
... .
b2 a2 b3 . . . . . . ...
...
.
0. . . b3 . . a3 . . . . . . 0
A=
.. . . . ... ...
.
.
.. ... ... . . . .b
. . .
.. ... ... ... n
.
0 . . . . . . . . . . .0
bn a n
Si ninguna b j
A = A(1) , A(2) , A(3) , . . . ,
t t
A(i+1) = R (i) Q (i) = (Q (i) A(i) )Q (i) = Q (i) A(i) Q (i) .
Esto garantiza que A(i1 es simétrica con los mismos eigenvalores que A(i). Por la manera en
Q(i) y R(i), también garantizamos que A(i1 es tridiagonal.
Al continuar mediante inducción, A(i1 tiene los mismos eigenvalores que la ma-
triz original A, y A(i1 tiende a la matriz diagonal con los eigenvalores de A a lo largo de
la diagonal.
Matrices de rotación
Para describir la construcción de las matrices de factorización Q(i) y R(i), necesitamos la
noción de matriz de rotación.
Ejemplo 1 Encuentre una matriz de rotación P con la propiedad de que P A tiene una entrada cero en la
A menudo éstas reciben el
nombre de rotaciones de Givens
3 1 0
porque James Wallace Givens
A = 1 3 1 .
0 1 3
Argonne.
Solución P es
El ángulo θ se selecciona de tal forma que −3 sen θ + cos θ = 0, es decir; de tal forma que
1
θ = . Por lo tanto,
3
√ √
3 10 10
cos θ = , sen θ =
10 10
y
√
3 10
√
10
√ 3
√ 1
√
0 3 1 0 10 10 10
10 10 5 10
√ √ √ √
0 1 3 1 = 0
PA = 4 3
− 1010 3 10 10 10 .
10 5 10
0 0 1 0 1 3 0 1 3
donde
b2 a1
sen θ2 = y cos θ2 = .
b22 + a12 b22 + a12
Esta selección da
−b2 a1 a 1 b2
(− sen θ2 )a1 + (cos θ2 )b2 = + =0
b22 + a12 b22 + a12
A(1)
2 = P2 A
(1)
z1 . . q r 0 .. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0.
... 1 ..... 1 .....
... ..
. . ... . ... ... ..
0 .. .... ... ... . ...
... ... ..
. . ... . ... . ... ..
0. . . . . . . . . . . .
... ... ... ..
.. . . . ... . . . . .
.. ... . .. ... ..
... 0 z k−1 qk−1 rk−1 . . . ..
.. ... . ... ..
.. ... 0. . . . . . ..
A(1) .. ... 0 xk yk
= ,
k
.. ... .. .. .
. . . bk+1 ak+1 bk+2 . . . . . 0
.. ... ... . . .
.. ... ... ..... .... ...
...
.. ... ... ...
... 0
.. ... ... ...
.. . ... .... . . .
. . . . . . . . . . bn
.. .. .. ...
0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 0 . .bn an
Ik−1 O O
donde 0 denota la matriz dimensional adecuada con todas las entradas cero.
ck+1 = cos θk+1 y sk+1 = sen θk+1 en Pk+1 se seleccionan de tal forma
que la entrada (k + 1, k) en A(1)
k+1 sea cero; es decir, −sk+1 x k + ck+1 bk+1 = 0.
2
Puesto que ck+1 2
+ sk+1 = 1, la solución de esta ecuación es
bk+1 xk
sk+1 = y ck+1 = ,
2
bk+1 + xk2 2
bk+1 + xk2
y A(1)
k+1 tiene la forma
z1 . . q1 . . r1 . . 0 .. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
... ... . . ..
. ... ..... ..... ..
0 ... .... .
... ..... ..... ...
... ..
... . . . ... ..
. .
0. . . ... ... . ... ... . ... ..
.. . . . .. . . . . . . ...
.. ... . ..
... 0 zk qk rk ... ..
.. ... ... ..
.. ... .
0. . . . . .
.
A(1) .. . . . 0 xk+1 yk+1 . . ..
=
...
.
k+1
.. ... ...
.. . . . bk+2 a . b . ... 0
. . . . . . . k+2
.. . . . k+3 ... .
. ... ... . . ... . ...
.. . . . 0
.
.. ... ... ... ...
... .. . . .
.. . . . . . . . . . . . bn
.. ... ... ...
0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0 . . bn . a n
456 CAPÍTULO 9 Aproximación de eigenvalores
z 1 . . q1 . . r1 . . 0 .... . . . . . . . . . 0.
.. .. ... ... ..
0. . . . . . . . . . ... ... .
. ... . . . . . . . . . ...
.
.. . . . . . . . . . .
... ... .... . 0 .
...
.
.
.. . . .
R ≡ An = . . ... . ... .... ...
(1) (1)
.
.. ... .. . r
. . . . . . . . . . . n−2
.. . . .
. . . z n−1 qn−1
.
.. ...
.
0 . . . . . . . . . . . . . . . . . . . . . . .. 0
xn
Q es ortogonal porque
(Q (1) )t Q (1) = (P2t P3t · · · Pnt )t (P2t P3t · · · Pnt ) = (Pn · · · P3 P2 ) · (P2t P3t · · · Pnt ) = I.
Además, Q es una matriz Hessenberg superior. Para observar porqué esto es verdad, puede
Por consiguiente, A(2) = R (1) Q (1) también es una matriz Hessenberg superior porque al
multiplicar Q a la izquierda de la matriz triangular superior R no se afectan las entradas
en el triángulo inferior. Ya sabemos que es simétrica, por lo que A es tridiagonal.
En general, las entradas fuera de la diagonal de A , serán de magnitud más pequeña que
las entradas correspondientes de A , por lo que A está más cerca de ser una matriz dia-
gonal que A . El proceso se repite para construir A(3) , A(4) , . . . hasta obtener convergencia
satisfactoria.
Ejemplo 2
3 1 0
A = 1 3 1 .
0 1 3
√
3 10
√
10 √ 3
√ √
10
0 3 1 0 10 10
10 10 5 10
√ √ √ √
A(1)
2 = P2 A − 1010 3 10
0 1 3 1 = 0 4 10 3 10
(1)
=
10 5 10
0 1 3
0 0 1 0 1 3
z1 q1 r1
≡ 0 x2 y2 .
0 b3(1) a3(1)
Al continuar, tenemos
b3(1) x2
s3 = = 0.36761 y c3 = = 0.92998,
x22 + (b3(1) )2 x22 + (b3(1) )2
9.5 El algoritmo QR 457
por lo que
√ 3
√ √
10
1 0 0 10 10
5 10
√ √
R (1) ≡ A(1)
3 = P3 A2
(1)
= 0 0.92998 0.36761 0 4 10 3 10
5 10
0 −0.36761 0.92998
0 1 3
√ √ √
10 35 10 10
10
= 0 2.7203 1.9851
0 0 2.4412
y
√ √
3 10 10
0 1 0 0
10
− 10
√ √
Q (1) = P2t P3t = 10 3 10
0 0 0.92998 −0.36761
10 10
0 0.36761 0.92998
0 0 1
0.94868 0.11625
−0.29409
= 0.31623 0.88226 −0.34874 .
0 0.36761 0.92998
Por consiguiente,
√ √ √
10 35 10 10 0.94868 0.11625
10
−0.29409
A(2) = R (1) Q (1) = 0 2.7203 1.9851 0.31623 0.88226 −0.34874
0 0 2.4412 0 −0.36761 0.92998
3.6 0.86024 0
A A ,
por lo que tenemos una reducción, pero no es considerable. Para disminuir por debajo de
4.4139 0.01941 0
É
aproximar al considerar la matriz reducida
4.4139 0.01941
0.01941 3.0003
.
Aceleración de la convergencia
Si los eigenvalores de A tienen diferentes módulos con |λ1 | > |λ2 | > · · · > |λn |, entonces la
velocidad de convergencia de la entrada b(i+1)
j+1 para 0 en la matriz A
(i1
depende de la razón
|λ j+1 /λ j | b j+1
(i+1)
para 0 determina la veloci-
dad a la que la entrada a (i+1)
j converge en el j-ésimo eigenvalor λ j . Por lo tanto, la velocidad
de convergencia puede ser lenta si |λ j+1 /λ j |
Para acelerar esta convergencia se usa una técnica de cambio similar a la que se usa
σ cerca del
eigenvalor de A Q(i) y
(i)
R de tal forma que
A(i) − σ I = Q (i) R (i) ,
458 CAPÍTULO 9 Aproximación de eigenvalores
b(i+1)
j+1 para 0 depende de la razón
|(λ j+1 − σ )/(λ j − σ )|.
original de convergencia de a (i+1)
j para λ j si σ está cerca de λ j+1, pero no cerca de λ j .
Cambiamos σ en cada paso, de tal forma que cuando A tiene eigenvalores de diferentes
módulos, bn(i+1) converge a 0 más rápido que b(i+1) j para cualquier entero j menor que n.
Cuando bn(i+1) λn ≈ an(i+1) , elimina las ené-
-
ximación a λn−1 .
eigenvalor.
i-ésimo paso, la constante de cambio σi, donde σi
es el eigenvalor de la matriz
an−1
(i)
bn(i)
E (i) =
bn(i) an(i)
que está más cerca de an(i) . Este cambio traduce los eigenvalores de A mediante un factor σi.
El método acumula estos cambios hasta que bn(i+1) ≈ 0 y, después, añade cambios a a (i+1)
j
para aproximar el eigenvalor λn.
Si A tiene eigenvalores del mismo módulo, b(i+1)
j quizá tienda a 0 para algunas j = n a
una velocidad más rápida que bn(i+1). En este caso, la técnica de división de matriz descrita
orden reducido.
3 1 0
a (1) b2(1) 0
1
A = 1 3 1 = b2 a2(1) b3(1) .
(1)
0 1 3 0 b3(1) a3(1)
a2(1) b3(1) 3 1
=
1 3
,
b3(1) a3(1)
d1 b2(1) 0 1 1 0
b2 d2 b3(1) = 1 1 1 .
(1)
0 b(1) d 0 1 1
3 3
por lo que
√ √ √
2
2 2
2
√
A(1)
2 = 0 0 2 .
0 1 1
Además,
√
2
z 2 = 1, c3 = 0, s3 = 1, q2 = 1, y x3 = − ,
2
por lo que
√ √ √
2
2 2
2
R (1) = A(1)
3 = 0 1 1 .
√
0 0 − 22
por lo que
√
2
2 0
2
√ √
A(2) = R (1) Q (1) = 2
1 2
2
− 2
.
√
2
0 − 2
0
√ √
b2(2) = 2/2 ni b3(2) = − 2/2 son peque-
ñas, por lo que se realiza
√ otra iteración del método QR. Para esta iteración, calculamos los
eigenvalores 12 ± 12 3 de la matriz
√
2
a2(2) b3(2) 1 − 2
= √
b3(2) a3(2) − 22 0
1 1
√
y seleccionamos σ2 = 2
− 2
3, el eigenvalor más cercano a a3(2) = 0. Al completar los
cálculos, obtenemos
2.6720277 0.37597448 0
Si b3(3) = 0.030396964 √ -
lor λ a3 (3) y los cambios σ1 + σ2 = 2 + (1 − 3)/2. Al borrar
2.6720277 0.37597448
A(3) =
0.37597448 1.4736080
,
λ1 ≈ 4.4141886 y λ2 ≈ 2.9993964.
A
ólo dos iteraciones.
460 CAPÍTULO 9 Aproximación de eigenvalores
ALGORITMO Método QR
9.6 Para obtener los eigenvalores de la matriz simétrica, tridiagonal n 3 n
Paso 1 Determine k = 1;
SHIFT = 0. (Cambio acumulado.)
Paso 2 Mientras k ≤ M haga los pasos 3–19.
Prueba de los pasos 3–7 para éxito.)
Paso 3 Si |bn(k) | ≤ TOL entonces determine λ = an(k) + SHIFT;
SALIDA (λ);
determine n = n − 1.
Paso 4 Si |b2(k) | ≤ TOL entonces determine λ = a1(k) + SHIFT;
SALIDA (λ);
determine n = n − 1;
a1(k) = a2(k) ;
para j = 2, . . . , n
determine a (k) j = a j+1 ;
(k)
b j = b j+1 .
(k) (k)
Paso 5 Si n = 0 entonces
PARE.
Paso 6 Si n = 1 entonces
determine λ = a1(k) + SHIFT;
SALIDA (λ);
PARE.
Paso 7 Para j = 3, . . . , n − 1
j | ≤ TOL entonces
si |b(k)
SALIDA (‘dividido en’, a1(k) , . . . , a (k)j−1 , b2 , . . . , b j−1 ,
(k) (k)
‘y’,
j , . . . , an , b j+1 , . . . , bn , SHIFT);
a (k) (k) (k) (k)
PARE.
Paso 8 (Calcule el cambio.)
Determine b = −(an−1(k)
+ an(k) );
2
c = an(k) an−1
(k)
− bn(k) ;
d = (b2 − 4c)1/2 .
9.5 El algoritmo QR 461
j+1 .
y j = c j b(k)
A(k)
j = P j A j−1 se acaba de calcular y R
(k) (k)
= A(k)
n .
Se puede usar un procedimiento similar para encontrar las aproximaciones para los
eigenvalores de una matriz simétrica n 3 n. Primero, la matriz se reduce a una matriz
Hessenberg superior similar mediante el algoritmo de Hessenberg para matrices no simétri-
462 CAPÍTULO 9 Aproximación de eigenvalores
Entonces H
y se factoriza en
-
trices simétricas. Es decir, las matrices se seleccionan para introducir ceros en las entradas
adecuadas de la matriz y se usa un procedimiento de cambio similar al del método QR. Sin
embargo, el cambio es, en cierta medida, complicado para las matrices no simétricas ya que
pueden presentarse eigenvalores complejos con el mismo módulo. El proceso de cambio mo-
donde σ y σ son conjugados complejos y H (1) , H (2) , . . . son matrices Hessenberg superior.
Es posible encontrar una descripción completa del método QR en los trabajos de Wil-
James Hardy Wilkinson
por su amplio trabajo sobre mayor frecuencia se proporcionan en [WR]. Remitimos al lector hacia estos trabajos si el
métodos numéricos para resolver método que hemos analizado no arroja resultados satisfactorios.
sistemas de ecuaciones lineales El método QR se puede realizar de forma que producirá los eigenvectores de una matriz,
y problemas de eigenvalor.
También desarrolló la técnica
-
de álgebra lineal numérica de sitan los eigenvectores de una matriz simétrica, así como los eigenvalores, sugerimos que se
análisis de error regresivo.
o una de las técnicas más poderosas mencionadas en [WR].
A = U S V t,
en la segunda mitad del siglo XX, cuando los algoritmos pudieron desarrollarse para su imple-
A m 3 n,
concretamente, la matriz A t A m 3 n y la matriz A A t.
A t A) ≤ A A t A) 5
A).
iii) A y A t A tienen n columnas y sus nulidades concuerdan, por lo que
resolver los sistemas lineales de la forma Ax 5 b cuando la matriz A se usa en forma repetida
para variar b. En esta sección consideraremos una técnica para factorizar una matriz general
m 3 n. Tiene aplicaciones en muchas áreas, incluyendo el ajuste de datos por mínimos cua-
drados, la compresión de imágenes, el procesamiento de señal y la estadística.
representadas por los eigenvalores para las matrices cuadradas. Una de las características
más importantes de la descomposición en valores singulares de una matriz general es que
permite una generalización de eigenvalores y eigenvectores en esta situación.
A m 3 n, donde m ≥ n,
en la forma
A = U S V t,
Figura 9.2
A U S
Vt
filas m
filas m
filas m
=
filas n
columnas n
columnas n columnas m columnas n
9.6 Descomposición en valores singulares 465
Construcción de S en la factorización A 5 U S V t
Construimos la matriz S al encontrar los eigenvalores de la matriz simétrica At A n 3 n. Estos
denotamos mediante
s1 0 · · · 0
.
0 s2 . . . ..
.. . . ..
0
. . .
S = 0 · · · 0 s n ,
0 ··· ··· 0
. ..
.. .
0 ··· ··· 0
Definición 9.27 valores singulares de una matriz A m 3 n son las raíces cuadradas positivas de los
eigenvalores diferentes de cero de la matriz simétrica At A n 3 n.
1 0 1
0 1 0
A= 0 1 1
.
0 1 0
1 1 0
Solución Tenemos
1 0 0 0 1 2 1 1
At = 0 1 1 1 1 , por lo que At A = 1 4 1 .
1 0 1 0 0 1 1 2
El polinomio característico de At A es
Construcción de V en la factorización A 5 U S V t
At A n 3 n
At A = V D V t ,
Construcción de U en la factorización A 5 U S V t
Para construir la matriz U m 3 m, primero consideramos los valores diferentes de
cero s1 ≥ s2 ≥ · · · ≥ sk > 0 y las columnas correspondientes en V determinadas por
v1 , v2 , . . . , vk .
1
ui = Avi , para i = 1, 2, . . . , k.
si
Por lo que, las primeras k columnas de U forman un conjunto ortonormal de vectores en Rm.
Sin embargo, necesitamos columnas adicionales m 2 k de U. Para esto, primero necesitamos
encontrar los vectores m 2 k que, cuando se añadan a los vectores a partir de las primeras k
columnas, nos darán un conjunto linealmente independiente. Entonces, podemos aplicar el
proceso Gram-Schmidt para obtener las columnas adicionales adecuadas.
U k 5 m y entonces sólo si todos los eigenvalores
de At A ólo necesitamos una matriz U de
este tipo.
A 5 U S Vt
A = U SV t , primero recorde-
mos que la transpuesta de una matriz ortogonal también es la inversa de la matriz (consulte
la parte (i
A = U SV t , podemos mostrar la declaración equivalente AV = U S.
9.6 Descomposición en valores singulares 467
AV = A [v1 v2 · · · vk vk+1 · · · vn ]
= [Av1 Av2 · · · Avk Avk+1 · · · Avn ]
= [s1 u1 s2 u2 · · · sk uk 0 · · · 0]
s1 0 ··· 0 0 ··· 0
.. .. .. .. ..
0
. . . . .
.. .. .. .. .. ..
. . . . . .
= [u1 u2 · · · uk 0 · · · 0] 0 = U S.
··· 0 sk 0 0
···
0 0 0 0
··· ··· ···
. .. .. ..
..
. . .
0 ··· ··· 0 0 ··· 0
1 0 1
0 1 0
A= 0 1 1 .
0 1 0
1 1 0
√ √
Solución A tiene valores singulares s1 = 5, s2 = 2,
ys 5
√
5 √0 0
0 2 0
S=
0 0 1
.
0 0 0
0 0 0
√ √
At A correspondientes a s1 = 5, s2 = 2, y s 5 -
vamente, (1, 2, 1)t , (1, −1, 1)t , y (−1, 0, 1)t (consulte el ejercicio 5). Al normalizar estos
vectores y usar los valores para las columnas V obtenemos
√ √ √ √ √ √
6 3
6 3
− 22 6
6
3
6
6
6
√ √ √ √ √
V = 6 3
0 y Vt = 3 3 3 .
√3 − √3 √
√3 − 3 √
3
6 3 2
6 3 2
− 22 0 2
2
Para determinar las dos columnas restantes de U primero necesitamos dos vectores x4 y
x5 por lo que {u1 , u2 , u3 , x4 , x5 } es un conjunto linealmente independiente. Entonces, apli-
camos el proceso Gram-Schmidt para obtener u4 y u5 de tal forma que {u , u , u , u4, u5}
es un conjunto ortogonal. Dos vectores que satisfacen el requisito de independencia lineal y
ortogonalidad son
1 0 1
0 1 0
A= 0 1 1
0 1 0
1 1 0
al determinar U a partir de los eigenvectores de A At.
9.6 Descomposición en valores singulares 469
Solución Tenemos
1 0 1 2 0 1 0 1
0 1 0 1 0 0 0 1 0 1 1 1 1
t
AA = 0 1 1 0 1 1 1 1 = 1 1 2 1 1
,
0 1 0 1 0 1 0 0 0 1 1 1 1
1 1 0 1 1 1 1 2
vt4 x5
v5 = x5 − v
vt4 v4
(1, 2, −1, 0, −1) · (0, 1, 0, −1, 0)t
= (0, 1, 0, −1, 0)t − (1, 2, −1, 0, −1)
||(1, 2, −1, 0, −1)t ||22
2 1
= (0, 1, 0, −1, 0)t − (1, 2, −1, 0, −1)t = − (2, −3, −2, 7, −2)t .
7 7
Esta es una U
A = U S V t usando las mismas S y V que en ese ejemplo.
medio alterno para encontrar los polinomios de mínimos cuadrados para ajustar datos. Sea A
una matriz m 3 n, con m . n, y b un vector en Rm. El objetivo de mínimos cuadrados es
encontrar un vector x en Rn que minimizará ||Ax − b||2 .
470 CAPÍTULO 9 Aproximación de eigenvalores
A = U S V t,
Sea z = V t x y c = U t b. Entonces
z con
ci , cuando i ≤ k,
z i = si
arbitrario, cuando k < i ≤ n.
Tabla 9.5
Solución
i xi yi
A, x y b. En el ejem-
1 0 1.0000
a0 , a1 y a2 con
2 0.25 1.2840
3 0.50 1.6487
P2 (x) = a0 + a1 x + a2 x 2 .
4 0.75 2.1170
5 1.00 2.7183
y0 1.0000
a0 y1 1.2840
x = a1 , b= y2 1.6487 y
= ,
a2 y3 2.1170
y4 2.7183
1 x0 x02 1 0 0
1 x1 x12 1 0.25 0.0625
A= 1 x2 x22 1 0.5 0.25
= .
1 x3 x32 1 0.75 0.5625
1 x4 x42 1 1 1
9.6 Descomposición en valores singulares 471
0.6314
−0.2945 −0.6327 −0.0143 −0.3378
−0.3466 −0.4550 −0.2104 0.2555 0.7505
U =
−0.4159 −0.1942 −0.5244 −0.6809 −0.2250 ,
−0.5025 0.1497 −0.3107 0.6524 −0.4505
−0.6063 0.5767 0.4308 −0.2127 0.2628
2.7117 0 0
0 0.9371 0
−0.7987 −0.4712 −0.3742
S= 0 0 0.1627 , y V t = −0.5929 0.5102 0.6231 .
0 0 0 0.1027 0.6869
−0.7195
0 0 0
Por lo que,
t
y0 0.6314 1
−0.2945 −0.6327 −0.0143 −0.3378
y1 −0.3466 −0.4550 −0.2104 0.2555 0.7505 1.284
c=U t
y2 1.6487
= −0.4159 −0.1942 −0.5244 −0.6809 −0.2250
y3 0.1497 0.6524 2.117
−0.5025 −0.3107 −0.4505
y4 −0.6063 0.5767 0.4308 −0.2127 0.2628 2.7183
−4.1372
0.3473
0.0099
=
,
−0.0059
0.0155
c1 −4.1372 c2 0.3473
z1 = = = −1.526, z2 = = = 0.3706, y
s1 2.7117 s2 0.9371
c3 0.0099
z3 = = = 0.0609.
s3 0.1627
P (x) como
a0 0.1027 1.005
−0.7987 −0.5929 −1.526
a1 = x = V z = −0.4712 0.5102 −0.7195 0.3706 = 0.8642 ,
a2 −0.3742 0.6231 0.6869 0.0609 0.8437
Otras aplicaciones
-
ciones es que nos permite obtener las características más importantes de una matriz m 3 n
que los valores singulares están en la diagonal de S en orden decreciente, retener solamente
k de S produce la mejor aproximación posible para la matriz A. Como
matriz A n 3 n.
472 CAPÍTULO 9 Aproximación de eigenvalores
Figura 9.3
A U S
Vt
filas m
filas m
filas m
=
filas n
columnas n
columnas n columnas m columnas n
Figura 9.4
Ak !a Uk Sk
Vk t
filas m
filas m
=
filas k
filas k
columnas n
columnas n columnas k columnas k
Ilustración
√ √ √
30 6 5
0 0
15 3 5 √
5 √0 0
√ √ √ √ √ √ √
30
− 66 0 5 2 6 6 6
15 5 2
0 2 0 6 3 6
√ √ √
√ √ √
30 2
t
A=U SV = 0 − 55 0 3
− 33 3
0 0 1
.
10 2
3 3
0 0 0
√ √ √ √
√ √
30 6 5 2
0
− − 2 − 22 0 2
15 6 5
0 0 0 2
√ √ √
30 2
0 − 55 0
10
− 2
9.6 Descomposición en valores singulares 473
Entonces
√ √ √ 1 0 1
30 30 30
6
√
3
√ √
6 0 1 0
S3 V3t = 6
− 36 6 y A3 = U3 S3 V3t = 0 1 1
.
3 3
0 1 0
√ √
− 22 0 2
2 1 1 0
Puesto que los cálculos en la ilustración se realizaron usando aritmética exacta, la matriz A
concuerda precisamente con la matriz original A. En general, se usaría la aritmética de dígi-
representen la verdadera imagen y que los más pequeños, los más cercanos a cero, sean las
contribuciones del ruido. Al realizar la descomposición en valores singulares que solamente
retiene esos valores singulares por encima de cierto umbral, podríamos ser capaces de eli-
minar la mayor parte del ruido y, en realidad, obtener una imagen que no sólo sea de menor
tamaño sino también una representación verdadera de la fotografía original. (Consulte [AP]
determinar el rango efectivo de una matriz y eliminar el ruido de la señal. Para más informa-
ción sobre este importante tema y una interpretación geométrica de la factorización, examine
eigenvector relacionado para cada eigenvalor. En general, las matrices no simétricas se equi-
son casi iguales. Entonces se aplica el método Householder para determinar una matriz Hes-
-
bién es posible aplicar la forma de Schur S DS t , donde S es ortogonal y la diagonal de D
mantiene los eigenvalores de A
determinados. Para una matriz simétrica se calcula una matriz tridiagonal similar. Entonces,
Existen rutinas especiales para encontrar todos los eigenvalores con un intervalo o una
región, o que sólo encuentran el eigenvalor más grande o más pequeño. También existen
subrutinas para determinar la precisión de la aproximación del eigenvalor y la sensibilidad
del proceso al error de redondeo.
gran dispersión que también está basado en el método Arnoldi implícitamente reiniciado. El
-
eigenvalores.
Las secciones Preguntas de análisis, Conceptos clave y Revisión del capítulo están dis-
ponibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
CAPÍTULO
Introducción
La cantidad de presión requerida para hundir un objeto grande y pesado en un suelo homo-
géneo y blando que se encuentra sobre tierra de base dura se puede predecir por medio de la
cantidad de presión requerida para hundir objetos más pequeños en la misma tierra. Espe-
cialmente, la cantidad de presión p para hundir una placa circular de radio r a una distancia d
en tierra blanda, donde la tierra de base dura se encuentra a una distancia D . d por debajo
p = k1 ek2 r + k3r,
donde k1 , k2 y k3 son constantes, dependiendo de d y de la consistencia del suelo pero no
del radio de la placa.
la placa requerido para mantener una carga grande. Se registran las cargas necesarias para
m3
m2
m1
r1
r2
r3
m 1 = k 1 e k2 r1 + k 3 r 1 ,
m 2 = k 1 e k2 r2 + k 3 r 2 y
m 3 = k 1 e k2 r3 + k 3 r 3 .
475
476 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
-
carán cuando el problema de una sola variable sea reemplazado por un problema vectorial
que incluye todas las variables.
La sección 10.4 describe el método de descenso más rápido. Sólo es linealmente conver-
-
cia general para este material es el libro de Ortega titulado Numerical Analysis–A Second
Course (Análisis numérico – Un segundo curso
es [OR].
f 1 (x1 , x2 , . . . , xn ) = 0,
f 2 (x1 , x2 , . . . , xn ) = 0,
.. .. (10.1)
. .
f n (x1 , x2 , . . . , xn ) = 0,
F(x) = 0. (10.2)
Figura 10.1
z
z 5 f 2(x1, x 2 )
z 5 f 1(x1, x 2 )
x2
f 1(x1, x 2 ) 5 0 y f 2(x1, x2 ) 5 0
x1
1
f 1 (x1 , x2 , x3 ) = 3x1 − cos(x2 x3 ) − ,
2
f 2 (x1 , x2 , x3 ) = x12 − 81(x2 + 0.1)2 + sen x3 + 1.06 y
10π − 3
f 3 (x1 , x2 , x3 ) = e−x1 x2 + 20x3 + .
3
F desde R3 → R3 mediante
F(x) = F(x1 , x2 , x3 )
= ( f 1 (x1 , x2 , x3 ), f 2 (x1 , x2 , x3 ), f 3 (x1 , x2 , x3 ))t
1
= 3x1 − cos(x2 x3 ) − , x12 − 81(x2 + 0.1)2
2
t
10π − 3
+ sen x3 + 1.06, e−x1 x2 + 20x3 + .
3
desde Rn hasta Rn
el ejercicio 14), usamos un método alternativo que nos permite representar teóricamente los
Rn hasta R.
478 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
lím f (x) = L ,
x→x0
| f (x) − L| < ε,
siempre que x ∈ D, y
se usa, como se analizó en la sección 7.1. Cualquier norma conveniente se puede usar para
δ dependerá de la norma
δ es independiente de la norma.
Rn
hasta R. Aunque es posible usar varias normas, la continuidad es independiente de la se-
lección particular.
lím F(x) = L = (L 1 , L 2 , . . . , L n )t ,
x→x0
-
n variables en un
10.1 Puntos fijos para funciones de varias variables 479
∂ f (x)
≤ K, para cada j = 1, 2, . . . , n.
∂x j
Puntos fijos en Rn
f (x) 5 0, al
x 5 g(x). Se investigará un proceso
Rn hasta Rn.
n
demostración se puede encontrar en [Or2], p. 153.
∂gi (x) K
≤ , siempre que x ∈ D,
∂x j n
para cada j = 1, 2, . . . , n gi
(0)
{x(k) }∞
k=0 x seleccionada arbitrariamente en D y generada por medio de
p∈ Dy
Kk
x(k) − p ≤ x(1) − x(0) . (10.3)
∞ 1−K ∞
1
3x1 − cos(x2 x3 ) − = 0,
2
x12 − 81(x2 + 0.1)2 + sen x3 + 1.06 = 0, y
10π − 3
e−x1 x2 + 20x3 + =0
3
e itere a partir de x(0) = (0.1, 0.1, −0.1)t hasta una precisión dentro de 1025 en la norma l∞
obtenida.
480 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
1 1
x1 = cos(x2 x3 ) + ,
3 6
1
x2 = x12 + sen x3 + 1.06 − 0.1, (10.4)
9
1 10π − 3
x3 = − e−x1 x2 − .
20 60
1 1
g1 (x1 , x2 , x3 ) = cos(x2 x3 ) + ,
3 6
1
g2 (x1 , x2 , x3 ) = x12 + sen x3 + 1.06 − 0.1,
9
1 10π − 3
g3 (x1 , x2 , x3 ) = − e−x1 x2 − .
20 60
G
Para x = (x1 , x2 , x3 )t en D,
1 1
|g1 (x1 , x2 , x3 )| ≤ | cos(x2 x3 )| + ≤ 0.50,
3 6
1 1√
|g2 (x1 , x2 , x3 )| = x12 + sen x3 + 1.06 − 0.1 ≤ 1 + sen 1+ 1.06 − 0.1 < 0.09,
9 9
−1 ≤ gi (x1 , x2 , x3 ) ≤ 1.
∂g1 1 1 ∂g1 1 1
≤ |x3 | · | sen x2 x3 | ≤ sen 1 < 0.281, ≤ |x2 | · | sen x2 x3 | ≤ sen 1 < 0.281,
∂ x2 3 3 ∂ x3 3 3
∂g2 |x1 | 1
= < √ < 0.238,
∂ x1 9 x12 + sen x3 + 1.06 9 0.218
∂g2 | cos x3 | 1
= < √ < 0.119,
∂ x3 18 x12 + sen x3 + 1.06 18 0.218
∂g3 |x2 | −x1 x2 1 ∂g3 |x1 | −x1 x2 1
= e ≤ e < 0.14, y = e ≤ e < 0.14.
∂ x1 20 20 ∂ x2 20 20
10.1 Puntos fijos para funciones de varias variables 481
∂gi (x)
≤ 0.281, para cada i = 1, 2, 3 y j = 1, 2, 3,
∂x j
K = 3(0.281) = 0.843.
∂gi /∂ x j es continua en D para cada
i = 1, 2, 3 y j = 1, 2, 3. (Esto se considera en el ejercicio 13.) Por consiguiente, G tiene
D y el sistema no lineal tiene una solución en D.
Observe que G D, y esto no implica que la solución para el
sistema original sea la única en este dominio porque la solución para x2 en la ecuación (10.4)
1 1
x1(k) = cos x2(k−1) x3(k−1) + ,
3 6
1 2
x2(k) = x1(k−1) + sen x 3(k−1) + 1.06 − 0.1, y
9
1 −x (k−1) x (k−1) 10π − 3
x3(k) = − e 1 2 −
20 60
converge con la solución única del sistema en la ecuación (10.4) Los resultados en la tabla
10.1 se generaron hasta que
x(k) − x(k−1) ∞
< 10−5 .
(0.843)5
x(5) − p ≤ (0.423) < 1.15,
1 − 0.843
∞
π t
p = 0.5, 0, − ≈ (0.5, 0, −0.5235987757)t , por lo que x(5) − p ≤ 2 × 10−8 .
6
∞
482 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
Aceleración de la convergencia
Gauss-Siedel para los sistemas lineales. Entonces, las ecuaciones del componente para el
problema en el ejemplo se convierten en
1 1
x1(k) = cos x2(k−1) x3(k−1) + ,
3 6
1 2
x2(k) = x1(k) + sen x3(k−1) + 1.06 − 0.1, y
9
1 −x (k) x (k) 10π − 3
x3(k) = − e 1 2 − .
20 60
Con x(0) = (0.1, 0.1, −0.1)t , los resultados de estos cálculos se muestran en la tabla 10.2
La iteración x(4) es precisa dentro de 1027 en la norma l∞; por lo que la convergencia
estaba, de hecho, acelerada para este problema al usar el método de Gauss-Siedel. Sin em-
bargo, este método no siempre acelera la convergencia.
convergente al resolver algebraicamente las tres ecuaciones para las tres variables x1 , x2
y x3 .
-
donde cada una de las entradas ai j (x) Rn a R. Esto requiere encontrar A(x)
n 2 M (k−1) 2
x(k) − p ≤ x −p ∞, para cada k ≥ 1.
2
∞
n
∂fj
∂bi j
1− bi j (x) (x) + (x) f j (x) , si i = k,
∂ xk ∂ xk
j=1
∂gi
(x) =
∂ xk n
∂fj ∂bi j
bi j (x) (x) f j (x) , si i = k.
− (x) +
∂ xk ∂ xk
j=1
n
∂fj
0=1− bi j (p) (p),
j=1
∂ xi
es decir,
n
∂fj
bi j (p) (p) = 1.
j=1
∂ xi
Cuando k = i,
n
∂fj
0=− bi j (p) (p),
j=1
∂ xk
484 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
La matriz jacobiana
J (x) mediante
∂f ∂ f1 ∂ f1
1
(x) (x) ··· (x)
∂ x1 ∂ x2 ∂ xn
∂ f2 ∂ f2 ∂ f2
(x) (x) ··· (x)
J (x) = ∂ x1 ∂ x2 ∂ xn
. (10.8)
. .. ..
.. . .
∂f ∂ fn ∂ fn
n
(x) (x) ··· (x)
∂ x1 ∂ x2 ∂ xn
Una selección adecuada para A(x) es, por consiguiente, A(x) = J (x) ya que é
G
ENTRADA número n
x = (x1 , . . . , xn )t , tolerancia TOL N.
SALIDA x = (x1 , . . . , xn )t
el número de iteraciones.
10.2 Método de Newton 485
Paso 1 Determine k = 1.
Paso 2 Mientras (k ≤ N ) haga los pasos 3–7.
Paso 3 Calcule F(x) y J (x), donde J (x)i, j = (∂ f i (x)/∂ x j ) para 1≤ i, j ≤ n.
Paso 4 Resuelva el sistema lineal n × n J (x)y = −F(x).
Paso 5 Determine x = x + y.
Paso 6 Si ||y|| < TOL entonces SALIDA (x);
(El procedimiento fue exitoso.)
PARE.
Paso 7 Determine k = k + 1.
Paso 8 SALIDA (‘Número máximo de iteraciones excedido’);
(El procedimiento no fue exitoso.)
PARE.
1
3x1 − cos(x2 x3 ) − = 0,
2
x12 − 81(x2 + 0.1)2 + sen x3 + 1.06 = 0, y
10π − 3
e−x1 x2 + 20x3 + =0
3
Solución
y
10π − 3
f 3 (x1 , x2 , x3 ) = e−x1 x2 + 20x3 + .
3
3 x3 sen x2 x3 x2 sen x2 x3
−0.09900498337 −0.09900498337 20
486 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
0.3998696728 0.4998696782
x1 x1 y1
(k) (k−1) (k−1)
x2 = x2 + y2
(k) (k−1) (k−1)
,
x3(k) x3(k−1) y3(k−1)
donde
y1(k−1)
−1
y2 = − J x1
(k−1)
, x2(k−1) , x3(k−1) F x1(k−1) , x2(k−1) , x3(k−1) .
(k−1)
y3(k−1)
Por lo tanto, en el k-ésimo paso, el sistema lineal J x(k−1) y(k−1) = −F x(k−1) se debe
resolver, donde
y1
(k−1)
y(k−1) = y2
(k−1)
,
y3(k−1)
1
3x1(k−1) − cos x2(k−1) x3(k−1) −
2
2 2
F x(k−1) = x1(k−1) − 81 x2(k−1) + 0.1 + sen x3(k−1) + 1.06 .
10π −3
e−x1 x2
+ 20x3
(k−1) (k−1) (k−1)
+ 3
Los resultados por medio del procedimiento iterativo se muestran en la tabla 10.3.
vuelto más tratable con el uso generalizado de los sistemas computacionales simbólicos,
como Maple, Mathematica y Matlab.
x(i+1) − p
lím = 0,
i→∞ x(i) − p
f (x1 ) − f (x0 )
f (x1 ) ≈
x1 − x0
t
A1 z = J (x(0) )z, siempre que x(1) − x(0) z = 0. (10.12)
Si los métodos se realizan de acuerdo con lo descrito en las ecuaciones (10.13) y (10.14),
n2 1 n hasta n (las re-
queridas para evaluar F x ),(i) 3
O(n ) cálculos para resolver el
sistema lineal n 3 n (consulte el paso 4 en el algoritmo 10.1)
Ai si+1 = −F x(i) . (10.15)
10.3 Métodos cuasi-Newton 489
Fórmula Sherman-Morrison
de matriz de Sherman y Morrison (consulte, por ejemplo, [DM], p. 55). La prueba de esta
yi − Ai−1 si t −1
Ai−1 = Ai−1 + si
||si ||22
yi −Ai−1 si t
Ai−1
−1
||si ||22
si Ai−1
−1
= Ai−1
−1
−
yi − Ai−1 si
1 + sit Ai−1
−1
||si ||22
Ai−1
−1
yi − si sit Ai−1
−1
= Ai−1
−1
− ,
||si ||22 + sit Ai−1
−1
yi − ||si ||22
por lo que
si − Ai−1
−1
yi sit Ai−1
−1
Ai−1 = Ai−1
−1
+ .
sit Ai−1
−1
yi
Este cálculo sólo implica multiplicaciones matriz-vector en cada paso y, por lo tanto,
solamente requiere O (n2) cálculos aritméticos. Se evita el cálculo de Ai, al igual que la nece-
sidad de resolver el sistema lineal (10.15).
Paso 8 Determine ut = st A.
Paso 9 Determine A = A + 1p (s + z)ut . (Nota: A = A−1
k .)
1
3x1 − cos(x2 x3 ) − = 0,
2
x12 − 81(x2 + 0.1)2 + sen x3 + 1.06 = 0,
10π − 3
e−x1 x2 + 20x3 + = 0.
3
Solución
sección 10.2. La matriz jacobiana para este sistema es
3 x3 sen x2 x3 x2 sen x2 x3
donde
1
f 1 (x1 , x2 , x3 ) = 3x1 − cos(x2 x3 ) − ,
2
f 2 (x1 , x2 , x3 ) = x12 − 81(x2 + 0.1)2 + sen x3 + 1.06,
10π − 3
f 3 (x1 , x2 , x3 ) = e−x1 x2 + 20x3 + .
3
Entonces
−1.199950
F x(0) = −2.269833 .
8.462025
Puesto que
tenemos
−1
A−1
0 = J x1 , x2 , x3
(0) (0) (0)
Por lo tanto
0.4998697
F x(1) = −0.3443879 ,
3.188238 × 10−2
1.199611
s1 = −8.053315 × 10−2 ,
−0.4215204
0 y1 = 0.3424604,
st1 A−1
1 = A0 + (1/0.3424604) s1 − A0 y1 s1 A0
t −1
A−1 −1 −1
0.4999863
Las iteraciones adicionales se listan en la tabla 10.4. La quinta iteración del método de
3 0.5000066 8.672157 × 10 −4
−0.5236918 7.88 × 10 −3
-
seña y comparación de algunos métodos de este tipo que se usan de manera común puede
-
método
inicial precisa a la solución para garantizar la convergencia. El método de descenso más
rápido que se considera en esta sección sólo converge linealmente para la solución, pero
sola ecuación.
El nombre del método de -
descenso más rápido sigue
de la aplicación tridimensional de g : Rn → R. El método es valioso más allá de la aplicación como método
señalamiento en la dirección de inicio para resolver sistemas no lineales. (En los ejercicios se consideran algunas otras
descendente más rápida. aplicaciones.)
Rn a R y la solución de un sistema
f 1 (x1 , x2 , . . . , xn ) = 0,
f 2 (x1 , x2 , . . . , xn ) = 0,
.. ..
. .
f n (x1 , x2 , . . . , xn ) = 0,
10.4 Técnicas de descenso más rápido 493
2. Determine una dirección desde x(0) que resulte en un decremento del valor de g.
3. Mueva una cantidad adecuada en esta dirección y llame al nuevo valor x(1).
1
Dv g(x) = lím [g(x + hv) − g(x)] = vt · ∇g(x).
h→0 h
Cuando g -
reccional se presenta cuando se selecciona v ∇g(x), siempre y cuando
∇g(x) = 0. Por consiguiente, la dirección del mayor decremento en el valor de g en x es la
dirección dada por −∇g(x). g
dos variables.
494 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
Figura 10.2
z
z 5 g(x1, x 2 )
( x1, x 2, g(x1, x 2 ))
x 5 (x1, x 2 ) t x2
x1
2=g(x)
El objetivo es reducir g (x -
cuada para x(1) es apartarse de x(0) en la dirección que proporciona el mayor descenso en el
valor de g (x). Por lo tanto, hacemos
Puesto que g (x(0)) está disponible, para minimizar el cálculo, primero seleccionamos α1 5 0.
A continuación se encuentra un número α3 con h(α3 ) < h(α1 ). (Puesto que α1 no minimiza
h, este número α3 α2 que será α3 /2.
P en [α1, α3 P o en el
α3 porque, por suposición, P(α3 ) = h(α3 ) < h(α1 ) = P(α1 ). Puesto que
P (x
lineal.
10.4 Técnicas de descenso más rápido 495
Ejemplo 1 Utilice el método de descenso más rápido con x(0) = (0, 0, 0)t -
ción inicial razonable para la solución del sistema no lineal
1
f 1 (x1 , x2 , x3 ) = 3x1 − cos(x2 x3 ) − = 0,
2
f 2 (x1 , x2 , x3 ) = x12 − 81(x2 + 0.1)2 + sen x3 + 1.06 = 0,
10π − 3
f 3 (x1 , x2 , x3 ) = e−x1 x2 + 20x3 + = 0.
3
Sea
1
z= ∇g x(0) = (−0.0214514, −0.0193062, 0.999583)t .
z0
g3 = g x(0) − α3 z = 93.5649.
g2 = g x(0) − α2 z = 2.53557.
Ahora, encontramos el polinomio cuadrático que interpola los datos (0, 111.975),
P(α) = g1 + h 1 α + h 3 α(α − α2 ).
Esto interpola
α1 = 0, g1 = 111.975,
g2 − g1
α2 = 0.5, g2 = 2.53557, h1 = = −218.878,
α2 − α 1
g3 − g2 h2 − h1
α3 = 1, g3 = 93.5649, h2 = = 182.059, h3 = = 400.937.
α3 − α 2 α3 − α1
496 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
Por lo tanto,
La tabla 10.5 contiene el resto de los resultados. La verdadera solución para el sistema no
lineal es (0.5, 0, 20.5235988)t, por lo que x(2)
-
del método de descenso más rápido para encontrar x(k) − x ∞ < 0.01.
g (x). Para comenzar una iteración, el valor 0 se asigna a α1, y el valor 1 se asigna
a α3. Si h(α3 ) ≥ h(α1 ), entonces se realizan las divisiones sucesivas de α3 entre 2 y el valor
de α3 se reasigna hasta que h(α3 ) < h(α1 ) y α3 = 2−k para algún valor de k.
f 1 (x1 , x2 , . . . , xn ) = 0,
f 2 (x1 , x2 , . . . , xn ) = 0,
.. ..
. .
f n (x1 , x2 , . . . , xn ) = 0,
n
g con i=1 f i2 .
x:
SALIDA x = (x1 , . . . , xn )t
10.4 Técnicas de descenso más rápido 497
Paso 1 Determine k = 1.
Paso 2 Mientras (k ≤ N ) haga los pasos 3–15.
Paso 3 Determine g1 = g(x1 , . . . , xn ); Nota: g1 = g x(k) .
z = ∇g(x1 , . . . , xn ); Nota: z = ∇g x(k) .
z 0 = ||z||2 .
Paso 4 Si z 0 = 0 entonces SALIDA (‘gradiente cero’);
SALIDA ( x1 , . . . , xn , g1 );
(Procedimiento completo, puede tener un mínimo.)
PARE.
Paso 5 Determine z = z/z 0 ; (Convierta z en vector unidad.)
α1 = 0;
α3 = 1;
g3 = g(x − α3 z).
Paso 6 Mientras (g3 ≥ g1 ) haga los pasos 7 y 8.
Paso 7 Determine α3 = α3 /2;
g3 = g(x − α3 z).
Paso 8 Si α3 < TOL/2 entonces
SALIDA (‘Sin probable mejora);
SALIDA (x1 , . . . , xn , g1 );
(Procedimiento completado, puede tener un mínimo.)
PARE.
Paso 9 Determine α2 = α3 /2;
g2 = g(x − α2 z).
Paso 10 Determine h 1 = (g2 − g1 )/α2 ;
h 2 = (g3 − g2 )/(α3 − α2 );
h 3 = (h 2 − h 1 )/α3 .
(Nota: La fórmula de diferencias divididas hacia adelante de Newton
se usa para encontrar P (α) = g1 + h 1 α + h 3 α(α − α2 ) la
cuadrática que interpola h(α) en α = 0, α = α2 , α = α3 .)
Paso 11 Determine α0 = 0.5(α2 − h 1 / h 3 ); (El punto crítico de P se presenta en α0 .)
g0 = g(x − α0 z).
Paso 12 Encuentre α de {α0 , α3 } de modo que g = g(x − αz) = mín{g0 , g3 }.
Paso 13 Determine x = x − αz.
Paso 14 Si |g − g1 | < TOL entonces
SALIDA (x1 , . . . , xn , g);
(El procedimiento fue exitoso.)
PARE.
Paso 15 Determine k = k + 1.
Paso 16 SALIDA (‘iteraciones máximas excedidas’);
(El procedimiento no fue exitoso.)
PARE.
498 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
-
ción inicial. En algunos casos, sin embargo, los métodos pueden converger en algo más que
Un análisis más completo de los métodos de descenso más rápido se puede encontrar en
[OR] o [RR].
F(x) = 0,
que posee la solución desconocida x∗
usando un parámetro λ que supone valores en [0, 1]. Un problema con una solución conoci-
da x(0) corresponde a la situación cuando λ 5 0 y el problema con la solución desconocida
x(1) ≡ x∗ corresponde a λ 5 1.
Por ejemplo suponga que x F(x∗ ) = 0.
real continuamente en un
G : [0, 1] × Rn → Rn
mediante
G(λ, x) = 0.
Cuando λ 5
0 = G(1, x) = F(x),
Método de continuación
El problema de continuación es:
para cada λ ∈ [0, 1]. El conjunto { x(λ) | 0 ≤ λ ≤ 1 } se puede observar como una
curva en Rn desde x(0) hasta x(1) = x∗ parametrizada por λ. Un método de conti-
nuación encuentra una sucesión de pasos a lo largo de esta curva correspondiente a
k=0 , donde λ0 = 0 < λ1 < · · · < λm = 1.
{x(λk )}m
λ → x(λ) y G
respecto a λ nos da
∂G(λ, x(λ)) −1
∂G(λ, x(λ))
x (λ) = − .
∂x ∂λ
x(0).
Puesto que
∂G(λ, x(λ))
= F(x(0)).
∂λ
G(λ, x(λ)) = 0,
500 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
La matriz jacobiana es
3 x3 sen x2 x3 x2 sen x2 x3
d x1
= φ1 (λ, x1 , x2 , . . . , xn ),
dλ
d x2
= φ2 (λ, x1 , x2 , . . . , xn ),
dλ
..
.
d xn
= φn (λ, x1 , x2 , . . . , xn ),
dλ
donde
φ1 (λ, x1 , . . . , xn ) f 1 (x(0))
φ2 (λ, x1 , . . . , xn ) f 2 (x(0))
= −J (x1 , . . . , xn )−1
..
.. .
(10.22)
. .
φn (λ, x1 , . . . , xn ) f n (x(0))
λ j = j h, para cada j = 0, 1, . . . , N .
10.5 Homotopía y métodos de continuación 501
1
w i, j+1 = w i, j + k1,i + 2k2,i + 2k3,i + k4,i , para cada i = 1, 2, . . . , n.
6
La notación de vector
φ1 (λ j , w 1, j , . . . , w n, j )
φ2 (λ j , w 1, j , . . . , w n, j )
k1 = h = h −J (w 1, j , . . . , w n, j ) F(x(0))
−1
..
.
φn (λ j , w 1, j , . . . , w n, j )
= h −J (w j ) F(x(0)),
−1
1 −1
k2 = h −J w j + k1 F(x(0)),
2
1 −1
k3 = h −J w j + k2 F(x(0)),
2
k4 = h −J w j + k3 F(x(0)),
−1
1 1
x(λ j+1 ) = x(λ j ) + (k1 + 2k2 + 2k3 + k4 ) = w j + (k1 + 2k2 + 2k3 + k4 ) .
6 6
x(λn ) = x(1) x∗ .
502 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
3 x3 sen x2 x3 x2 sen x2 x3
3 0 0
−1
−1.5
k1 = h[−J (x(0) )]−1 F(x(0)) = 0.25 0 −16.2 1 0.25
0 0 20 10π/3
= (0.125, −0.004222203325, −0.1308996939)t ,
k2 = h[−J (0.0625, −0.002111101663, −0.06544984695)]−1 (−1.5, 0.25, 10π/3)t
3 −0.9043289149 × 10−5 −0.2916936196 × 10−6
−1
−1.5
= 0.25 0.125 −15.85800153 0.9978589232 0.25
0.002111380229 −0.06250824706 20 10π/3
Al continuar, tenemos
Estos resultados son muy precisos porque la solución real es (0.5, 0, −0.52359877)t .
10.5 Homotopía y métodos de continuación 503
wj requiere resolver
cuatro sistemas lineales, cada uno al calcular k1 , k2 , k3 y k4 . Por lo tanto, para usar N pasos
se requiere resolver 4N
resolver un sistema lineal por iteración. Por tanto, el trabajo relacionado con el método de
N
-
lineales que se tienen que resolver. Otra posibilidad es usar valores más pequeños de N. Lo
siguiente ilustra estas ideas.
Ilustración
-
mación inicial x(0) 5 (0, 0, 0)t. La columna a la derecha en la tabla enumera el número de
sistemas lineales que se requieren para la solución.
Tabla 10.6
Método N x(1) Sistemas
Euler 1 (0.5, −0.0168888133, −0.5235987755) t
1
Euler 4 (0.499999379, −0.004309160698, −0.523679652)t 4
Punto medio 1 (0.4999966628, −0.00040240435, −0.523815371)t 2
Punto medio 4 (0.500000066, −0.00001760089, −0.5236127761)t 8
Runge-Kutta 1 (0.4999989843, −0.1676151 × 10−5 , −0.5235989561)t 4
Runge-Kutta 4 (0.4999999954, 0.126782 × 10−7 , −0.5235987758)t 16
ser mejores para este objetivo que los métodos de continuación, lo cual requiere más cálcu-
los. El algoritmo 10.4 es una implementación del método de continuación.
SALIDA x = (x1 , x2 , . . . , xn )t .
Paso 1 Determine h = 1/N ;
b = −hF(x).
Paso 2 Para i = 1, 2, . . . , N haga los pasos 3–7.
504 CAPÍTULO 10 Soluciones numéricas de sistemas de ecuaciones no lineales
Los sistemas no lineales en las bibliotecas IMSL y NAG usan el método Levenberg-
más rápido. El peso se sesga hacia el método de descenso más rápido hasta que se detecta
Las secciones Preguntas de análisis, Conceptos clave y Revisión del capítulo están dis-
ponibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
CAPÍTULO
Introducción
-
S S
0 l x
w(x)
l, q, E, S e I -
d 2w S qx
(x) = w(x) + (x − l),
dx2 EI 2E I
donde w (x x
-
w(0) = 0 y w(l) = 0.
EI
inercia I x,
-
valor en
la frontera
505
506 CAPÍTULO 11 Problemas de valor en la frontera para ecuaciones diferenciales ordinarias
y = f (x, y, y ), para a ≤ x ≤ b,
y(a) = α y y(b) = β.
Teorema 11.1 f
fy y fy D
i) f y (x, y, y ) > 0, (x, y, y ) ∈ D,
ii) M
f y (x, y, y ) ≤ M, (x, y, y ) ∈ D,
Ejemplo 1
Solución
y = f (x, y, y )
p (x q (x r (x
y f (x, y, y ) = p(x)y + q(x)y + r (x).
Corolario 11.2
i) p (x q (x r (x a b
ii) q (x) . a b
y1 (x) y2 (x) -
y2 (b) = 0. y2 (b) = 0
β − y1 (b)
y(x) = y1 (x) + y2 (x).
y2 (b)
y (x -
β − y1 (b)
y (x) = y1 (x) + y2 (x)
y2 (b)
y
β − y1 (b)
y (x) = y1 (x) + y2 (x).
y2 (b)
y1 (x) y2 (x)
β − y1 (b)
y = p(x)y1 + q(x)y1 + r (x) + p(x)y2 + q(x)y2
y2 (b)
β − y1 (b) β − y1 (b)
= p(x) y1 + y2 + q(x) y1 + y2 + r (x)
y2 (b) y2 (b)
= p(x)y (x) + q(x)y(x) + r (x).
508 CAPÍTULO 11 Problemas de valor en la frontera para ecuaciones diferenciales ordinarias
β − y1 (b) β − y1 (b)
y(a) = y1 (a) + y2 (a) = α + ·0=α
y2 (b) y2 (b)
y
β − y1 (b)
y(b) = y1 (b) + y2 (b) = y1 (b) + β − y1 (b) = β.
y2 (b)
Disparo lineal
y (x
y (x
Figura 11.1
y
y 2(x)
b
b 2 y1(b)
y(x) 5 y1(x) 1 y 2(x)
y 2(b)
a y 1(x)
a b x
-
y (x y (x
z 1 (x) = z 2 (x)
z 2 (x) = p(x)z 2 (x) + q(x)z 1 (x) + r (x)
z 3 (x) = z 4 (x)
z 4 (x) = p(x)z 4 (x) + q(x)z 3 (x)
β − u 1,N
w 1,i = u 1,i + v1,i ≈ y1 (xi )
v1,N
y
β − u 1,N
w 2,i = u 2,i + v2,i ≈ y1 (xi )
v1,N
ENTRADA a b α β N
1
u 1,i+1 = u 1,i + 6
k1,1 + 2k2,1 + 2k3,1 + k4,1 ;
1
u 2,i+1 = u 2,i + 6
k1,2 + 2k2,2 + 2k3,2 + k4,2 ;
k1,1 = hv2,i ;
k1,2 = h p(x)v2,i + q(x)v1,i ;
k2,1 = h v2,i + 12 k1,2 ;
k2,2 = h p(x + h/2) v2,i + 12 k1,2 + q(x + h/2) v1,i + 12 k1,1 ;
k3,1 = h v2,i + 12 k2,2 ;
k3,2 = h p(x + h/2) v2,i + 12 k2,2 + q(x + h/2) v1,i + 12 k2,1 ;
k4,1 = h v2,i + k3,2 ;
k4,2 = h p(x + h)(v2,i + k3,2 ) + q(x + h)(v1,i + k3,1 ) ;
1
v1,i+1 = v1,i + 6
k1,1 + 2k2,1 + 2k3,1 + k4,1 ;
1
v2,i+1 = v2,i + 6
k1,2 + 2k2,2 + 2k3,2 + k4,2 .
Paso 5 Determine w 1,0 = α;
β − u 1,N
w 2,0 = ;
v1,N
SALIDA (a, w 1,0 , w 2,0 ).
Paso 6 Para i = 1, . . . , N
determine W 1 = u 1,i + w 2,0 v1,i ;
W 2 = u 2,i + w 2,0 v2,i ;
x = a + i h;
SALIDA (x, W 1, W 2). (La salida es x i , w 1,i , w 2,i .)
Paso 7 PARE. (El proceso está completo.)
Ejemplo 2 N5
2 2 sen(ln x)
y =− y + 2y+ , para 1 ≤ x ≤ 2, con y(1) = 1 y y(2) = 2,
x x x2
c2 3 1
y = c1 x + − sen(ln x) − cos(ln x),
x 2 10 10
donde
1
c2 = [8 − 12 sen(ln 2) − 4 cos(ln 2)] ≈ −0.03920701320
70
y
11
c1 = − c2 ≈ 1.1392070132.
10
Solución
2 2 sen(ln x)
y1 = − y1 + 2 y1 + , para 1 ≤ x ≤ 2, con y1 (1) = 1 y y1 (1) = 0,
x x x2
512 CAPÍTULO 11 Problemas de valor en la frontera para ecuaciones diferenciales ordinarias
u i v1,i
O(hn y (xi y (xi i = 0, 1, . . . , N ,
w 1,i O(hn) para y (xi
v1,i
|w 1,i − y(xi )| ≤ K h n 1 + ,
v1,N
sucesión t
t = tk
donde y(x, tk ) t 5 tk y (x
t0
a α
Figura 11.2
y
b (b, b)
y(b, t 0) (b, y(b, t 0 ))
y(x, t 0)
Pendiente t 0
a (a, a)
a b x
11.2 El método de disparo para problemas no lineales 513
Si y(b, t0 ) β -
t t y(b t k)
β
tk
y(x t -
t con
y(b, t) − β = 0.
t -
t0 t
Figura 11.3
y
(b, b )
y(b, t 2 )
b
y(b, t 3) y(x, t 3)
y(b, t 1 ) y(x, t 2 ) y(x, t 1 )
y(b, t 0)
y(x, t 0)
a (a, a)
a b x
Iteración de Newton
{tk },
t0
y(b, tk−1 ) − β
tk = tk−1 − dy
,
dt
(b, tk−1 )
(dy/dt)(b, tk−1 ).
y(b, t)
y(b, t0 ), y(b, t1 ), . . . , y(b, tk−1 ).
-
x t
y (x, t) = f (x, y(x, t), y (x, t)), para a ≤ x ≤ b, con y(a, t) = α y y (a, t) = t.
11.2 El método de disparo para problemas no lineales 515
w 1,N − β
Paso 0 Determine TK = TK − ;
u1
(Se utiliza el método de Newton para calcular TK.)
k = k + 1.
Paso 11 SALIDA (‘Número máximo de iteraciones excedido’);
(El procedimiento no fue exitoso.)
PARE.
t 0 5 TK
(a α b β
de t 0 t0
Ejemplo 1
1 43
y = (32 + 2x 3 − yy ), para 1 ≤ x ≤ 3, con y(1) = 17 y y(3) = .
8 3
N = 20, M = 10, y TOL = 10−5
y(x) = x 2 + 16/x.
Solución
1
y = (32 + 2x 3 − yy ), para 1 ≤ x ≤ 3, con y(1) = 17 y y (1) = tk ,
8
y
∂f ∂f 1
z = z+ z = − (y z + yz ), para 1≤ x ≤ 3, con z(1) = 0 y z (1) = 1,
∂y ∂y 8
t 52
t
y(x z(x t x a b
h -
h
Aproximación discreta
y9 como y0
N. a b N1 -
xi = a + i h, para i = 0, 1, . . . , N + 1,
donde h 5 (b 2 a) (N 1 h
N3N
xi , para i = 1, 2, . . . , N ,
ξi− en(xi−1 , xi ).
h 4 (4) +
y(xi+1 ) + y(xi−1 ) = 2y(xi ) + h 2 y (xi ) + [y (ξi ) + y (4) (ξi− )],
24
y (xi )
1 h 2 (4) +
y (xi ) = [y(x i+1 ) − 2y(x i ) + y(x i−1 )] − [y (ξi ) + y (4) (ξi− )].
h2 24
para proporcionar
1 h 2 (4)
y (xi ) = [y(x i+1 ) − 2y(x i ) + y(x i−1 )] − y (ξi ),
h2 12
Una y (xi )
1 h2
y (xi ) = [y(xi+1 ) − y(xi−1 )] − y (ηi ),
2h 6
ηi en (xi−1 , xi+1 ).
O (h
y(a) = α y y(b) = β
w 0 = α, w N +1 = β
y
−w i+1 + 2w i − w i−1 w i+1 − w i−1
+ p(xi ) + q(xi )w i = −r (xi ),
h2 2h
para cada i = 1, 2, . . . , N .
h h
− 1+ p(xi ) w i−1 + 2 + h 2 q(xi ) w i − 1 − p(xi ) w i+1 = −h 2r (xi ),
2 2
N3N
Aw = b, donde
11.3 Métodos de diferencias finitas para problemas lineales 519
h
. .. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0.
2 + h 2
q(x 1 ) −1 + p(x 1 ) 0 ....
2 .. ..
−1 − h p(x ) 2 + h 2 q(x ) −1 + h p(x ) . . . . . . . ..
. .
2 ....
2 . . . ....
2
2 ....
2 . . .... ..
.... .... .... .... .
.... .... .... .... .
A = .... .... .... .. 0
0. .... .... .... .... ,
....
.
. .... . . . . .... . .
.. .... ....
.... .... ....
.. .... .... h
....
.... .... .... p(x
−1 +
. N )
2
−1
.. .... .... ....
. . . h . .
0 .............................. 0 −1 − p(x N ) . 2 + h q(x N ) 2
2
h
−h 2r (x1 ) + 1 + p(x1 ) w 0
w1 2
w2 2
−h r (x2 )
w= .. y b
, =
.. .
. .
w N −1 2
−h r (x N −1 )
wN h
−h 2r (x N ) + 1 − p(x N ) w N +1
2
y ∈ C 4 [a, b].
y a b
orden O(h
ENTRADA a, b α β N≥
Paso 3 Determine x = b − h;
a N = 2 + h 2 q(x);
c N = −1 − (h/2) p(x);
d N = −h 2r (x) + (1 − (h/2) p(x))β.
Paso 4 Determine l1 = a1 ; (Los pasos 4-8 resuelven un sistema lineal tridiagonal
usando el algoritmo 6.7.)
u 1 = b1 /a1 ;
z 1 = d1 /l1 .
Paso 5 Para i = 2, . . . , N − 1 determine li = ai − ci u i−1 ;
u i = bi /li ;
z i = (di − ci z i−1 )/li .
Paso 6 Determine l N = a N − c N u N −1 ;
z N = (d N − c N z N −1 )/l N .
Paso 7 Determine w 0 = α;
w N +1 = β.
w N = zN .
Paso 8 Para i = N − 1, . . . , 1 determine w i = z i − u i w i+1 .
Paso 9 Para i = 0, . . . , N + 1 determine x = a + i h;
SALIDA (x, w i ).
Paso 10 PARE. (El procedimiento está completo.)
Ejemplo 1 N5
2 2 sen(ln x)
y =− y + 2y+ , para 1 ≤ x ≤ 2, con y(1) = 1 y y(2) = 2,
x x x2
Solución N5 h5 -
O(h
O(h
11.3 Métodos de diferencias finitas para problemas lineales 521
-
y (xi ) y y (xi ) en
h
lo de y(xi+1 ) y y(xi−1 ) y(xi+2 ) y y(xi−2 )
y (xi ) y y (xi ). i5N -
w −1 i5N w N +2 .
h
h, y
Ejemplo 2
2 2 sen(ln x)
y =− y + 2y+ , para 1 ≤ x ≤ 2, con y(1) = 1 y y(2) = 2,
x x x2
h5
Solución
4w i (h = 0.05) − w i (h = 0.1)
Ext1i = ,
3
4w i (h = 0.025) − w i (h = 0.05)
Ext2i = ,
3
16Ext2i − Ext1i
Ext3i = .
15
Tabla 11.4
xi w i (h = 0.05) w i (h = 0.025) Ext1i Ext2i Ext3i
1.0 1.00000000 1.00000000 1.00000000 1.00000000 1.00000000
1.1 1.09262207 1.09262749 1.09262925 1.09262930 1.09262930
1.2 1.18707436 1.18708222 1.18708477 1.18708484 1.18708484
1.3 1.28337094 1.28337950 1.28338230 1.28338236 1.28338236
1.4 1.38143493 1.38144319 1.38144589 1.38144595 1.38144595
1.5 1.48114959 1.48115696 1.48115937 1.48115941 1.48115942
1.6 1.58238429 1.58239042 1.58239242 1.58239246 1.58239246
1.7 1.68500770 1.68501240 1.68501393 1.68501396 1.68501396
1.8 1.78889432 1.78889748 1.78889852 1.78889853 1.78889853
1.9 1.89392740 1.89392898 1.89392950 1.89392951 1.89392951
2.0 2.00000000 2.00000000 2.00000000 2.00000000 2.00000000
522 CAPÍTULO 11 Problemas de valor en la frontera para ecuaciones diferenciales ordinarias
wi (h 5 -
wi (h 5
2
3 i
2
3
• f fy fy
a b N1 -
xi = a + i h, para i = 0, 1, . . . , N + 1.
y (xi ) y (xi )
y (x ) = f (x , y(x ), y (x ))
i = 1, 2, . . . , N ,
ξi ηi (xi−1 , xi+1 ).
w 0 = α, w N +1 = β,
11.4 Métodos de diferencias finitas para problemas no lineales 523
w2 − α
2w 1 − w 2 + h 2 f x1 , w 1 , − α = 0,
2h
w3 − w1
−w 1 + 2w 2 − w 3 + h 2 f x2 , w 2 , = 0,
2h
..
.
w N − w N −2
−w N −2 + 2w N −1 − w N + h 2 f x N −1 , w N −1 , = 0,
2h
β − w N −1
−w N −1 + 2w N + h 2 f x N , w N , − β = 0,
2h
h < 2/L,
h w i+1 − w i−1
−1 + f y xi , w i , , para i = j − 1 y j = 2, . . . , N ,
2 2h
w i+1 − w i−1
J (w 1 , . . . , w N )i j = 2 + h 2 f y xi , w i , , para i = j y j = 1, . . . , N ,
2h
h w i+1 − w i−1
−1 − f y xi , w i , , para i = j + 1 y j = 1, . . . , N − 1,
2 2h
donde w 0 = α y w N +1 = β.
N3N
J (w 1 , . . . , w N )(v1 , . . . , vn )t
w2 − α
= − 2w 1 − w 2 − α + h 2 f x1 , w 1 , ,
2h
w3 − w1
− w 1 + 2w 2 − w 3 + h 2 f x2 , w 2 , ,... ,
2h
524 CAPÍTULO 11 Problemas de valor en la frontera para ecuaciones diferenciales ordinarias
w N − w N −2
− w N −2 + 2w N −1 − w N + h 2 f x N −1 , w N −1 , ,
2h
t
β − w N −1
− w N −1 + 2w N + h 2 f xN , w N , −β
2h
para v1 , v2 , . . . , v N
ENTRADA a, b α β N≥ TOL
M
O(h
-
Ejemplo 1 h5
1 43
y = (32 + 2x 3 − yy ), para 1 ≤ x ≤ 3, con y(1) = 17 y y(3) = ,
8 3
Solución
2
-
2
526 CAPÍTULO 11 Problemas de valor en la frontera para ecuaciones diferenciales ordinarias
-
h5
w i (h = 0.1)
w i (h = 0.25) 3 2
i
2
3
d dy
− p(x) + q(x)y = f (x), para 0 ≤ x ≤ 1,
dx dx
y(0) = y(1) = 0.
y(x
q(x p(x)
f (x
p ∈ C 1 [0, 1] y q, f ∈ C[0, 1]. -
δ.
Problemas de variaciones
variacional de minimi-
y ∈ C02 [0, 1]
d dy
− p(x) + q(x)y = f (x), para 0 ≤ x ≤ 1,
dx dx
y C02 [0, 1]
1
I [u] = { p(x)[u (x)]2 + q(x)[u(x)]2 − 2 f (x)u(x)} d x.
0
528 CAPÍTULO 11 Problemas de valor en la frontera para ecuaciones diferenciales ordinarias
y -
1 1
• f (x)u(x)d x = p(x)y (x)u (x) + q(x)y(x)u(x)d x,
0 0
u ∈ C02 [0.1].
y ∈ C02 [0, 1]
u ∈ C02 [0, 1].
C02 [0, 1]
φ1 , φ 2 , . . . , φ n .
n
I [φ] = I ci φi
i=1
1 n 2 n 2 n
= p(x) ci φi (x) + q(x) ci φi (x) − 2 f (x) ci φi (x) d x,
0 i=1 i=1 i=1
I
c1 , c2 , . . . , cn
∂I
= 0, para cada j = 1, 2, . . . , n.
∂c j
1 n n
∂I
= 2 p(x) ci φi (x)φ j (x) + 2q(x) ci φi (x)φ j (x) − 2 f (x)φ j (x) d x,
∂c j 0 i=1 i=1
n 1 1
0= { p(x)φi (x)φ j (x) + q(x)φi (x)φ j (x)} d x ci − f (x)φ j (x) d x,
i=1 0 0
para cada j = 1, 2, . . . , n.
ecuaciones normales n3n
Ac = b c1 , c2 , . . . , cn A
1
ai j = [ p(x)φi (x)φ j (x) + q(x)φi (x)φ j (x)] d x,
0
11.5 El método de Rayleigh-Ritz 529
b
1
bi = f (x)φi (x) d x.
0
x0 , x1 , . . . , xn+1 con
0 = x0 < x1 < · · · < xn < xn+1 = 1.
h i = xi+1 − xi , para cada i = 0, 1, . . . , n, φ1 (x),
φ2 (x), . . . , φn (x)
0, si 0 ≤ x ≤ xi−1 ,
1
h (x − xi−1 ), si
xi−1 < x ≤ xi ,
i−1
φi (x) =
1
(xi+1 − x), si xi < x ≤ xi+1 ,
hi
0, si xi+1 < x ≤ 1,
para cada i = 0, 1, . . . , n
Figura 11.4
y y y
1 1 1
y = f1(x) y = fi (x)
y = fn(x)
0 0 0
x1 x2 1 x x i21 xi x i11 1 x x n21 xn 1 x
φi φi ,
(x j , x j+1 ), para cada j = 0, 1, . . . , n,
para cada i 5 n
φi φi lo en (xi−1 , xi+1 ),
j i2 i i1
n3n
cero en A
1
aii = p(x)[φi (x)]2 + q(x)[φi (x)]2 dx
0
2 2
1 xi
−1 xi+1
= p(x) d x + p(x) d x
h i−1 xi−1 hi xi
2 2
1 xi
1 xi+1
+ (x − xi−1 )2 q(x) d x + (xi+1 − x)2 q(x) d x,
h i−1 xi−1 hi xi
para cada i 5 n
1
ai,i+1 = { p(x)φi (x)φi+1 (x) + q(x)φi (x)φi+1 (x)} d x
0
2 2
1 xi+1
1 xi+1
=− p(x) d x + (xi+1 − x)(x − xi )q(x) d x,
hi xi hi xi
para cada i 5 n2
1
ai,i−1 = { p(x)φi (x)φi−1 (x) + q(x)φi (x)φi−1 (x)} d x
0
2 2
1 xi
1 xi
=− p(x) d x + (xi − x)(x − xi−1 )q(x) d x,
h i−1 xi−1 h i−1 xi−1
para cada i 5 n b
1
1 xi
1 xi+1
bi = f (x)φi (x) d x = (x − xi−1 ) f (x) d x + (xi+1 − x) f (x) d x,
0 h i−1 xi−1 hi xi
para cada i 5 n.
2
1 xi+1
Q 1,i = (xi+1 − x)(x − xi )q(x) d x, para cada i = 1, 2, . . . , n − 1,
hi xi
2
1 xi
Q 2,i = (x − xi−1 )2 q(x) d x, para cada i = 1, 2, . . . , n,
h i−1 xi−1
2
1 xi+1
Q 3,i = (xi+1 − x)2 q(x) d x, para cada i = 1, 2, . . . , n,
hi xi
2
1 xi
Q 4,i = p(x) d x, para cada i = 1, 2, . . . , n + 1,
h i−1 xi−1
1 xi
Q 5,i = (x − xi−1 ) f (x) d x, para cada i = 1, 2, . . . , n,
h i−1 xi−1
y
1 xi+1
Q 6,i = (xi+1 − x) f (x) d x, para cada i = 1, 2, . . . , n.
hi xi
11.5 El método de Rayleigh-Ritz 531
A b Ac 5 b
y
bi = Q 5,i + Q 6,i , para cada i = 1, 2, . . . , n.
c c1 , c2 , . . . , cn ,
n
φ φ(x) = ci φi (x),
i=1
úen n -
-
p, q f
Q 1,i . q
n+1
Pq (x) = q(xi )φi (x),
i=0
donde φ1 , . . . , φn
x −x x − xn
1
, si ≤ x ≤ x1 , si xn ≤ x ≤ 1
x1 φn+1 (x) = 1 − xn
y
φ0 (x) =
0,
en otro caso 0,
en otro caso.
[xi , xi+1 ], Pq (x
q ∈ C 2 [xi , xi+1 ]. i = 1, 2, . . . , n − 1, Q i -
2
1 xi+1
Q 1,i = (xi+1 − x)(x − xi )q(x) d x
hi xi
2
1 xi+1
q(xi )(xi+1 − x) q(xi+1 )(x − xi )
≈ (xi+1 − x)(x − xi ) + dx
hi xi hi hi
hi
= [q(xi ) + q(xi+1 )].
12
532 CAPÍTULO 11 Problemas de valor en la frontera para ecuaciones diferenciales ordinarias
q ∈ C 2 [xi , xi+1 ],
hi
Q 1,i − [q(xi ) + q(xi+1 )] = O(h i3 ).
12
h i−1 hi
Q 2,i ≈ [3q(xi ) + q(xi−1 )], Q 3,i ≈ [3q(xi ) + q(xi+1 )],
12 12
1 h i−1
Q 4,i ≈ [ p(xi ) + p(xi−1 )], Q 5,i ≈ [2 f (xi ) + f (xi−1 )],
2h i−1 6
y
hi
Q 6,i ≈ [2 f (xi ) + f (xi+1 )].
6
-
Q 1,i , . . . , Q 6,i
Paso 3 Para cada i = 1, 2, . . . , n − 1 calcule Q 1,i , Q 2,i , Q 3,i , Q 4,i , Q 5,i , Q 6,i ;
Calcule Q 2,n , Q 3,n , Q 4,n , Q 4,n+1 , Q 5,n , Q 6,n .
Paso 4 Para cada i = 1, 2, . . . , n − 1, determine αi = Q 4,i + Q 4,i+1 + Q 2,i + Q 3,i ;
βi = Q 1,i − Q 4,i+1 ;
bi = Q 5,i + Q 6,i .
Paso 5 Determine αn = Q 4,n + Q 4,n+1 + Q 2,n + Q 3,n ;
bn = Q 5,n + Q 6,n .
Paso 6 Determine a1 = α1 ; (Los pasos 1-6 resuelven el sistema lineal tridiagonal
simétrico usando el algoritmo 6.7.)
ζ1 = β1 /α1 ;
z 1 = b1 /a1 .
11.5 El método de Rayleigh-Ritz 533
Ilustración
y
0.1i+0.1
Q 6,i =10 (0.1i + 0.1 − x)2π 2 sen π x d x
0.1i
Ac 5 b
π2
ai,i = 20 + , para cada i = 1, 2, . . . , 9,
15
π2
ai,i+1 = −10 + , para cada i = 1, 2, . . . , 8,
60
π2
ai,i−1 = −10 + , para cada i = 2, 3, . . . , 9,
60
534 CAPÍTULO 11 Problemas de valor en la frontera para ecuaciones diferenciales ordinarias
9
φ(x) = ci φi (x),
i=1
y(x) = sen π x.
xi i = 1, . . . , 9.
Base B spline
C02 [0, 1]
interpolante S x0 , x1 , x2 , x3 x para
f
b. S(x j ) = f (x j ) para j = 0, 2, 4.
S
x0 = −2, x1 = −1, x2 = 0, x3 = 1
x 5
Figura 11.5
y
1
y = S(x)
!2 !1 1 2 x
0, si x ≤ −2,
14 (2 + x)3 ,
si − 2 ≤ x ≤ −1,
1
(2 + x) − 4(1 + x) , si − 1 < x ≤ 0,
3 3
S(x) = 4
1
4
(2 − x)3 − 4(1 − x)3 , si 0 < x ≤ 1,
1
(2 − x)3 , si 1 < x ≤ 2,
4
0, si 2 < x.
xi = i h, para cada i = 0, 1, . . . , n + 1. -
n+1
{φi }i=0 como
x x +h
S − 4S , si i = 0,
h h
x −h x +h
S −S si i = 1,
,
h h
x − ih
φi (x) = S si 2 ≤ i ≤ n − 1,
,
h
x − nh x − (n + 2)h
S −S si i = n,
,
h h
x − (n + 1)h x − (n + 2)h
S − 4S , si i = n + 1.
h h
n+1
{φi }i=0 -
φi (0) = φi (1) = 0, para cada i = 0, 1, . . . , n, n + 1 -
φi , para 2 ≤ i ≤ n − 1,
de φ0 , φ1 , φn , y φn+1
Figura 11.6
y
y 5 fi (x) cuando i 5 2, … , n 2 1
1
Figura 11.7
y y
1 1
y 5 f1(x)
y 5 f0(x)
x1 x2 x3 x x1 x2 x3 x
y y
1 1
y 5 fn(x)
y 5 fn11(x)
donde
1
ai j = { p(x)φi (x)φ j (x) + q(x)φi (x)φ j (x)} d x,
0
para cada i, j = 0, 1, . . . , n + 1. b
1
bi = f (x)φi (x)d x.
0
A Ac 5 b
-
φ (x
d dy
− p(x) + q(x)y = f (x), para 0 ≤ x ≤ 1, con y(0) = 0 y y(1) = 0
dx dx
con la suma de splines cúbicos
n+1
φ(x) = ci φi (x) :
i=0
ENTRADA entero n ≥ 1.
SALIDA coeficientes c0 , . . . , cn+1 .
538 CAPÍTULO 11 Problemas de valor en la frontera para ecuaciones diferenciales ordinarias
Ilustración
h5
-
p, q f
1 1/2
|y(x) − φ(x)|2 d x = O(h 4 ), si 0 ≤ x ≤ 1.
0
d dy
− p(x) + q(x)y = f (x), para 0 ≤ x ≤ 1, con y(0) = 0 y y(1) = 0,
dx dx
540 CAPÍTULO 11 Problemas de valor en la frontera para ecuaciones diferenciales ordinarias
método de
colocación
{φ1 , . . . , φ N },
{xi , . . . , xn }
N
ci φi (x)
i=1
x j , para 1 ≤ j ≤ n. -
φi (0) = φi (1) = 0, para 1≤ i ≤ N ,
{x j } {φi }. φi
{x j }
-
Las secciones Preguntas de análisis, Conceptos clave y Revisión del capítulo están dis-
ponibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
CAPÍTULO
Introducción
Un cuerpo es isotrópico si la conductividad térmica en cada uno de sus puntos es inde-
k, c y ρ son
funciones de (x, y, z) y representan, respectivamente, la conductividad térmica, el calor es-
x, y, z
u ≡ u(x, y, z, t), en el cuerpo se puede encontrar al resolver la ecuación diferencial parcial
∂ ∂u ∂ ∂u ∂ ∂u ∂u
k + k + k = cρ .
∂x ∂x ∂y ∂y ∂z ∂z ∂t
Cuando k, c y ρ son constantes, a esta ecuación se le conoce como ecuación de calor tridi-
mensional y se expresa como
∂ 2u ∂ 2u ∂ 2u cρ ∂u
+ + = .
∂x 2 ∂y 2 ∂z 2 k ∂t
Ecuaciones elípticas
∂ 2u ∂ 2u
(x, y) + (x, y) = f (x, y).
∂x2 ∂ y2
f R
con frontera S
541
542 CAPÍTULO 12 Soluciones numéricas para ecuaciones diferenciales parciales
f (x, y) ≡ 0, ecuación
Más adelante, asumió la cátedra de Laplace
en la
con ecuaciones ∂ 2u ∂ 2u
diferenciales parciales y (x, y) + (x, y) = 0.
ordinarias y, después, en la teoría ∂x2 ∂ y2
-
condiciones de
frontera de Dirichlet, dadas por
Figura 12.1
y
S
Ecuaciones parabólicas
-
áreas de la teoría numérica y la
ción diferencial parcial parabólica de la forma
α -
ésta se compone
Figura 12.2
0 l x
u(x, 0) = f (x),
Introducción 543
-
raturas constantes U y U , las condiciones en la frontera tienen la forma
u(0, t) = U1 y u(l, t) = U2 ,
U2 − U1
lím u(x, t) = U1 + x.
t→∞ l
-
mos, las condiciones en la frontera son
∂u ∂u
(0, t) = 0 y (l, t) = 0.
∂x ∂x
ecuación de difusión
Ecuaciones hiperbólicas
ecuación de onda
ecuación diferencial parcial hiperbólica l se estira
Figura 12.3
u(x, t)
l x, tiempo fijo t
u(x, t)
de un punto x en el tiempo t satisface la ecuación diferencial parcial
∂ 2u ∂ 2u
α2 (x, t) − 2 (x, t) = 0, para 0 < x < l y 0 < t,
∂x 2 ∂t
-
∂u
u(x, 0) = f (x) y (x, 0) = g(x), para 0 ≤ x ≤ l.
∂t
u t) 5 u(l, t) 5
544 CAPÍTULO 12 Soluciones numéricas para ecuaciones diferenciales parciales
∂ 2u ∂ 2u
∇ 2 u(x, y) ≡ (x, y) + 2 (x, y) = f (x, y),
∂x 2 ∂y
en R = { (x, y) | a < x < b, c < y < d }, con u(x, y) = g(x, y) para (x, y) ∈ S, donde S
denota la frontera de R f y g son continuas en sus dominios, entonces existe una
seleccionar enteros n y m h 5 (b 2 a) n y k 5 (d 2 c) m
a, b] en n h c, d] en m partes
k
Figura 12.4
ym ! d
...
...
...
...
...
...
...
y2
. . .
y1
. . .
y0 ! c
x 0 ! a x1 x2 x3 x4 b ! xn x
R
través de los puntos con coordenadas (x i , y j ), donde
x i, y j ) como
alrededor de la x en (x i, y j
Figura 12.5
d
y j"1 x
yj x x x
y j!1 x
a x i!1 x i x i"1 b x
-
546 CAPÍTULO 12 Soluciones numéricas para ecuaciones diferenciales parciales
tos (x i, y j
(n − 1)(m − 1) × (n − 1)(m − 1) wi j para u(x i, y j )
Pl = (xi , y j ) y w l = w i, j ,
wi, j
n2
n5 m5
Figura 12.6
y
y5
y4 P1 P2 P3
y3 P4 P5 P6
y2 P7 P8 P9
y0
x0 x1 x2 x3 x4 x
Ejemplo 1 -
n5m5
!
!
Solución xyy
∂ 2u ∂ 2u
(x, y) + 2 (x, y) = 0,
∂x 2 ∂y
n5m5
para cada i 5 j5
12.1 Ecuaciones diferenciales parciales elípticas 547
Figura 12.7
y
P1 P2 P3
P4 P5 P6
u(0, y) ! 0 u(0.5, y) ! 200y
P7 P8 P9
u(x, 0) ! 0 0.5 x
w i = u(Pi )
P i son
P1 : 4w 1 − w 2 − w 4 = w 0,3 + w 1,4 ,
P2 : 4w 2 − w 3 − w 1 − w 5 = w 2,4 ,
P3 : 4w 3 − w 2 − w 6 = w 4,3 + w 3,4 ,
P4 : 4w 4 − w 5 − w 1 − w 7 = w 0,2 ,
P5 : 4w 5 − w 6 − w 4 − w 2 − w 8 = 0,
P6 : 4w 6 − w 5 − w 3 − w 9 = w 4,2 ,
P7 : 4w 7 − w 8 − w 4 = w 0,1 + w 1,0 ,
P8 : 4w 8 − w 9 − w 7 − w 5 = w 2,0 ,
P9 : 4w 9 − w 8 − w 6 = w 3,0 + w 4,1 ,
w ,w , ,w
548 CAPÍTULO 12 Soluciones numéricas para ecuaciones diferenciales parciales
∂ 4u ∂ 4u
= ≡ 0,
∂x4 ∂ y4
A1 C1 0 .. .. . . . . . . . . . . . . . 0.
...
..
C 1 A2 . . C 2 . . . . . . ..
... .. ... .
. . . . . . . ...
0. . . C2. . . .
.. ... ....
.. . . . . .
... ... ..
.
,
..
... ... ..... .... 0
..
... ... .
.. . . . . . . . . . Cm−1
.
0 . . . . . . . . . . . . . . 0 Cm−1 Am−1
n2 3 (n 2
v
A D
U y L,
A = D − L − U,
yB
B = D −1 (L + U ),
1 π π
ρ(B) = cos + cos .
2 m n
2 4
ω= = .
1+ 1 − [ρ(B)]2 π π 2
2+ 4 − cos + cos
m n
Ejemplo 2 n5 m5 2
∂ 2u ∂ 2u
(x, y) + (x, y) = xe y , 0 < x < 2, 0 < y < 1,
∂x2 ∂ y2
u(0, y) = 0, u(2, y) = 2e y , 0 ≤ y ≤ 1,
u(x, 0) = x, u(x, 1) = ex, 0 ≤ x ≤ 2,
Solución
N5
w i(l)j − w i(l−1)
j ≤ 10−10 ,
para cada i 5 j5
con exactitud y el procedimiento se detuvo en l 5
Tabla 12.2
i j xi yj w i,(61)
j u(xi , y j ) u(xi , y j ) − w i,(61)
j
∂u ∂ 2u
(x, t) = α 2 2 (x, t), 0 < x < l, t > 0,
∂t ∂x
m.
x h = l/m. k
puntos de cuadrícula para esta situación son (x i, tj ), donde x i = ih, para i 5 , m, y
t j 5 jk, para j 5
552 CAPÍTULO 12 Soluciones numéricas para ecuaciones diferenciales parciales
∂u ∂ 2u
(xi , t j ) − α 2 2 (xi , t j ) = 0,
∂t ∂x
k ∂ 2u 2 4
2h ∂ u
τi j = (x i , µ j ) − α (ξi , t j ).
2 ∂t 2 12 ∂ x 4
w i, j+1
2α 2 k k
w i, j+1 = 1− w i j + α2 (w i+1, j + w i−1, j ),
h2 h2
para cada i = 1, 2, . . . , m − 1 y j = 1, 2, . . . .
w 0,1 =u(0, t1 ) = 0;
2α 2 k k
w 1,1 = 1 − w 1,0 + α 2 (w 2,0 + w 0,0 );
h2 h2
2α 2 k k
w 2,1 = 1 − w 2,0 + α 2 (w 3,0 + w 1,0 );
h2 h2
..
.
2α 2 k k
w m−1,1 = 1 − w m−1,0 + α 2 (w m,0 + w m−2,0 );
h2 h2
w m,1 =u(m, t1 ) = 0.
12.2 Ecuaciones diferenciales parciales parabólicas 553
w i,1 w i,2
(m − 1) × (m − 1)
(1 − 2λ) 0.. .. .. . . . . . . . . . . 0.
...
λ
.. .
.
λ . . . . (1 − 2 λ)
.... . . . λ . . . . . . . . . . . ...
.... . ... ...
A= 0. . . . . . . . . . . 0
. .
.... . . .
,
.. .... ... ..
.. . . .... . .... . ... λ
... . ..
.
. . . . . . . . . . . . . . . .
0 0 λ (1 − 2λ)
donde λ = α 2 (k/ h 2 ).
w( j) w( j−1)
método de diferencias progresivas y la aproximación en el
-
x y dos
en t O(k 1 h
Figura 12.8
t j11 x Método de
tj x x x diferencia
progresiva
xi l x
x i21 x i11
∂u ∂ 2u
(x, t) − 2 (x, t) = 0, 0 < x < 1, 0 ≤ t,
∂t ∂x
con condiciones de frontera
y condiciones iniciales
Solución a) h 5 k 5 λ 5
)5
b) h5 k5 λ5 )5
Tabla 12.3
w i,1000 w i,50
xi u(xi , 0.5) k = 0.0005 |u(xi , 0.5) − w i,1000 | k = 0.01 |u(xi , 0.5) − w i,50 |
0.0 0 0 0
0.1 0.00222241 0.00228652 6.411 × 10−5 8.19876 × 107 8.199 × 107
0.2 0.00422728 0.00434922 1.219 × 10−4 −1.55719 × 108 1.557 × 108
0.3 0.00581836 0.00598619 1.678 × 10−4 2.13833 × 108 2.138 × 108
0.4 0.00683989 0.00703719 1.973 × 10−4 −2.50642 × 108 2.506 × 108
0.5 0.00719188 0.00739934 2.075 × 10−4 2.62685 × 108 2.627 × 108
0.6 0.00683989 0.00703719 1.973 × 10−4 −2.49015 × 108 2.490 × 108
0.7 0.00581836 0.00598619 1.678 × 10−4 2.11200 × 108 2.112 × 108
0.8 0.00422728 0.00434922 1.219 × 10−4 −1.53086 × 108 1.531 × 108
0.9 0.00222241 0.00228652 6.511 × 10−5 8.03604 × 107 8.036 × 107
1.0 0 0 0
Consideraciones de estabilidad
O(k 1 h
h5 k5 h5 k5
-
t
e(0) = e1(0) , e2(0) , . . . , em−1
(0)
al representar los datos
iniciales
t
w(0) = f (x1 ), f (x2 ), . . . , f (xm−1 )
-
Ae(0) w(1)
w(1) = A w(0) + e(0) = Aw(0) + Ae(0) .
w(n) e(0) es An e(0) .-
n se
ó e(0), tenemos
An e(0) ≤ e(0) para todas las n ||A || ≤ 1, una condición
n
ρ(An ) = (ρ(A))n ≤ 1. -
ólo si ρ(A) ≤ 1.
A
2
iπ
µi = 1 − 4λ sen , para cada i = 1, 2, . . . , m − 1.
2m
12.2 Ecuaciones diferenciales parciales parabólicas 555
2
iπ
ρ(A) = máx 1 − 4λ sen ≤ 1,
1≤i≤m−1 2m
2
iπ 1
0 ≤ λ sen ≤ , para cada i = 1, 2, . . . , m − 1.
2m 2
h → 0, o, de
m → ∞.
2
(m − 1)π
lím sen =1
m→∞ 2m
ólo si 0 ≤ λ ≤ 12 .
λ = α 2 (k/ h 2 ), hyk
k 1
α2 ≤ .
h2 2
α 5 h5
k5 k h, la
0.01 1
=1> ,
(0.1)2 2
-
condicionalmente estable
O(k 1 h ), siempre y cuando
k 1
α2 ≤
h 2 2
Figura 12.9
t
Método de
tj x x x diferencias
t j21 x regresivas
xi l x
x i21 x i11
en (xi−1 , t j−1 ), (xi , t j−1 ), y (xi+1 , t j−1 ) se usaron para encontrar la aproximación en (xi, tj
Figura 12.10
t
t j11 x Método de
tj x x x diferencias
progresivas
xi l x
x i21 x i11
(1 + 2 λ) . . . −λ . . .0.. .. .. . . . . . . . . . 0.
.. .. .. . w 1, j w 1, j−1
−λ . . . . . . . . . . . . .. . . . . . ...
.. .. .. .. . w 2, j w 2, j−1
0. . . . . . . . . . . . . . . . . . . 0
= ,
.. . . . . . ..
.. ..
. . . . . . . . . . . . −λ
..
. .
. . .
. .. . .
. . w m−1, j w m−1, j−1
0 . . . . . . . . . . . .0 −λ (1 + 2λ)
w( j) a partir de
w ( j−1)
. λ. A -
m
se da una cota para t
ENTRADA extremo l T α m ≥ 3, N ≥ 1.
Ejemplo 2 h5 k5 -
mar la solución de la ecuación de calor
∂u ∂ 2u
(x, t) − 2 (x, t) = 0, 0 < x < 1, 0 < t,
∂t ∂x
Solución
h5 k5
h5 k5
h5
k5 w i,50 con u(xi , 0.5), donde i 5
hyk
A -
valores son
2
iπ
µi = 1 + 4λ sen , para cada i = 1, 2, . . . , m − 1.
2m
A2
λ = α 2 (k/ h 2 ).
incondicionalmente estable
12.2 Ecuaciones diferenciales parciales parabólicas 559
O(k 1 h
Método de Crank-Nicolson
el j-ésimo paso en t,
w i, j+1 − w i, j w i+1, j − 2w i, j + w i−1, j
− α2 = 0,
k h2
k ∂ 2u
τF = (xi , µ j ) + O(h 2 ),
2 ∂t 2
j1 ésimo paso en t,
w i, j+1 − w i, j w i+1, j+1 − 2w i, j+1 + w i−1, j+1
− α2 = 0,
k h2
k ∂ 2u
τB = − (xi , û j ) + O(h 2 ).
2 ∂t 2
físico matemático durante
∂ 2u ∂ 2u
(x i , µ̂ j ) ≈ (xi , µ j ),
solución numérica de ecuaciones ∂t 2 ∂t 2
diferenciales parciales,
entonces, el método de diferencia promediado,
w i, j+1 − w i j α 2 w i+1, j − 2w i, j + w i−1, j w i+1, j+1 − 2w i, j+1 + w i−1, j+1
− + = 0,
k 2 h2 h2
tiene error de truncamiento local de orden O(k 1 h ), siempre y cuando, por supuesto, se
560 CAPÍTULO 12 Soluciones numéricas para ecuaciones diferenciales parciales
método de Crank-Nicolson
k
λ = α2 , w( j) = (w 1, j , w 2, j , . . . , w m−1, j )t ,
h2
. . . − λ2 . . .0.. .. .. . . . . . . . . .0.
(1 + λ)
.. ... ... .
−2 ... ..... . . . . . . . ..
. . . . . . ..
.
λ
.. ..
0. . . . . . . . . . . . . . ... 0
A= ..
.. . . . ... ...
.. ... ... ... −λ
... .. . 2
.
0 . . . . . . . . . . 0 − λ2 (1 + λ)
... 0. . . . . . . . . . .
2 .... ....
λ
0.
(1 − λ)
... . . . .
... . . . . . . . ..
.
2 .... . . . . . . ..
.
λ
. ..
.
0. . . . . . . . . . . . . . ... 0
B= ...
...
.
.. . . . ...
.. . ... . . .
. . . . . . λ2
..
.
0 . . . . . . . . . . .0 λ
2
(1 − λ)
A -
O(k 1 h
(xi , t j+1 )
Figura 12.11
t j11
x x x
tj x x x Método
Crank-
Nicolson
xi l x
x i21 x i11
12.2 Ecuaciones diferenciales parciales parabólicas 561
ENTRADA extremo l T α m ≥ 3, N ≥ 1.
Ejemplo 3 h5 k5 -
∂u ∂ 2u
(x, t) − 2 (x, t) = 0, 0<x <1 0 < t,
∂t ∂x
Solución h5 k5 m5 N5 λ5 -
-
hyk
3 2
∂ 2u ∂ 2u
(x, t) − α 2 2 (x, t) = 0, 0 < x < l, t > 0,
∂t 2 ∂x
m. x
h5l m k.
malla (xi , t j )
xi = i h y t j = jk,
para cada i = 0, 1, . . . , m y j = 0, 1, . . . .
(xi , t j ), la ecuación de onda se vuelve
∂ 2u 2
2∂ u
(x i , t j ) − α (xi , t j ) = 0.
∂t 2 ∂x2
1 2 ∂ 4u ∂ 4u
τi, j = k (xi , µ j ) − α 2 h 2 4 (ξi , t j ) ,
12 ∂t 4 ∂x
λ = αk/ h.
i = 1, 2, . . . , m−1 y j = 1, 2, . . . .
frontera proporcionan
w 0, j = w m, j = 0, para cada j = 1, 2, 3, . . . ,
2(1 − λ2 ) λ2 0.. .. .. . . . . . . . . . 0.
... ..
w 1, j+1 λ. 2. . 2(1 −. .λ. 2 ) λ. 2. ... .. w 1, j w 1, j−1
. . . . ..
... ... .
w 2, j+1 ... ..... w 2, j w 2, j−1
. .
0. . . . . . . . . . .
... ... 0
= ...
−
... .
.
.. .
.
.. ..
. . . . . . . . .
.
...
.
.. ... ...
. .
. 2
. ... ..... .
w m−1, j+1 .. ... λ w m−1, j w m−1, j−1
... ..
..
0 . . . . . . . . . . . . . . . . ... 0 . λ2 2(1 − λ2 )
j1 ésimo -
de el j-ésimo y ( j 2 ésimo
j5
valores para j 5 w i,2 ,
∂u
(x, 0) = g(x), 0 ≤ x ≤ l.
∂t
Figura 12.12
t j!1 x
tj x x x
t j"1 x
xi l x
x i"1 x i!1
∂u/∂t
∂u u(xi , t1 ) − u(xi , 0) k ∂ 2 u
(xi , 0) = − (xi , µ̃i ),
∂t k 2 ∂t 2
µ̃i en (0, t1 ) u(xi , t1 )
∂u k2 ∂ 2u
u(xi , t1 ) = u(xi , 0) + k (xi , 0) + (xi , µ̃i )
∂t 2 ∂t 2
k2 ∂ 2u
= u(xi , 0) + kg(xi ) + (xi , µ̃i ).
2 ∂t 2
∂u k2 ∂ 2u k3 ∂ 3u
u(xi , t1 ) = u(xi , 0) + k (xi , 0) + (x i , 0) + (xi , µ̂i ),
∂t 2 ∂t 2 6 ∂t 3
µ̂i en (0, t1 ). f 0 existe, entonces
∂ 2u ∂ 2u d2 f
(xi , 0) = α 2 2 (xi , 0) = α 2 2 (xi ) = α 2 f (xi )
∂t 2 ∂x dx
α2k 2 k3 ∂ 3u
u(xi , t1 ) = u(xi , 0) + kg(xi ) + f (xi ) + (xi , µ̂i ).
2 6 ∂t 3
O(k ):
α2k 2
w i1 = w i0 + kg(xi ) + f (xi ).
2
k 2α2
u(xi , t1 ) = u(xi , 0) + kg(xi ) + [ f (xi+1 ) − 2 f (xi ) + f (xi−1 )] + O(k 3 + h 2 k 2 ).
2h 2
λ = kα/ h,
λ2
u(xi , t1 ) = u(xi , 0) + kg(xi ) + [ f (xi+1 ) − 2 f (xi ) + f (xi−1 )] + O(k 3 + h 2 k 2 )
2
λ2 λ2
= (1 − λ2 ) f (xi ) + f (xi+1 ) + f (xi−1 ) + kg(xi ) + O(k 3 + h 2 k 2 ).
2 2
λ2 λ2
w i,1 = (1 − λ2 ) f (xi ) + f (xi+1 ) + f (xi−1 ) + kg(xi ),
2 2
w i,1 , -
t
k = T /N , donde N
566 CAPÍTULO 12 Soluciones numéricas para ecuaciones diferenciales parciales
∂u
u(x, 0) = f (x), y (x, 0) = g(x), para 0 ≤ x ≤ l,
∂t
ENTRADA extremo l T α m ≥ 2, N ≥ 2.
Ejemplo 1
∂ 2u ∂ 2u
(x, t) − 4 2 (x, t) = 0, 0 < x < 1, 0 < t,
∂t 2 ∂x
con condiciones de frontera
y condiciones iniciales
∂u
u(x, 0) = sen(π x), 0 ≤ x ≤ 1, y (x, 0) = 0, 0 ≤ x ≤ 1,
∂t
12.3 Ecuaciones diferenciales parciales hiperbólicas 567
Usando h 5 k5
Solución h5 k5 λ m5 N5
tiempo máximo T 5
las aproximaciones w i,N a u(0.1i, 1) para i 5
Tabla 12.6
xi w i,20
0.0 0.0000000000 O(k + h
0.1 0.3090169944
0.2 0.5877852523
0.3 0.8090169944 u(xi+1 , t j ) − 2u(xi , t j ) + u(xi−1 , t j )
0.4 0.9510565163 h2
0.5 1.0000000000
∂ 2u h2 ∂ 4u h4 ∂ 6u
0.6 0.9510565163 = (xi , t j ) + 2 (xi , t j ) + (xi , t j ) + · · ·
0.7 0.8090169944 ∂x 2 4! ∂ x 4 6! ∂ x 6
0.8 0.5877852523
y
0.9 0.3090169944
1.0 0.0000000000 u(xi , t j+1 ) − 2u(xi , t j ) + u(xi , t j−1 )
k2
∂ 2u k2 ∂ 4u h4 ∂ 6u
= (x i , t j ) + 2 (x i , t j ) + (xi , t j ) + · · · .
∂t 2 4! ∂t 4 6! ∂t 6
∂ 4u ∂2 ∂ 2u ∂ 2 ∂ 2u
k2 (xi , t j ) = k 2 2 α 2 2 (xi , t j ) = α 2 k 2 2 (xi , t j )
∂t 4 ∂t ∂x ∂x ∂t 2
∂2 ∂ 2u ∂ 4u
= α2k 2 α 2 2 (xi , t j ) = α 4 k 2 4 (xi , t j ),
∂x 2 ∂x ∂x
λ2 = (α 2 k 2 / h 2 ) = 1, tenemos
1 2 ∂ 4u ∂ 4u α2 2 2 ∂ 4u
k (xi , t j ) − α 2 h 2 4 (xi , t j ) = [α k − h 2 ] 4 (xi , t j ) = 0.
4! ∂t 4 ∂x 4! ∂x
wi
-
λ = αk/ h ≤ 1
λ≤ O(h 1 k
si f y g
568 CAPÍTULO 12 Soluciones numéricas para ecuaciones diferenciales parciales
técnicas de
diferencia
aproximar mediante un cociente de diferencias en los puntos de cuadrícula y una forma
∂ ∂u ∂ ∂u
p(x, y) + q(x, y) + r (x, y)u(x, y) = f (x, y),
∂x ∂x ∂y ∂y
u(x, y) = g(x, y)
se imponen en una parte, S S
u (x, y) para satisfacer
∂u ∂u
p(x, y) (x, y) cos θ1 + q(x, y) (x, y) cos θ2 + g1 (x, y)u(x, y) = g2 (x, y),
∂x ∂y
donde θ y θ
(x, y
Figura 12.13 y
Recta tangente
Recta normal
u2
u1
x
12.4 Una introducción al método de elementos finitos 569
2 2
1 ∂w ∂w
I [w] = p(x, y) + q(x, y) − r (x, y)w 2 + f (x, y)w dx dy
D 2 ∂x ∂y
1
+ −g2 (x, y)w + g1 (x, y)w 2 dS
S2 2
w -
S
función I
Definición de elementos
Figura 12.14
xyy
-
x y y,
φ(x, y) = a + bx + cy,
x y y,
φ(x, y) = a + bx + cy + d x y,
D
D nodos
m
φ(x, y) = γi φi (x, y),
i=1
570 CAPÍTULO 12 Soluciones numéricas para ecuaciones diferenciales parciales
m
I [φ] = I γi φi
i=1
m 2 m 2
1 ∂φi ∂φi
= p(x, y) γi (x, y) + q(x, y) γi (x, y)
D 2 i=1
∂x i=1
∂y
m 2 m
− r (x, y) γi φi (x, y) + f (x, y) γi φi (x, y) d y d x
i=1 i=1
m m 2
1
+ − g2 (x, y) γi φi (x, y) + g1 (x, y) γi φi (x, y) d S.
S2 i=1
2 i=1
∂I
= 0, para cada j = 1, 2, . . . , n.
∂γ j
m
∂I ∂φi ∂φ j
= p(x, y) γi (x, y) (x, y)
∂γ j D i=1
∂x ∂x
m
∂φi ∂φ j
+ q(x, y) γi (x, y) (x, y)
i=1
∂y ∂y
m
− r (x, y) γi φi (x, y)φ j (x, y) + f (x, y)φ j (x, y) d x d y
i=1
m
+ − g2 (x, y)φ j (x, y) + g1 (x, y) γi φi (x, y)φ j (x, y) d S,
S2 i=1
por lo que
m
∂φi ∂φ j ∂φi ∂φ j
0= p(x, y) (x, y) (x, y) + q(x, y) (x, y) (x, y)
i=1 D ∂x ∂x ∂y ∂y
para cada j = 1, 2, . . . , n.
lineal:
Ac = b,
donde c = (γ1 , . . . , γn )t y donde las matrices n 3 n A = (αi j ) y b = (β1 , . . . , βn )t están
∂φi ∂φ j ∂φi ∂φ j
αi j = p(x, y) (x, y) (x, y) + q(x, y) (x, y) (x, y)
D ∂x ∂x ∂y ∂y
− r (x, y)φi (x, y)φ j (x, y) d x d y + g1 (x, y)φi (x, y)φ j (x, y) d S,
S2
para cada i = 1, 2, . . . , n y j = 1, 2, . . . , m,
m
βi = − f (x, y)φi (x, y) d x d y + g2 (x, y)φi (x, y) d S − αik γk ,
D S2 k=n+1
para cada i = 1, . . . , n.
-
A
D D5D S es
Triangulación de la región
D
T1 , T2 , . . . , TM , con el i-ésimo
j , y j , para j = 1, 2, 3.
V j(i) = x (i) (i)
1, si j = k,
N (i)
j (x, y) ≡ N j (x, y) = a j + b j x + c j y, donde N (i)
j (x k , yk ) =
0, si j = k.
1 x1 y1 aj 0
1 x2 y2 b j = 1 ,
1 x3 y3 cj 0
j-ésima j5
E1, . . . , En D ∪ S. Con cada nodo Ek, asociamos una
función φk Ek
φk sea idéntico a N (i)
j Ti cuando el nodo
Ek es el vértice denotado V j .
(i)
Ilustración T y T mostrados en
572 CAPÍTULO 12 Soluciones numéricas para ecuaciones diferenciales parciales
Figura 12.15
y
V (1)
2
(!1, 2) 2
V (1)
1
T1 (1, 1)
V (2)
1
T2
V (1)
3 V (2)
3
!1 V (2) 1 x
2
N1(1) (x, y)
(2
2 1
N1(1) (x, y) = x + y.
3 3
N1(2) (x, y)
A -
12.4 Una introducción al método de elementos finitos 573
Figura 12.16
E2
E1
T1
T2
E3
E4
T,
x, y),
T,
x, y),
βi del vector b
β , necesitamos
A y el vector b
estos valores a las entradas adecuadas en A y b
y
∂u ∂u
p(x, y) (x, y) cos θ1 + q(x, y) (x, y) cos θ2 + g1 (x, y)u(x, y) = g2 (x, y),
∂x ∂y
(x, y) ∈ S2 ,
12.4 Una introducción al método de elementos finitos 575
donde S1 ∪ S2 es la frontera de D y θ y θ
la frontera:
Paso 0 Divida la región D en triángulos T1 , . . . , TM de tal forma que:
T1 , . . . , TK son los triángulos sin bordes en S1 o S2 ;
(Nota: K = 0 implica que ningún triángulo es interior para D .)
TK +1 , . . . , TN son triángulos con al menos un borde en S2 ;
TN +1 , . . . , TM son los triángulos restantes.
(Nota: M = N implica que todos los triángulos tienen bordes en S2 .)
Etiquete los tres vértices del triángulo Ti mediante
x1(i) , y1(i) , x2(i) , y2(i) , y x3(i) , y3(i) .
Etiquete los nodos (vertices) E 1 , . . . , E m donde
E 1 , . . . , E n están en D ∪ S2 y E n+1 , . . . , E m están en S1 .
(Nota: n = m implica que S1 no contiene nodos.)
ENTRADA enteros K , N , M, n, m; vértices x1(i) , y1(i) , x2(i) , y2(i) , x3(i) , y3(i)
para cada i = 1, . . . , M; nodos E j para cada j = 1, . . . , m.
(Nota: Todo lo que se necesita es un medio para corresponder a un vértice xk(i) , yk(i)
para un nodo E j = (x j , y j ).)
SALIDA constantes γ1 , . . . , γm ; a (i)
j , b j , c j para cada j = 1, 2 y i = 1, . . . , M.
(i) (i)
para j = 1, 2, 3
defina N (i)
j (x, y) = a j + b j x + c j y.
(i) (i) (i)
determine J j,k
(i)
= g1 (x, y)N (i)
j (x, y)Nk (x, y) d S;
(i)
S2
Paso 6 Para i = 1, . . . , M haga los pasos 7–12. ( Ensamble las integrales sobre cada
triángulo en el sistema lineal.)
Paso 7 Para k = 1, 2, 3 haga los pasos 8–12.
Paso 18 Si l ≤ n entonces
si t ≤ n entonces determine αlt = αlt + Jk,(i)j ;
αtl = αtl + Jk,(i)j
si no determine βl = βl − γt Jk,(i)j
si no
si t ≤ n entonces determine βt = βt − γl Jk,(i)j .
Paso 19 Si l ≤ n entonces determine αll = αll + Jk,k
(i)
;
βl = βl + Ik(i) .
Paso 20 Resolver el sistema lineal Ac = b donde A = (αl,t ), b = (βl ) y c = (γt ) para
1 ≤ l ≤ n y 1 ≤ t ≤ n.
Paso 21 SALIDA (γ1 , . . . , γm ).
(Para cada k = 1, . . . , m sea φk = N (i)
j en Ti si E k = x j , y j
(i) (i)
.
m
Entonces φ(x, y) = k=1 γk φk (x, y) aproxima u(x, y) en D ∪ S1 ∪ S2 .)
Paso 22 Para i = 1, . . . , M
para j = 1, 2, 3 SALIDA a (i)
j , bj , cj
(i) (i)
.
Ilustración u(x, y D
∂ 2u ∂ 2u
(x, y) + 2 (x, y) = 0 en D
∂x 2 ∂y
D -
nadas por
Figura 12.17
(0, 0.4)
L1
n
n
n (0.4, 0.2)
L7
(0.2, 0.2) L2
L3 n
D
n
(0.6, 0.1)
(0.5, 0.1) L 4
L5 n
(0, 0) (0.6, 0)
n L6
D
S1 = L 6 ∪ L 7 y S2 = L 1 ∪ L 2 ∪ L 3 ∪ L 4 ∪ L 5 . -
u(x, y L yL γt = 4 cuando t 5
E 6 , E 7 , . . . ,E 11 . γl para l 5
2.5 0 0 0
−1
0 1.5 −1 −0.5 0
A= 4 0 0
−1 −1
0 0 2.5
−0.5 −0.5
0 0 0 −0.5 1
578 CAPÍTULO 12 Soluciones numéricas para ecuaciones diferenciales parciales
Figura 12.18
E6
T3
E1 E2
E7
T4
T7 E3 E4 E5
T1 T2 T5
T8 T6
T9 T10
E8
E9 E10 E11
y el vector
6.0666̄
0.0633̄
b= 8.0000
.
6.0566̄
2.0316̄
Ac 5 b es
4.0383
γ1
γ2 4.0782
c= 4.0291
γ3 = .
4.0496
γ4
γ5 4.0565
u(x, y) 5 xy 1 -
para el valor de u con el valor de φ en Ei, para cada i 5
12.4 Una introducción al método de elementos finitos 579
O(h ), donde h
resultados O(h
parcial
∂u ∂u ∂ 2 u
=F x, t, u, , ,
∂t ∂x ∂x2
con condiciones de frontera
∂u
α(x, t)u(x, t) + β(x, t) (x, t) = γ (x, t).
∂x
x para cada valor de t
y usa splines
xy y
Las secciones Preguntas de análisis, Conceptos clave y Revisión del capítulo están dis-
ponibles en línea. Encuentre la ruta de acceso en las páginas preliminares.
Análisis numérico, 10a. ed., se escribió para que los estudiantes de ingeniería,
matemáticas, ciencias de la computación puedan usarlo en los cursos sobre la teoría
y la aplicación de técnicas de aproximación numérica.