Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ir a la navegaci�nIr a la b�squeda
En an�lisis num�rico, la integraci�n num�rica constituye una amplia gama de
algoritmos para calcular el valor num�rico de una integral definida y, por
extensi�n, el t�rmino se usa a veces para describir algoritmos num�ricos para
resolver ecuaciones diferenciales. El t�rmino cuadratura num�rica (a menudo
abreviado a cuadratura) es m�s o menos sin�nimo de integraci�n num�rica,
especialmente si se aplica a integrales de una dimensi�n a pesar de que para el
caso de dos o m�s dimensiones (integral m�ltiple) tambi�n se utiliza.
�ndice
1 Razones para la integraci�n num�rica
2 M�todos para integrales unidimensionales
2.1 M�todos basados en funciones de interpolaci�n
2.1.1 F�rmulas de Newton-Cotes
2.1.1.1 Regla del rect�ngulo
2.1.1.2 Regla del punto medio
2.1.1.3 Regla de Simpson
2.1.1.4 Reglas compuestas
2.1.1.5 M�todos de extrapolaci�n
2.1.2 Cuadratura de Gauss
2.2 Algoritmos adaptativos
2.3 Estimaci�n del error conservativa (a priori)
3 Integrales m�ltiples
3.1 Montecarlo
4 Programas para integraci�n num�rica
5 Referencias
Razones para la integraci�n num�rica
Hay varias razones para llevar a cabo la integraci�n num�rica. La principal puede
ser la imposibilidad de realizar la integraci�n de forma anal�tica. Es decir,
integrales que requerir�an de un gran conocimiento y manejo de matem�tica avanzada
pueden ser resueltas de una manera m�s sencilla mediante m�todos num�ricos. Incluso
existen funciones integrables pero cuya primitiva no puede ser calculada, siendo la
integraci�n num�rica de vital importancia. La soluci�n anal�tica de una integral
nos arrojar�a una soluci�n exacta, mientras que la soluci�n num�rica nos dar�a una
soluci�n aproximada. El error de la aproximaci�n, que depende del m�todo que se
utilice y de qu� tan fino sea, puede llegar a ser tan peque�o que es posible
obtener un resultado id�ntico a la soluci�n anal�tica en las primeras cifras
decimales.
De todos modos, un modo de integraci�n por �fuerza bruta� puede hacerse siempre, de
un modo muy simplista, evaluando el integrando con incrementos muy peque�os.
F�rmulas de Newton-Cotes
La interpolaci�n con polinomios evaluada en puntos igualmente separados en
{\displaystyle \ [a,b]} {\displaystyle \ [a,b]} da las f�rmulas de Newton-Cotes, de
las que la regla del rect�ngulo, la del trapecio y la de Simpson son ejemplos. Si
se escogen los nodos hasta {\displaystyle k=n+1} {\displaystyle k=n+1} ser� la
f�rmula de Newton-Cotes cerrada y si se escogen {\displaystyle k=n-1}
{\displaystyle k=n-1} ser� la f�rmula de Newton-Cotes abierta.
M�todos de extrapolaci�n
La precisi�n de un m�todo de integraci�n del tipo Newton-Cotes es generalmente una
funci�n del n�mero de puntos de evaluaci�n. El resultado es usualmente m�s preciso
cuando el n�mero de puntos de evaluaci�n aumenta, o, equivalentemente, cuando la
anchura del paso entre puntos decrece. �Qu� pasa cuando la anchura del paso tiende
a cero? Esto puede responderse extrapolando el resultado de dos o m�s anchuras de
paso (extrapolaci�n de Richardson). La funci�n de extrapolaci�n puede ser un
polinomio o una funci�n racional. Los m�todos de extrapolaci�n est�n descritos en
m�s detalle por Stoer y Bulirsch (Secci�n 3.4). En particular, al aplicar el m�todo
de extrapolaci�n de Richardson a la regla del trapecio compuesta se obtiene el
m�todo de Romberg.
Cuadratura de Gauss
Si se permite variar los intervalos entre los puntos de interpolaci�n, se encuentra
otro grupo de f�rmulas de integraci�n, llamadas f�rmulas de cuadratura de Gauss.
Una regla de cuadratura de Gauss es t�picamente m�s precisa que una regla de
Newton-Cotes que requiera el mismo n�mero de evaluaciones del integrando, si el
integrando es suave (es decir, si se puede derivar muchas veces).
Algoritmos adaptativos
Si f no tiene muchas derivadas definidas en todos sus puntos, o si las derivadas
toman valores muy elevados, la integraci�n gausiana es a menudo insuficiente. En
este caso, un algoritmo similar al siguiente lo har�a mejor:
x = a
h = h0
acumulador = 0
while x < b:
if x+h > b: h = b - x
if error de la cuadratura sobre [x,x+h] para f es demasiado grande:
haz h m�s peque�o
else:
acumulador += integral(f, x, x+h)
x += h
if error de la cuadratura sobre [x,x+h] es demasiado peque�o:
haz h m�s grande
return acumulador
Algunos detalles del algoritmo requieren mirarlo con cuidado. Para muchos casos,
estimar el error de la integral sobre un intervalo para un funci�n f no es obvio.
Una soluci�n popular es usar dos reglas de integraci�n distintas, y tomar su
diferencia como una estimaci�n del error de la integral. El otro problema consiste
en decidir qu� es �demasiado grande� o �demasiado peque�o�. Un criterio posible
para �demasiado grande� es que el error de la integral no sea mayor que th, donde
t, un n�mero real, es la tolerancia que queremos tener para el error global. Pero
tambi�n, si h es ya min�sculo, puede no valer la pena hacerlo todav�a m�s peque�o
si el error de la integral es aparentemente grande. Este tipo de an�lisis de error
usualmente se llama �a posteriori� ya que calculamos el error despu�s de haber
calculado la aproximaci�n.
Integrales m�ltiples
Los m�todos de integraci�n que se han comentado hasta aqu� se han dise�ado todos
para calcular integrales de una dimensi�n.