Está en la página 1de 34

Universidad tecnológica de

campeche

Alumnos:
David Josué Damián julian
Andry enrique Motul Cámara
Maestro:
Obed Benjamín Torres Arias

Unidad 3

Trabajo:
Manual de practicas

Cuatrimestre
8vo
Grupo:
A
Introducción
Los métodos numéricos nos sirven para resolver problemas comunes en la
ingeniería así como en otras situaciones, estos métodos nos ayudan a resolver
problemas muy complejos de la manera más fácil solo que sus resultados no son
exactos si no aproximados.
Los métodos numéricos son técnicas mediante las cuales es posible realizar
problemas matemáticos de tal forma que pueden resolverse usando operaciones.
En conclusión, los métodos nos facilitan la forma de entender esquemas
numéricos
El método de Euler
(método poligonal) es un método numérico simple para resolver problemas de
valor inicial (Cauchy) con ecuaciones diferenciales ordinarias. Por ejemplo,
permite encontrar soluciones mediante aproximación para ecuaciones
diferenciales que son difíciles de resolver o no pueden resolverse de manera
explícita. El método de Euler también se llama "método de los pasos pequeños",
ya que cada paso involucra resolver una ecuación principalmente no lineal.
El método de Euler (Euler-Cauchy) explícito (o directo), el método de paso único
más simple, se basa en el valor inicial especificado y0=y(x0)y0=y(x0) con un
proceso de iteración yn+1=yn+h⋅f(xn,yn)yn+1=yn+h⋅f(xn,yn) . En este
caso, h⋅f(xn,yn)h⋅f(xn,yn) representa el gradiente. Este método muy aproximado es
adecuado principalmente para valores de h muy pequeños, ya que la derivada se
obtiene en un punto único solamente y luego se extrapola.
Ejercicio:

Encuentre una solución aproximada en x=1.2 del PVI:


De la condición inicial tenemos:

Para determinar un valor aproximado de la solución en el punto x=1.2,


consideremos la aproximación lineal de la solución alrededor de x=1:

Como h=x-x0 =1.2 -1=0.2, tenemos que la solución aproximada es:

Por otra parte, la ecuación diferencial es y’ + y = x, con factor integrante µ=ex. La


solución analítica del PVI es:

Evaluando esta expresión en x=1.2, obtenemos el valor exacto:

Observemos que la aproximación lineal proporciona una cifra decimal de la


solución exacta y el error porcentual en la aproximación es:

Anuncios
INFORMA SOBRE ESTE ANUNCIOPRIVACY SETTINGS

Método de Euler mejorado

Se llama método de
Euler al método numérico consistente en ir
incrementando paso a paso la variable independiente y hallando la
siguiente imagen con la
derivada.
La primera derivada proporciona una
estimación directa de la pendiente en Xi (ver

Gráfico Nº01). [1]

Donde f (Xi, Yi) es la ecuación


diferencial evaluada en Xi y Yi, Tal estimación
podrá substituirse en la ecuación [2] nos queda
que:

[2]

Esta fórmula es conocida como el método de


Euler (punto medio). Se predice un nuevo valor de Y por medio de
la pendiente (igual a la primera derivada en el valor original de
X).

Error para el método de Euler

La solución numérica de las ecuaciones


diferenciales ordinarias (EDO) involucra dos tipos de
error.

1) Errores de Truncamiento, o discretizacion, causados


por la naturaleza de
las técnicas
empleadas para aproximar los valores de
y.

2) Errores de Redondeo, que son el resultado del


número limite de cifras significativas que pueden retener
una computadora.
Método de Euler Mejorado

Este método se basa en la misma idea del


método anterior, pero hace un refinamiento en la
aproximación, tomando un promedio entre ciertas
pendientes.

La fórmula es la siguiente:

Donde

Para entender esta fórmula, analicemos el primer


paso de la aproximación, con base en la siguiente
gráfica:

En la gráfica, vemos que la pendiente


promedio corresponde a la pendiente de la recta
bisectriz de la recta tangente a la curva en el punto de la
condición inicial y la "recta tangente" a la curva en el
punto donde es la aproximación obtenida con la
primera fórmula de Euler. Finalmente, esta recta bisectriz
se traslada paralelamente hasta el punto de la
condición inicial, y se considera el valor de esta recta
en el punto como la aproximación de Euler
MÉTODO NÚMERICO DE RUNGE KUTTA.

Uno de los métodos más utilizados para resolver numéricamente problemas de


ecuaciones diferenciales ordinarias con condiciones iniciales es el método
de Runge-Kutta de cuarto orden, el cual proporciona un pequeño margen de
error con respecto a la solución real del problema y es fácilmente programable en
un software para realizar las iteraciones necesarias.
El método de Runge-Kutta se utiliza para resolver ecuaciones diferenciales de la
forma explícita

O en su forma Explícita:

Y es sumamente útil para casos en los que la solución no puede hallarse por los
métodos convencionales (como separación de variables). Hay variaciones en el
método de Runge-Kutta de cuarto orden pero el más utilizado es el método en el
cual se elige un tamaño de paso h y un número máximo de iteraciones n.

El método Runge- Kutta para este problema está dado por la siguiente ecuación:

Para i=0,…, n-1. La solución se da a lo largo del intervalo (xo,xo+hn) , Donde


Así, siguiente valor (yi+1) es determinado por el presente valor (yi) más el
producto del tamaño del intervalo (h) por una pendiente estimada. La pendiente un
promedio ponderado de pendientes:

▪ k1 es la pendiente al principio del intervalo.


▪ k2 es la pendiente en el punto medio del intervalo, usando k1 para
determinar el valor de y en el punto xi + h/2.
▪ k3 es otra vez la pendiente del punto medio, pero ahora usando k2
para determinar el valor de y
▪ k4 es la pendiente al final del intervalo, con el valor de y determinado
por k3
Promediando las cuatro pendientes, se le asigna mayor peso a las pendientes en
el punto medio:

Ejemplo
Usar el método de Runge Kutta para aproximar dada la siguiente ecuación
diferencial:

Primero, identificamos las condiciones iniciales, el intervalo y la función:


Para poder calcular el valor de y1 , debemos calcular primeros los valores de k1
,k2 ,k3 y k4 . Tenemos entonces que para la primera iteración:

El proceso debe repetirse hasta y5 . Por lo que en la siguiente tabla se presentan


los datos obtenidos del proceso realizado hasta este número

De esta manera, concluimos que el valor obtenido de Runge-Kutta es:

y(0.5)= 1.28403
De esta manera, por integración directa
Finalmente evaluando en y(0.5 ), obtenemos:

Método de Newton-Raphson

Es otro método que se utiliza para calcular los ceros de una función real de
variable real. Aunque no sea siempre el mejor método para un problema dado, su
simplicidad formal y su rapidez de convergencia hacen que, con frecuencia, sea el
primer algoritmo a considerar para esta tarea.

El método de Newton-Raphson se basa en el desarrollo de Taylor de la función


cuya raíz se quiere calcular. Consideremos la ecuación \(f(x)=0\), y supongamos
que posee una y sólo una solución \(\alpha\in\left[a,b\right]\). Partiendo de un
punto \(x_{0}\) suficientemente cercano a dicha raíz, podemos escribir:

\[f\left(\alpha\right)=f(x_{0})+\left(\alpha-
x_{0}\right)f^{\prime}(x_{0})+\frac{\left(\alpha-
x_{0}\right)^{2}}{2}f^{\prime\prime}(x_{0}+\theta h)\]

con \(0<\theta<1\), \(h=\alpha-x_0\).

Suponiendo que \(f^{\prime}(x)\) no se anula en \([a,b]\), y que la


diferencia \(\alpha-x_{0}\) es muy pequeña, el método de Newton-Raphson
consiste en despreciar el sumando en \(\left(\alpha-x_{0}\right)^{2}\) del desarrollo
anterior, quedándonos con la aproximación:

\[f\left(\alpha\right)\cong f(x_{0})+\left(\alpha-
x_{0}\right)f^{\prime}(x_{0})\] Como \(\alpha\) es la solución de la
ecuación \(f\left(x\right)=0\), se tiene que \(f(\alpha)\)=0 y por tanto, de la expresión
anterior se sigue que:

\[f(x_{0})+\left(\alpha-x_{0}\right)f^{\prime}(x_{0})\cong 0\]

y despejando \(\alpha\) resulta:

\[\alpha\cong x_{0}-\frac{f(x_{0})}{f^{\prime}(x_{0})}=x_1\]

Así pues, si se parte de un valor \(x_0\) próximo a \(\alpha\), el


valor \(x_1\) obtenido de esta forma proporciona un valor también próximo a la
raíz \(\alpha\). Bajo determinadas condiciones (las veremos en un momento)
ocurre que \(x_1\) está más próximo a \(\alpha\) que \(x_0\). En tales condiciones,
como \(x_1\) es un valor más cercano a la solución \(\alpha\) que \(x_0\), podemos
repetir el razonamiento anterior para acercarnos aún más a \(\alpha\), partiendo
ahora de \(x_1\). Ello nos conduce a una segunda aproximación:

\[x_{2}=x_{1}-\frac{f(x_{1})}{f^{\prime}(x_{1})}\]
De la misma manera podemos obtener una nueva (y mejor) aproximación \(x_3\) a
partir de \(x_2\) mediante:

\[x_{3}=x_{2}-\frac{f(x_{2})}{f^{\prime}(x_{2})}\]

El proceso puede seguir repitiéndose sucesivamente hasta encontrar un \(x_k\) lo


suficientemente próximo a la raíz \(\alpha\).

El algoritmo de Newton-Raphson consiste entonces en partir de una aproximación


inicial \(x_0\), y generar recursivamente la sucesión \(\{x_{i}\}_{i=1}^{n}\) con la
fórmula recurrente:

\[x_{i+1}=x_{i}-\frac{f(x_{i})}{f^{\prime}(x_{i})}\]

El algoritmo parará en aquél valor \(i\) para el que la diferencia \(\left|x_{i+1}-


x_{i}\right|\) (o bien la diferencia en términos relativos \(\left|\frac{x_{i+1}-
x_{i}}{x_{i}}\right|\)) sea lo suficientemente pequeña.

Obviamente, para que este algoritmo funcione tienen que ocurrir dos cosas:

• Se debe partir de una aproximación inicial \(x_0\) de la solución \(\alpha\). El


método, como hemos visto, parte de suponer que se puede despreciar el
sumando en \((\alpha-x_{0})^{2}\) del desarrollo de Taylor de la función.
Pero si la aproximación inicial está lejos de la solución, al despreciar el
valor \((\alpha-x_{0})^{2}\) podemos estar cometiendo un error muy grande y
el método de Newton termina por alejarnos de la solución en lugar de
acercarnos a ella. En la práctica el valor inicial para aplicar el método de
Newton-Raphson puede obtenerse tras ejecutar algunas iteraciones del
método de bisección.
• Deben darse las condiciones para que en cada iteración el valor \(x_i\) esté
mas cerca de \(\alpha\) que el de la iteración anterior \(i-1\). Para entender
cuales son tales condiciones observemos que la ecuación:

\[y=f(x_{0})+\left(x-x_{0}\right)f^{\prime}(x_{0})\]

corresponde s la recta tangente a \(f(x)\) en \(x_0\). Por tanto la solución \(x_1\) de


la ecuación:

\[f(x_{0})+\left(x-x_{0}\right)f^{\prime}(x_{0}) = 0\]

es el punto de corte de la recta anterior con el eje de abcisas. La siguiente imagen


(extraida de la entrada sobre el método de Newton en la Wikipedia) ilustra el
funcionamiento del método:
Así pues, para que el método de Newton-Raphson converja, la función \(f(x)\) debe
ser derivable en el intervalo considerado, y en dicho intervalo no debe tener
puntos de inflexión, ni máximos ni mínimos. En la siguiente figura podemos
apreciar, como aún partiendo de un punto cercano a la raíz buscada, en un caso el
método converge y en el otro caso no:
El siguiente teorema muestra condiciones suficientes para la convergencia del
método de Newton:

Teorema: (Condiciones de convergencia para el método de Newton-Raphson).


Supongamos que \(f\in C^{2}([a,b])\) (f admite primera y segunda derivadas) y
verifica:

i. \(f(a)f(b)<0\), es decir, \(f(x)\) tiene una raíz en \((a,b)\).


ii. \(f^{\prime}(x)\neq0\;\;\;\; x\in\left[a,b\right]\). En otras palabras, la raíz es
única.
iii. \(f^{\prime\prime}(x)\neq0\;\;\;\; x\in\left[a,b\right]\). Esto es, la función es
cóncava o convexa, pero no tiene puntos de inflexión en el intervalo.

Entonces, existe una única raíz \(\alpha\) de \(f\) en \([a,b]\) y, la


sucesión \(\{x_{n}\}\) generada por el método de Newton converge hacia \(\alpha\),
para cualquier valor inicial \(x_{0}\in [a,b]\) que cumpla que:

\[f(x_{0})f^{\prime\prime}(x_{0})\geq0\].

Ejemplo: La función \(f(x)=x^{2}-x-\frac{1}{2}\) tiene una y sólo una raíz en \([-


0.5,0]\). Comprobar si se cumplen las condiciones del teorema anterior. En caso
afirmativo hallar la solución para las condiciones iniciales \(x_0=-
\frac{1}{2}\), \(x_0=-\frac{2}{5}\) y \(x_0=-0.3\)

Métodos de interpolación

La interpolación es un proceso para estimar valores que quedan entre puntos de


datos conocidos.
La interpolación implica construir una función f cuyo valor sea el de unos valores
de datos proporcionados yi, en unos sitios de datos proporcionados xi, de forma
que f(xi) = yi, para todo i.
La interpolación f se construye normalmente como una función única de la forma
f(x)=∑ fj(x)aj
j
cuyos valores coinciden con los datos proporcionados, eligiendo las funciones fj de
forma "adecuada".
En la interpolación por splines, se elige la fj para que sea las n interpolaciones B-
spline consecutivas Bj(x) = B(x|tj,...,tj+k), j = 1:n, de orden k para alguna secuencia
de nudos t1 ≤ t2 ≤ ... ≤ tn + k.
Método Descripción
Lineal Interpolación lineal. Este método ajusta un polinomio lineal distinto entre cada par de
puntos de datos (en el caso de una curva) o entre conjuntos de tres puntos (en el caso de
una superficie).
Vecino Interpolación por el vecino más cercano. Este método establece el valor de un punto
más interpolado como el valor del punto de datos más cercano. Por lo tanto, este método no
cercano genera ningún punto de datos nuevo.
Splines Interpolación por splines cúbicos. Este método ajusta un polinomio cúbico distinto entre
cúbicos cada par de puntos de datos (en el caso de una curva) o entre conjuntos de tres puntos
(en el caso de una superficie).
Que Interpolación cúbica por tramos de Hermite (PCHIP, por su sigla en inglés). Este método
conserva conserva la monotonicidad y la forma de los datos.
la forma
Solo para curvas.
Biarmónica Método griddata de MATLAB® 4.
(v. 4)
Solo para superficies.
Splines de Interpolación por splines de thin-plate. Este método ajusta superficies suaves que también
thin-plate dan buen resultado para extrapolar.
Solo para superficies.
Acerca de los métodos de interpolación
En el caso de superficies, el tipo de ajuste interpolación usa la
función scatteredInterpolant de MATLAB para los métodos lineal y por el vecino
más cercano, y la función griddata de MATLAB para los métodos cúbico y
biarmónico. El método de los splines de thin-plate usa la función tpaps.
El tipo de interpolación que se debe usar depende de las características de los
datos que se van a ajustar, la suavidad requerida para la curva, las
consideraciones sobre rapidez, los requisitos de análisis posteriores al ajuste, etc.
Los métodos lineal y por el vecino más cercano son rápidos, pero las curvas
resultantes no son muy suaves. Los métodos por splines cúbicos, de conservación
de la forma y biarmónico (v. 4) son más lentos, pero las curvas resultantes son
muy suaves.
Por ejemplo, aquí se muestran los datos de una reacción nuclear del
archivo carbon12alpha.mat con un ajuste de interpolación por el vecino más
cercano y un ajuste de interpolación que conserva la forma (PCHIP). Es evidente
que la interpolación por el vecino más cercano no sigue los datos igual que la
interpolación que conserva la forma. La diferencia entre ambos ajustes puede ser
muy importante si está interpolando. Sin embargo, si desea integrar los datos para
hacerse una idea de la fuerza total de la reacción, ambos ajustes proporcionan un
resultado casi idéntico cuando la anchura de los bins de integración es razonable.
Las interpolaciones se definen como polinomios por tramos porque la curva
ajustada se construye a partir de muchos tramos (excepto en el caso de
la Biharmonic para superficies, al ser una interpolación mediante función de base
radial). En el caso de las interpolaciones PCHIP y por splines cúbicos, cada tramo
se describe mediante cuatro coeficientes, que la toolbox calcula usando un
polinomio cúbico (es decir, de tercer grado).
.
Dado un conjunto de datos, es posible ajustar un único polinomio de interpolación
"global" cuyo grado sea menor en una unidad al número de puntos de datos. Sin
embargo, un ajuste así puede tener un comportamiento muy errático entre puntos
de datos. En cambio, los polinomios por tramos descritos aquí siempre producen
un ajuste con buen comportamiento, por lo que son más flexibles que los
polinomios paramétricos y pueden usarse eficazmente en una gama más amplia
de conjuntos de datos.

Derivación numérica
Consideremos una función f(x) de la cual se conoce un conjunto discreto de
valores (x0, f0), (x1, f1),...,(xn, fn). El problema que vamos a abordar es el de
calcular la derivada de la función en un punto x que en principio no tiene porqué
coincidir con alguno de los que figuran en los datos de que disponemos. La forma
más sencilla de resolver el problema de la diferenciación numérica consiste en
estimar la derivada utilizando fórmulas obtenidas mediante la aproximación de
Taylor, que se denominan fórmulas de diferencias finitas.

La derivación numérica es una técnica de análisis numérico para calcular una


aproximación a la derivada de una función en un punto utilizando los valores y
propiedades de la misma.

Por definición la derivada de una función f(x) es:

Las aproximaciones numéricas que podamos hacer (para h > 0) serán:

Diferencias hacia adelante:

Diferencias hacia atrás:

La aproximación de la derivada por este método entrega resultados aceptables con


un determinado error. Para minimizar los errores se estima que el promedio de
ambas entrega la mejor aproximación numérica al problema dado:
Diferencias centrales:
Integración numérica

Integración numérica: Método del trapecio, Métodos de Simpson 1/3 y 3/8.

En matemáticas la regla del trapecio es un método de integración numérica, es


decir, un método para calcular aproximadamente el valor de la integral definida.

La función f(x) (en azul) es aproximada por la función lineal (en rojo).

La regla se basa en aproximar el valor de la integral de f(x) por el de la función


lineal que pasa a través de los puntos (a, f(a)) y (b,f(b)). La integral de ésta es
igual al área del trapecio bajo la gráfica de la función lineal. Se sigue que

y donde el término error corresponde a:


Siendo ξ un número perteneciente al intervalo [a,b].

Regla del trapecio compuesta

La regla del trapecio compuesta o regla de los trapecios es una forma de


aproximar una integral definida utilizando n trapecios. En la formulación de este
método se supone que f es continua y positiva en el intervalo [a,b]. De tal modo la
integral definida

representa el área de la región delimitada por la gráfica de f y el eje x,


desde x=a hasta x=b. Primero se divide el intervalo [a,b] en nsubintervalos, cada
uno de ancho Δx = (b − a) / n.
Después de realizar todo el proceso matemático se llega a la siguiente fórmula:

Donde y n es el número de divisiones.


La expresión anterior también se puede escribir como:

REGLAS DE SIMPSON:
Ademas de aplicar la regla trapezoidal con segmentos cada vez mas finos, otra
manera de obtener una estimacion mas exacta de una integral, es la de usar
polinomios de orden superior para conectar los puntos.
A las formulas resultantes de calcular la integral bajo estos polinomios se les llama
reglas de Simpson.

· REGLA DE SIMPSON DE 1/3

La regla de Simpson de 1/3 resulta cuando se sustituye un polinomio de segundo


orden en la ecuacion:

Si a y b se denominan como x0 y x2 , y f2 (x) se representa mediante un polinomio


de Lagrange de segundo orden, entonces la integral es:

Despues de integrar y de reordenar terminos, resulta la siguiente ecuacion:

· REGLA DE SIMPSON 1/3 DE SEGMENTOS MULTIPLES.

Asi como la regla trapezoidal, la regla de Simpson se mejora dividiendo el intervalo


de integracion en segmentos de igual anchura.
h=(b-a)/n
La integral total se representa como:

Sustituyendo la regla de Simpson en cada una de las integrales individuales se


obtiene:

reordenando los terminos, se obtiene:

· REGLA DE SIMPSON DE 3/8.

De manera similar a la derivacion de la regla trapezoidal y a la regla de Simpson


de 1/3, se ajustan polinomios de Lagrange de tercer orden a cuatro puntos e
integrar;

para obtener
En donde
h=(b-a)/3.

A esta ecuacion se le llama regla de Simpson de 3/8 porque h es un multiplo de


3/8. Esta es la tercera regla cerrada de integracion de Newton-Cotes.

· REGLA DE SIMPSON 3/8 MULTIPLES.

La regla de Simpson de 1/3 es, en general, el mrtodo de preferencia ya que


alcanza exactitud de tercer orden con tres puntos en vez de los de cuatro puntos
necesarios para la version de 3/8.
No obstante, la regla de 3/8 tiene utilidad en aplicaciones de segmentos multiples
cuando el numero de segmentos es impar.
Para una estimacion de cinco segmentos una alternativa es la de aplicar la regla
de Simpson de 1/3 a los primeros segmentos y la regla de Simpson de 3/8 a los
ultimos tres.
De esta manera, se obtiene una estimacion con exactitud de tercer orden a traves
del intervalo completo

Importancia de los métodos numéricos.


Los métodos numéricos son técnicas mediante las cuales es posible formular
problemas matemáticos de tal forma que puedan resolverse usando operaciones
aritméticas.
Los métodos numéricos nos vuelven aptos para entender esquemas numéricos a
fin de resolver problemas matemáticos, de ingeniería y científicos en una
computadora, reducir esquemas numéricos básicos, escribir programas y
resolverlos en una computadora y usar correctamente el software existente para
dichos métodos y no solo aumenta nuestra habilidad para el uso de computadoras
sino que también amplia la pericia matemática y la comprensi6n de los principios
científicos básicos.
El análisis numérico trata de diseñar métodos para “ aproximar” de una manera
eficiente las soluciones de problemas expresados matemáticamente.
El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a
problemas complejos utilizando sólo las operaciones más simples de la aritmética.
Se requiere de una secuencia de operaciones algebraicas y lógicas que producen
la aproximación al problema matemático.
Los métodos numéricos pueden ser aplicados para resolver procedimientos
matemáticos en:
· Cálculo de derivadas
· Integrales
· Ecuaciones diferenciales
· Operaciones con matrices
· Interpolaciones
· Ajuste de curvas
· Polinomios
Los métodos numéricos son adecuados para la solución de problemas comunes
de ingeniería, ciencias y administración, utilizando computadoras electrónicas.
En el proceso de solución de problemas por medio de computadoras se requieren
los pasos siguientes.

* Especificación del problema. Con esto se indica que se debe identificar


perfectamente el problema y sus limitaciones, las variables que intervienen y los
resultados deseados.

*Análisis. Es la formulación de la solución del problema denominada también


algoritmo, de manera que se tenga una serie de pasos que resuelvan el problema
y que sean susceptibles de ejecutarse en la computadora.

*Programación. Este paso consiste en traducir el método de análisis o algoritmo


de solución expresándole como una serie detallada de operaciones.

*Verificación. Es la prueba exhaustiva del programa para eliminar todos los


errores que tenga de manera que efectúe lo que desea los resultados de prueba
se comparan con soluciones conocidas de problemas ya resueltos.

*Documentación. Consiste en preparar un instructivo del programa de manera


que cualquier persona pueda conocer y utilizar el programa.
*Producción. Es la última etapa en la que solo se proporcionan datos de entrada
del programa obteniéndose las soluciones correspondientes.
De lo antes expuesto se puede concluir que es necesario un conocimiento
completo del problema, y de los campos de las matemáticas relacionados con el
que es precisamente el objeto de los métodos numéricos para computadora.

Si los métodos numéricos son los algoritmos (conjuntos detallados y secuenciados


de operaciones) que nos llevan hasta las soluciones estimadas de los problemas,
el estudio de éstos y del análisis de errores que pueden llevar asociados
constituye el Análisis Numérico.
De acuerdo con nuestros objetivos, nosotros nos concentraremos muy
especialmente en los métodos numéricos y rebajaremos el rigor del análisis de
errores, propio de quien tiene por centro el método numérico mismo y no tanto su
aplicación inmediata, sin olvidarnos de él. Es decir, seguiremos la línea de los
textos de ``Métodos Numéricos" más que la de los textos de ``Análisis Numérico".

CIFRAS SIGNIFICATIVAS

En esta obra se trata de manera extensa con aproximaciones que se relacionan


con el manejo de números. En consecuencia, antes de analizar los errores
asociados con los métodos numéricos, es útil repasar algunos conceptos básicos
referentes a la representación aproximada de los números mismos. Cuando se
emplea un número para realizar un cálculo, debe haber seguridad de que pueda
usarse con confianza. Por ejemplo, la figura 3.1 muestra un velocímetro y un
odómetro (contador de kilometraje) de un automóvil. Con un simple vistazo al
velocímetro se observa que el vehículo viaja a una velocidad comprendida entre
48 y 49 km/h. Como la aguja está más allá de la mitad entre las marcas del
indicador, es posible asegurar que el automóvil viaja aproximadamente a 49 km/h.
Tenemos confianza en este resultado, ya que dos o más individuos que hicieran
esta lectura llegarían a la misma conclusión. Sin embargo, supongamos que se
desea obtener una cifra decimal en la estimación de la velocidad. En tal caso,
alguien podría decir 48.8, mientras que otra persona podría decir 48.9 km/h. Por lo
tanto, debido a los límites del instrumento,
únicamente se emplean con confianza los dos primeros dígitos. Para estimaciones
del tercer dígito (o más allá) sólo se considerarían aproximaciones. Sería ridículo
afirmar, considerando el velocímetro de la figura, que el automóvil viaja a
48.8642138 km/h. En contraste, el odómetro muestra hasta seis dígitos confiables.
De la figura 3.1 se concluye que el automóvil ha recorrido un poco menos de 87
324.5 km durante su uso. Aquí el séptimo dígito (y los siguientes) resultan
inciertos.

El concepto de cifras o dígitos significativos se ha desarrollado para designar


formalmente la confiabilidad de un valor numérico. Las cifras significativas de un
número son aquellas que pueden utilizarse en forma confiable. Se trata del
número de dígitos que se ofrecen con certeza, más uno estimado. Por ejemplo, el
velocímetro y el odómetro de la figura 3.1 muestran lecturas de hasta tres y siete
cifras significativas, respectivamente. Para el velocímetro, los dos dígitos seguros
son 48. Por convención al dígito estimado se le da el valor de la mitad de la escala
menor de división en el instrumento de medición. Así, la lectura del velocímetro
consistirá de las tres cifras significativas: 48.5. En forma similar, el odómetro dará
una lectura con siete cifras significativas, 87 324.45. Aunque, por lo común,
determinar las cifras significativas de un número es un procedimiento sencillo, en
algunos casos genera cierta confusión. Por ejemplo, los ceros no siempre son
cifras significativas, ya que pueden usarse sólo para ubicar el punto decimal: los
números 0.00001845, 0.0001845 y 0.001845 tienen cuatro cifras significativas.
Asimismo, cuando se incluye ceros en números muy grandes, no queda claro
cuántos son significativos.
Por ejemplo, el número 45 300 puede tener tres, cuatro o cinco dígitos
significativos, dependiendo de si los ceros se conocen o no con exactitud. La
incertidumbre se puede eliminar utilizando la notación científica, donde 4.53 × 104,
4.530 × 104, 4.5300 × 104 muestran, respectivamente, que el número tiene tres,
cuatro y cinco cifras significativas.

El concepto de cifras significativas tiene dos implicaciones importantes en el


estudio de los métodos numéricos.

1. Como se mencionó en el problema de la caída del paracaidista, los métodos


numéricos dan resultados aproximados. Por lo tanto, se deben desarrollar criterios
para especificar qué tan confiables son dichos resultados. Una manera de hacerlo
es en términos de cifras significativas. Por ejemplo, es posible afirmar que la
aproximación es aceptable siempre y cuando sea correcta con cuatro cifras
significativas.

2. Aunque ciertas cantidades tales como p, e, o 7 representan cantidades


específicas, no se pueden expresar exactamente con un número finito de dígitos.
Por ejemplo,

π = 3.141592653589793238462643...

hasta el infinito. Como las computadoras retienen sólo un número finito de cifras
significativas, tales números jamás se podrán representar con exactitud. A la
omisión del resto de cifras significativas se le conoce como error de redondeo.

Los errores de redondeo y el uso de cifras significativas para expresar nuestra


confianza en un resultado numérico se estudiarán con mayor detalle en las
siguientes secciones. Además, el concepto de cifras significativas tendrá mucha
importancia en la definición de exactitud y de precisión en la siguiente sección.

EXACTITUD Y PRECISIÓN

Los errores en cálculos y medidas se pueden caracterizar con respecto a su


exactitud y su precisión. La exactitud se refiere a qué tan cercano está el valor
calculado o medido del valor verdadero. La precisión se refiere a qué tan cercanos
se encuentran, unos de otros, diversos valores calculados o medidos. Estos
conceptos se ilustran gráficamente utilizando la analogía con una diana en la
práctica de tiro. Los agujeros en cada blanco de la figura 3.2 se consideran como
las predicciones con una técnica numérica; mientras que el centro del blanco
representa la verdad. La inexactitud (conocida también como sesgo) se define
como una desviación sistemática del valor verdadero. Por lo tanto, aunque los
disparos en la figura 3.2c están más juntos que los de la figura 3.2a, los dos casos
son igualmente inexactos, ya que ambos se centran en la esquina superior
izquierda del blanco. La imprecisión (también llamada incertidumbre), por otro
lado, se refiere a la magnitud en la dispersión de los disparos. Por consiguiente,
aunque las figuras 3.2b y 3.2d son igualmente exactas (esto es, igualmente
centradas respecto al blanco), la última es más precisa, pues los disparos están
agrupados en forma más compacta.
Los métodos numéricos deben ser lo suficientemente exactos o sin sesgo para
satisfacer los requisitos de un problema particular de ingeniería. También deben
ser suficientemente precisos para ser adecuados en el diseño de la ingeniería. En
este libro se usa el término error para representar tanto la inexactitud como la
imprecisión en las predicciones. Con dichos conceptos como antecedentes, ahora
analizaremos los factores que contribuyen al error en los cálculos numéricos.

Incertidumbre en los datos


Algunas veces se introducen errores en un análisis debido a la incertidumbre en
los datos físicos obtenidos, sobre los que se basa el modelo. Por ejemplo,
suponga que se desea probar el modelo de la caída del paracaidista, haciendo
que un individuo salte repetidas veces, midiendo su velocidad después de un
intervalo de tiempo específico. Sin duda, se asociaría cada medición con una
incertidumbre, ya que el paracaidista caerá con más rapidez en unos saltos que en
otros. Estos errores pueden mostrar inexactitud e imprecisión. Si los instrumentos
constantemente subevalúan o sobrevalúan las mediciones de la velocidad, se
estará tratando con un instrumento inexacto o desviado. Por otro lado, si las
medidas son aleatoriamente grandes y pequeñas, entonces se trata de una
cuestión de precisión. Los errores de medición se pueden cuantificar resumiendo
los datos con uno o más estadísticos, que den tanta información como sea
posible, respecto a características específicas de los datos. Tales estadísticos
descriptivos a menudo se seleccionan para obtener 1. la posición del centro de la
distribución de los datos y 2. el grado de dispersión de los datos. Como tales,
estos estadísticos ofrecen una medida de la desviación e imprecisión,
respectivamente. En la parte cinco se regresa el tema de caracterización de
incertidumbre de datos. Aunque se debe estar consciente de los errores por
equivocación, de los errores de formulación y de la incertidumbre en los datos, los
métodos numéricos utilizados para construir modelos pueden estudiarse, en la
mayoría de los casos, en forma independiente de estos errores. Por consiguiente,
en la mayor parte de este libro se supondrá que no hay errores por
equivocaciones, que el modelo es adecuado y que se está trabajando sin errores
en las mediciones de los datos. En estas condiciones es posible estudiar los
métodos numéricos sin complicaciones.

Método de bisección

Cuando se aplicaron las técnicas gráficas, se observó que f(x) cambió de signo a
ambos lados de la raíz. En general, si f(x) es real y continúa en el intervalo que va
desde xl hasta xu y f(xl) y f(xu) tienen signos opuestos, es decir,

entonces hay al menos una raíz real entre xl y xu. Los métodos de búsqueda
incremental aprovechan esta característica localizando un intervalo en el que la
función cambie de signo. Entonces, la localización del cambio de signo (y, en
consecuencia, de la raíz) se logra con más exactitud al dividir el intervalo en varios
subintervalos. Se investiga cada uno de estos subintervalos para encontrar el
cambio de signo. El proceso se repite y la aproximación a la raíz mejora cada vez
más en la medida que los subintervalos se dividen en intervalos cada vez más
pequeños.}

El método de bisección, conocido también como de corte binario, de partición de


intervalos o de Bolzano, es un tipo de búsqueda incremental en el que el intervalo
se divide siempre a la mitad. Si la función cambia de signo sobre un intervalo, se
evalúa el valor de la función en el punto medio. La posición de la raíz se determina
situándola en el punto medio del subintervalo, dentro del cual ocurre un cambio de
signo. El proceso se repite hasta obtener una mejor aproximación. En la figura 5.5
se presenta un algoritmo sencillo para los cálculos de la bisección. En la figura 5.6
se muestra una representación gráfica del método. Los siguientes ejemplos se
harán a través de cálculos reales involucrados en el método.

• Ejemplo;Planteamiento del problema. Emplee el método de bisección para


resolver el mismo problema que se resolvió usando el método gráfico del
ejemplo 5.1. Solución. El primer paso del método de bisección consiste en
asignar dos valores iniciales a la incógnita (en este problema, c) que den
valores de f(c) con diferentes signos. En la figura 5.1 se observa que la
función cambia de signo entre los valores 12 y 16. Por lo tanto, la
estimación inicial de la raíz xr se encontrará en el punto medio del intervalo

Dicha aproximación representa un error relativo porcentual verdadero de et


= 5.3% (note que el valor verdadero de la raíz es 14.7802). A continuación
calculamos el producto de los valores en la función en un límite inferior y en
el punto medio:
se crea un nuevo intervalo redefiniendo el límite inferior como 14 y determinando
una nueva aproximación corregida de la raíz

la cual representa un error porcentual verdadero et = 1.5%. Este proceso se repite


para obtener una mejor aproximación. Por ejemplo,

Por lo tanto, la raíz está entre 14 y 15. El límite superior se redefine como 15 y la
raíz estimada para la tercera iteración se calcula así:

que representa un error relativo porcentual et = 1.9%. Este método se repite hasta
que el resultado sea suficientemente exacto para satisfacer sus necesidades.

En el ejemplo anterior, se observa que el error verdadero no disminuye con cada


iteración. Sin embargo, el intervalo donde se localiza la raíz se divide a la mitad en
cada paso del proceso. Como se estudiará en la siguiente sección, el ancho del
intervalo proporciona una estimación exacta del límite superior del error en el
método de bisección.

Tipos de Errores
Por razones prácticas, sólo puede manejarse una cantidad finita de bits para cada
número en una computadora, y esta cantidad o longitud varía de una máquina a
otra. Por ejemplo, cuando se realizan cálculos de ingeniería y ciencia, es mejor
trabajar con una longitud grande; por otro lado, una longitud pequeña es más
económica y útil para cálculos y procedimientos administrativos.
Los errores numéricos se generan con el uso de aproximaciones para representar
las operaciones y cantidades matemáticas. El error numérico es una medida del
ajuste o cálculo de una magnitud con respecto al valor real o teórico que dicha
magnitud tiene. Un aspecto importante de los errores numéricos es su estabilidad
numérica. Dicha estabilidad se refiere a como dentro de un algoritmo de análisis
numérico el error de aproximación es propagado dentro del propio algoritmo.
El concepto de error es consustancial con el cálculo numérico. En todos los
problemas es fundamental hacer un seguimiento de los errores cometidos a fin de
poder estimar el grado de aproximación de la solución que se obtiene.

1.- Error absoluto.


Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede
ser positivo o negativo, según si la medida es superior al valor real o inferior (la
resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida.
El error absoluto de una medida no nos informa por sí solo de la bondad de la
misma. Es evidente, que no es igual de grave tener un error absoluto de 1 cm al
medir la longitud de una carretera que al medir la longitud de un folio.
El error absoluto es el valor absoluto de la diferencia entre el valor exacto y el
valor aproximado. Hay autores que definen el error absoluto como la diferencia
entre el valor aproximado y el valor exacto, donde la diferencia únicamente está en
el signo ya que no se toma como valor absoluto. Sin embargo, podríamos tomar
como fórmula general la siguiente expresión:

Cuando el valor exacto no es conocido, por ejemplo, en cualquier medida física, se


habla de cota del error absoluto, que será un valor superior al error absoluto que
asegure que el error cometido nunca excederá a ese valor. Si llamamos c a la cota
del error absoluto de un número, se cumplirá:

2.- Error relativo.


El error relativo es el cometido en la estimación del valor de un número, es el valor
absoluto del cociente entre su error absoluto y el valor exacto. El error relativo da
idea de la precisión de una medida, y se suele manejar en forma de porcentaje
(%).
Muchas veces conocemos el error absoluto (Ea), pero es imposible conocer el
valor exacto (A), en cuyo caso, para hallar el error relativo (Er) dividimos el error
absoluto entre el valor aproximado o considerado como exacto.
También puede hablarse de cota del error relativo, que si la representamos
como β, se cumplirá:
A – A´) / A ≤ β
3.- Error porcentual.
El error porcentual es fácil de definir, es el resultado de multiplicar el error relativo
por 100.

ERP = ER X 100

4.- Error de redondeo.


A continuación se analizarán brevemente algunas consecuencias de utilizar el
sistema binario y una longitud de palabra finita.
Como no es posible guardar un numero binario de longitud infinita o un numero de
mas dígitos de los que posee la mantisa de la computadora que se esta
empleando, se almacena sólo un numero finito de estos dígitos; como
consecuencia, se comete automáticamente un pequeño error, conocido como
error de redondeo, que al repetirse muchas veces puede llegar a ser considerable.
Ya que la mayor parte de las computadoras tienen entre 7 y 14 cifras
significativas, los errores de redondeo parecerían no ser muy importantes. Sin
embargo, hay dos razones del porqué pueden resultar críticos en algunos métodos
numéricos:
Ciertos métodos requieren cantidades extremadamente grandes para obtener una
respuesta. Además, estos cálculos a menudo dependen entre si. Esto es, los
cálculos posteriores son dependientes de los anteriores. En consecuencia, aunque
un error de redondeo individual puede ser muy pequeño, el efecto de acumulación
en el transcurso de la gran cantidad de cálculos puede ser significativo.
El efecto del redondeo puede ser exagerado cuando se llevan a cabo operaciones
algebraicas que emplean números muy pequeños y muy grandes al mismo
tiempo. Ya que en este caso se presenta en muchos métodos numéricos, el error
de redondeo puede resultar de mucha importancia.

5.- Error de truncamiento.


Cuando una expresión matemática se remplaza por una fórmula más simple, se
introduce un error, conocido como error de truncamiento.
Los errores de truncamiento son aquellos que resultan al usar una aproximación
en lugar de un procedimiento matemático exacto. Estos tipos de errores son
evaluados con una formulación matemática: la serie de Taylor.
Taylor es una formulación para predecir el valor de la función en Xi+1 en términos
de la función y de sus derivadas en una vecindad del punto Xi. Siendo el término
final:
Rn= ((ƒ(n+1) (ξ))/(n+1)!)hn+1
En general, la expansión en serie de Taylor de n-ésimo orden es exacta par aun
polinomio de n-ésimo orden. Para otras funciones continuas diferenciables, como
las exponenciales o senoidales, no se obtiene una estimación exacta mediante un
número finito de términos. Cada una de los términos adicionales contribuye al
mejoramiento de la aproximación, aunque sea un poco.
Conclusión
En el transcurso que fuimos este trabajo pudimos entender para que nos sirven
los métodos numéricos en que nos benefician, que es para resolver una ecuación
de un modo sencillo Pudiendo obtener un resultado aproximado. En conclusión,
como podemos ver que los métodos numéricos han venido a ser muy importantes
porque pueden aplicarse en distintos campos para encontrar resultados
aproximados a sistemas complejos utilizando solo las operaciones matemáticas
simples, es importante conocer los métodos numéricos para facilitarnos la
resolución de problemas matemáticos que tienen múltiples aplicaciones en la vida
real

También podría gustarte