Está en la página 1de 7

INTRODUCCIÓN

Hoy en día, gran parte de la tecnología actual depende de la solución de


modelos matemáticos, desde la programación empotrada de una calculadora
científica y el cálculo estructural de un edificio multinivel con estructuras de
acero, hasta el diseño y simulación de aeronaves y vuelos espaciales. La
solución de un modelo matemático relativamente sencillo puede obtenerse de
manera analítica.

En ocasiones, para la gran mayoría de los modelos matemáticos del mundo


real, las soluciones analíticas pueden no existir o ser extremadamente
complejas, por lo cual se recurre a métodos numéricos que aproximen las
soluciones dentro de ciertos márgenes de tolerancia.

El análisis de los métodos numéricos nos permite realizar estimaciones tanto


de la eficiencia o complejidad de los algoritmos asociados, así como de la
confiabilidad de los resultados numéricos obtenidos durante su aplicación.

Entre las disciplinas que hacen uso intensivo de los métodos numéricos
podemos mencionar:

 Matemáticas financieras

 Análisis de elemento finito

 Análisis estructural

 Química computacional

 Investigación de operaciones

 Electromagnetismo computacional

 Mecánica computacional

 Procesamiento de imágenes

 Procesamiento de señales
 Simulación por computadora

 Computación multi-escala

 Meteorología 

DESARROLLO

Los métodos numéricos no es el estudio de un matemático en particular, su


propósito es el desarrollo de métodos de métodos para la solución de diversos
problemas matemáticos mediante una infinita cantidad de operaciones
numéricas. La importancia de esta rama de la matemática no es el problema en
particular, si no el método que se aplicara. Por ende, es importante comprender
en qué momento de la vida cotidiana nos sirve estos métodos. En el presente
trabajo se analizará como surgen estos mismos, declarar la diferencia que
existe entre exactitud y precisión en relación con el error. De igual manera se
comentarán los errores más comunes que existen. Así como también es
importante mencionar las herramientas computaciones para la obtención de
soluciones de manera fácil y práctica.

PROCESO EVOLUTIVO

AÑO 200 A.C

Tablas Babilónicas, se utilizaron como métodos para aproximar medidas de


triángulos y círculos.

AÑO 220 A. C

Arquímedes usó los polígonos regulares como aproximaciones del círculo y


dedujo las desigualdades

SIGLO XVII 

El cálculo numérico fue centrado principalmente en la preparación de tablas


astronómicas.

AÑO 1614
Neper publicó la primera tabla de logaritmos

AÑO 1845

Con la predicción de la existencia y la localización del planeta Neptuno por


Adam y Leverrier, la importancia científica del análisis numérico quedó
establecida de una vez y para siempre

ACTUALIDAD

Se puede estudiar la historia de los métodos numéricos estadísticamente y se


encontrará que, alrededor del 90% de ellos han sido desarrollados en los
últimos 70 años. Si bien gran parte de los métodos numéricos estudiados en
este libro no corresponden a los desarrollados a partir de 1940, el 10% restante
sí surgieron como curiosidades matemáticas con baja aplicabilidad por no
disponer en su momento de una plataforma de implementación como los son
las computadoras. Pero son actualmente suficientes para resolver la mayoría
de los problemas genéricos de simulación. Los métodos numéricos
desarrollados en estos últimos 70 años son aplicables cada uno a problemas
altamente específicos. Los albores del desarrollo de los métodos numéricos
apenas pueden rastrearse en la historia, y están referidos a los tiempos
anteriores a nuestra era con las civilizaciones egipcia y árabe que resolvieron
problemas que sólo después pudieron resolverse analíticamente mediante el
álgebra (un caso particular es la solución de ecuaciones de segundo grado
antes de que se conociera una fórmula para resolverla) y que no perdieron
vigencia por sentar las bases de desarrollos para resolver problemas que hoy
se saben algebraicamente irresolubles.

Desde finales de la década de los cuarenta, la amplia disponibilidad de las


computadoras digitales ha llevado a una verdadera explosión en el uso y
desarrollo de los métodos numéricos. Al principio, este crecimiento estaba
limitado por el costo de procesamiento de las grandes computadoras
(mainframes), por lo que muchos ingenieros seguían usando simples
procedimientos analíticos en una buena parte de su trabajo.
Vale la pena mencionar que la reciente evolución de computadoras personales
de bajo costo ha permitido el acceso, de mucha gente, a las poderosas
capacidades de cómputo. Además, existen diversas razones por las cuales se
deben estudiar los métodos numéricos:

1. Son herramientas muy poderosas para la solución de problemas. Son


capaces de manipular sistemas de ecuaciones grandes, manejar no
linealidades y resolver geometrías complicadas, es decir, aumentan la habilidad
para resolver problemas.

2. Hay muchos problemas que no pueden resolverse con programas


prediseñados. Si se tiene el conocimiento y habilidad para programar entonces
se tiene la capacidad de diseñar sus propios programas para resolver los
problemas, sin tener que comprar un software costoso.

4. Son un vehículo eficiente para aprender a utilizar las computadoras. Es de


amplio conocimiento que una forma práctica de aprender programación
consiste en escribir programas para computadora. Debido a que la mayoría de
los métodos numéricos están diseñados para usarlos en las computadoras, son
ideales para tal propósito.

ERRORES DE TRUNCAMIENTO Y LA SERIE DE TAYLOR

Los errores de truncamiento son aquellos que resultan al usar una


aproximación en lugar de un procedimiento matemático exacto.

Por ejemplo, aproximamos la derivada de la velocidad de caída de un


paracaidista mediante una ecuación en diferencia finita dividida de la forma:

Se presentó un error de truncamiento en la solución numérica, ya que la


ecuación en diferencia sólo aproxima el valor verdadero de la derivada.

Para obtener un conocimiento sobre las características de estos errores, debe


considerar una formulación matemática que se utiliza ampliamente en los
métodos numéricos para expresar funciones de manera aproximada: la serie
de Taylor.

LA SERIE DE TAYLOR El teorema de Taylor y su fórmula, la serie de Taylor,


es de gran valor en el estudio de los métodos numéricos. En esencia, la serie
de Taylor proporciona un medio para predecir el valor de una función en un
punto en términos del valor de la función y sus derivadas en otro punto. En
particular, el teorema establece que cualquier función suave puede
aproximarse por un polinomio. Una buena manera de comprender la serie de
Taylor consiste en construirla término por término. Por ejemplo, el primer
término de la serie es:

Esta relación, llamada la aproximación de orden cero, indica que el valor de f


en el nuevo punto es el mismo que su valor en el punto anterior. Tal resultado

tiene un sentido intuitivo, ya que si están muy próximas entre sí,


entonces es muy probable que el nuevo valor sea similar al anterior. La
ecuación anterior ofrece una estimación perfecta si la función que se va a
aproximar es, de hecho, una constante. Sin embargo, si la función cambia en el
intervalo, entonces se requieren los términos adicionales de la serie de Taylor,
para obtener una mejor aproximación. Por ejemplo, la aproximación de primer
orden se obtiene sumando otro término para obtener:

El término adicional de primer orden consiste en una pendiente

multiplicada por la distancia entre Por lo tanto, la expresión representa


ahora una línea recta y es posible predecir un incremento o un decremento de

la función entre Aunque la ecuación (4.3) puede predecir un cambio,


sólo es exacta para una línea recta o una tendencia lineal. Por lo tanto, se le
agrega a la serie un término de segundo orden para obtener algo de la
curvatura, que pudiera presentar la función:
Errores de formulación

Los errores de formulación o de modelo pueden atribuirse al sesgo que implica


un mode- lo matemático incompleto. Un ejemplo de un error de formulación
insignificante es el hecho de que la segunda ley de Newton no toma en cuenta
los efectos relativísticos. Esto no desvirtúa la validez de la solución del ejemplo
1.1, ya que estos errores son mínimos en las escalas de tiempo y espacio
asociadas con el problema de la caída del paracaidista.

Sin embargo, suponga que la resistencia del aire no es linealmente


proporcional a la velocidad de caída, como en la ecuación (1.7), sino que está
en función del cuadrado de la velocidad. Si éste fuera el caso, las soluciones
analíticas y numéricas obtenidas en el primer capítulo serían falsas debido al
error en la formulación. En algunas aplicaciones de ingeniería del libro se
presentan consideraciones adicionales a los errores de formu- lación. Se debe
estar consciente de estos problemas y darse cuenta de que, si se está usan- do
un modelo deficiente, ningún método numérico generará los resultados
adecuados.

Incertidumbre en los datos

Algunas veces se introducen errores en un análisis debido a la incertidumbre


en los datos físicos obtenidos, sobre los que se basa el modelo. Por ejemplo,
suponga que se desea probar el modelo de la caída del paracaidista, haciendo
que un individuo salte repetidas veces, midiendo su velocidad después de un
intervalo de tiempo específico. Sin duda, se asociaría cada medición con una
incertidumbre, ya que el paracaidista caerá con más rapidez en unos saltos que
en otros. Estos errores pueden mostrar inexac- titud e imprecisión. Si los
instrumentos constantemente subevalúan o sobrevalúan las mediciones de la
velocidad, se estará tratando con un instrumento inexacto o desviado. Por otro
lado, si las medidas son aleatoriamente grandes y pequeñas, entonces se trata
de una cuestión de precisión.

Los errores de medición se pueden cuantificar resumiendo los datos con uno o
más estadísticos, que den tanta información como sea posible, respecto a
características es- pecíficas de los datos. Tales estadísticos descriptivos a
menudo se seleccionan para obtener 1. la posición del centro de la distribución
de los datos y 2. el grado de dispersión de los datos. Como tales, estos
estadísticos ofrecen una medida de la desviación e im- precisión,
respectivamente. En la parte cinco se regresa el tema de caracterización de
incertidumbre de datos.

También podría gustarte