Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Los métodos numéricos, análisis numérico o cálculo numérico es la rama de las Matemáticas
encargada de diseñar algoritmos para simular aproximaciones de solución de problemas en
análisis matemático. El importante esfuerzo de cálculo que implica la mayoría de estos métodos
hace que su uso esté íntimamente ligado al empleo de computadores. De hecho, sin el desarrollo
que se ha producido en el campo de la informática resultaría difícilmente imaginable el nivel actual
de utilización de las técnicas o métodos numéricos en ámbitos cada día más diversos. Los
ordenadores son útiles para cálculos matemáticos extremadamente complejos, pero en última
instancia operan con números binarios y operaciones matemáticas simples.
En la actualidad gracias a la gran evolución que han tenido los métodos numéricos y su
implementación en potentes computadores, es posible, por ejemplo modelar el choque de un
vehículo o hacer un análisis aerodinámico-estructural de un avión, resolviendo en cada caso
sistemas algebraicos de ecuaciones con varios cientos de miles (a veces de millones de incógnitas).
Los métodos numéricos también pueden ser utilizados para estudiar el comportamiento de
estructuras que son fabricadas en serie, mecánica de fluidos, medios de transporte, procesamiento
de imágenes médicas, análisis aeroespacial, nanotecnología, entre otros.
Importancia de los Métodos Numéricos
Los métodos numéricos son técnicas mediante las cuales es posible formular problemas
matemáticos de tal forma que puedan resolverse usando operaciones aritméticas y algebraicas. El
análisis numérico trata de diseñar métodos para “aproximar” de manera eficiente las soluciones de
problemas expresados matemáticamente.
Aproximaciones y Errores
Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y
cantidades matemáticas. El error numérico es una medida del ajuste o cálculo de una magnitud con
respecto al valor real o teórico que dicha magnitud tiene. La aritmética utilizada por un computador o
calculadora, es diferente a la del Cálculo y Algebra Tradicional.
La matemática tradicional: números con una cantidad infinita de cifras. Por ejemplo √ 3=1.73205081
, cuyo número positivo multiplicado por sí mismo produce el número entero 3.
Computación digital: la representación de todo número tiene un número fijo y finito de cifras. Los
números utilizados en los diferentes algoritmos son números reales o complejos y son concebidos
como fracciones decimales infinitos.
Lenguaje de Programación: es tan solo un medio para expresar un algoritmo y una computadora
es solo un procesador para ejecutarlo. Tanto el lenguaje de programación como la computadora son
los medios para obtener un fin; conseguir que el algoritmo se ejecute y se efectúe el proceso
correspondiente.
Números Exactos: no sufren modificación por causas operativas al ser utilizados como parámetros
o variables de algún modelo matemático. La mayor parte de los números utilizados por computadora
“no son exactos”. Ejemplos: enteros cortos (2 bytes o 16 bits), enteros largos y reales de simple
precisión (4 bytes o 32 bits) y reales doble precisión (64 bits)
Números Aproximados: producidos por el hardware en los casos que resulte imposible soportar al
número en su totalidad, por ejemplo un número que necesita más de 64 bits para ser almacenado:
1/3, 15799 ó e π . Estos números poseen infinitas cifras decimales o al menos son muy grandes. La
máquina es quien intrínsecamente produce el error. La representación de los mismos no es continua.
Ejemplo la longitud de la cuerda de circunferencia es 2. π . r , tres números con características
diferentes, 2 es número exacto, π computacionalmente solo puede hacerse uso limitado de dígitos y r
proviene de una medición que depende de la exactitud del instrumento.
Redondeo: los resultados de muchas operaciones aritméticas tienen más cifras de las que se puede
almacenar en computador y hay que aproximarlos, eliminando las cifras menos significativas. A este
proceso se le llama Redondeo.
Errores: diferencias inevitables en toda aplicación numérica, y que se propagan a lo largo de la parte
restante del cálculo. Los errores por redondeo son inevitables pero controlables. En muchas
ocasiones son poco significativos y no tienen ninguna importancia. Sin embargo, en algunos
problemas pueden llegar a destruir por completo el significado de un resultado. Unos errores de
redondeo catastrófico pueden ser consecuencia de un problema difícil, de un mal algoritmo, o de
ambas cosas a la vez.
Error de Redondeo: es el error que resulta al reemplazar un número por su forma de punto flotante,
sin que importe si se usa el método de redondeo o de truncamiento. El uso de dígitos binarios tiende
a encubrir las dificultades de cálculo que ocurren cuando se usa un conjunto finito de números de
máquina para representar a todos los números reales. Para explicar los problemas que pueden
surgir, se considera que los números de máquina se representan en la forma de punto flotante
decimal normalizada.
Cifras significativas: cuando se emplea un número en un cálculo, debe haber la seguridad de que
pueda usarse con confianza. Existen métodos para considerar las cifras significativas y ajustarlas.
Exactitud y Precisión: la exactitud se refiere a que tan cercano está el valor calculado o medido
del valor verdadero. La precisión se refiere a que tan cercano está el valor individual medido o
calculado respecto a los otros.
Error Absoluto: es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede
ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o
negativa), tiene unidades, las mismas que las de la medida analizada.
Error Relativo: es el cociente entre el error absoluto y el valor exacto. Si se multiplica por 100 se
obtiene el tanto por ciento (%) de error o porcentaje de error. Puede ser positivo o negativo (por
exceso o por defecto) y no tiene unidades
Notación Científica: también denominada Patrón o Notación en forma Exponencial, es una forma
de escribir los números que acomoda valores demasiado grandes o demasiado pequeños. El uso de
esta notación se basa en potencias de 10. Siempre el exponente es igual al número de cifras
decimales que deben correrse para convertir un número escrito en notación científica (forma
abreviada) en el mismo escrito en notación decimal. Se desplazará a la derecha si el exponente es
positivo y hacia la izquierda si es negativo.
b. Raíces de Ecuaciones: Son las soluciones de una ecuación, son los valores de las incógnitas
que transforman las ecuaciones en una identidad, es decir, se igualan ambos miembros. Las
soluciones satisfacen a la ecuación.
h. Ecuaciones Diferenciales Parciales (EDP): es una ecuación que contiene una función multi-
variable desconocida (ej. (u (x, y)) y sus derivadas parciales. Este tipo de ecuaciones describen
varios fenómenos físicos como el calor, el sonido, dinámica de fluidos, etc. El orden de la EDP
está determinado por el grado de la derivada parcial más alto .