Está en la página 1de 3

Análisis Numérico

El Análisis numérico es una rama de las matemáticas cuyos límites no son del todo precisos. De una forma
rigurosa, se puede definir como la disciplina ocupada de describir, analizar y crear algoritmos numéricos que
nos permitan resolver problemas matemáticos, en los que estén involucradas cantidades numéricas, con
una precisión determinada.

Algoritmo

En el contexto del cálculo numérico, un algoritmo es un procedimiento que nos puede llevar a una solución
aproximada de un problema mediante un número finito de pasos que pueden ejecutarse de manera lógica. En
su Definición Formal Un Algoritmo se Define como: Es procedimiento que describe sin ambigüedades una serie
finitas de pasos a realizar en un orden específico. El objetivo del algoritmo es poner en práctica un
procedimiento para resolver un problema o aproximarse a una solución.

Características de los Algoritmos:

Las características fundamentales que debe cumplir todo algoritmo son:

 Un algoritmo debe ser preciso e indicar el orden de realización de cada paso.


 Un algoritmo debe estar definido. Si se sigue un algoritmo dos veces, se debe obtener el mismo
resultado cada vez.
 Un algoritmo debe ser finito. Si se sigue un algoritmo se debe terminar en algún momento; o sea, debe
tener un numero finito de pasos.

Partes del Algoritmo

La definición de un algoritmo debe definir tres partes: Entrada, Proceso y Salida. En el algoritmo de una
receta de cocina se tendrá:

Entrada: ingrediente y utensilios empleados.


Proceso: elaboración de la receta en la cocina.
Salida: terminación del plato (por ejemplo, cordero).

Método Numérico

Un método numérico es un procedimiento mediante el cual se obtiene, casi siempre de manera aproximada, la
solución de ciertos problemas realizando cálculos puramente aritméticos y lógicos (operaciones aritméticas
elementales, cálculo de funciones, consulta de una tabla de valores, cálculo proposicional, etc.).

Tal procedimiento consiste de una lista finita de instrucciones precisas que especifican una secuencia de
operaciones algebraicas y lógicas (algoritmo), que producen o bien una aproximación de la solución del
problema (solución numérica) o bien un mensaje.
La eficiencia en el cálculo de dicha aproximación depende, en parte, de la facilidad de implementación del
algoritmo y de las características especiales y limitaciones de los instrumentos de cálculo (los computadores).
En general, al emplear estos instrumentos de cálculo se introducen errores llamados de redondeo.

Cifras Significativas

Cuando se expresa un número debe evitarse siempre la utilización de cifras no significativas, puesto que puede
suponer una fuente de confusión. Los números deben redondearse de forma que contengan sólo cifras
significativas. Se llama redondeo al proceso de eliminación de cifras no significativas de un número.

Definición de Error

En términos generales, el error de un método numérico es la diferencia que existe entre el verdadero valor
que se busca y la aproximación obtenida a través de una técnica numérica. El error se clasifica en dos
categorías, error de redondeo y error de truncamiento.

Error de redondeo

Se origina por el hecho de que una computadora sólo puede representar un número finito de términos. Para
expresar una cantidad con un desarrollo decimal infinito, se tiene que prescindir de la mayoría de ellos. Por
ejemplo, el número π = 3.14159265...., tiene un desarrollo decimal infinito no periódico. Por lo tanto, para
fines de cálculo, sólo se toman algunos de sus dígitos.

Esto se realiza a través de dos estrategias:

Redondeo. Prescinde de cierto número de cifras significativas y realiza un ajuste, sobre la última cifra no
descartada: π ≈ 3.1416 .

Corte o poda: Prescinde de cierto número de cifras significativas sin realizar un ajuste sobre la última cifra no
descartada π ≈ 3.1415 .

En aplicaciones actuariales, ciencias e ingeniería, se recomienda el redondeo, ya que el corte o

Errores Absoluto y Relativo

Una vez que se ha establecido la clasificación del error (es decir, las dos fuentes de error en los métodos
numéricos), se procede a definir los conceptos de error absoluto verdadero, error absoluto relativo, error
absoluto aproximado y error relativo aproximado, todos ellos como una suma o consecuencia de los errores de
redondeo y truncamiento.

Los siguientes conceptos de error pueden emplearse como criterios de paro y medidas de precisión de los
métodos numéricos.

Error Absoluto Verdadero


Supóngase que 𝑝̅ es una aproximación a p. El error absoluto verdadero se define con la siguiente expresión:
𝐸 = |𝑝 − 𝑝̅ |

Esta definición de error, lo cuantifica en términos brutos. No obstante, una medida que puede describir con
mayor detalle o proporción el error, es aquella que lo expresa en términos porcentuales.

Error Relativo Verdadero

Supóngase que 𝑝̅ es una aproximación a p. El error relativo verdadero se calcula con la siguiente expresión:
|𝑝− 𝑝̅ |
𝐸= |𝑝|
. El resultado suele expresarse en términos porcentuales.

También podría gustarte