Está en la página 1de 5

Universidad de Margarita

Alma Mater del Caribe

Decanato de Ingeniería de Sistema

Calculo numérico

Introducción al calculo numérico

Realizado por: Profesor:

Domingo Martínez Jhonny Granado

C.I: 26778865

Mayo de 2020
¿Qué es el Cálculo Numérico?

El análisis o cálculo numérico, es una rama de la matemática que estudia


los métodos aritméticos que se pueden aplicar en la resolución de problemas,
son técnicas que permiten el logro de soluciones aproximadas (en ocasiones
exactas) de un problema determinado, a través de la ejecución de una cantidad
finita de operaciones lógicas y algebraicas básicas. La evolución del análisis
numérico como una disciplina, ha estado estrechamente vinculada al acelerado
desarrollo que los ordenadores han experimentado desde su creación.

El desarrollo del Análisis numérico como disciplina con entidad propia ha ido
indisolublemente ligado a la vertiginosa evolución que los ordenadores han
experimentado desde su aparición en la década de los años cuarenta. No en
vano, los ordenadores son herramientas imprescindibles para aplicar con
eficacia la inmensa mayoría de los métodos que el Análisis numérico propone,
dado el considerable volumen de cálculos y manipulaciones de datos que
suelen llevar aparejados.

Los diferentes problemas que trata el Cálculo Numérico son en sí


procedimientos de aproximación que consisten en sucesiones de cálculos.
Estos procedimientos se llaman algoritmos.

Un algoritmo es un procedimiento que describe, sin ambigüedad posible, una


sucesión finita de pasos que hay que realizar en un orden preciso, desde la
introducción de datos hasta la obtención de resultados. Como vehículo para
describir los algoritmos se usará un seudocódigo que especifica tanto los datos
de entrada, como el proceso que se debe realizar sobre los mismos para la
obtención de los resultados deseados, así como la forma de salida de estos
últimos.

Teniendo en cuenta el concepto de calculo numérico y sabiendo que nos


proporciona todas las herramientas y procesos para llevar acabo todos
aquellos procedimientos matemáticos que pueden ser expresados mediante
algoritmos que permitan simulaciones

Mayo de 2020
¿Qué es el error de cálculo?

Durante la aplicación del cálculo numérico ocurre el error de cálculo que,


durante su aplicación, dado que el cálculo numérico solo tiene ofrece
resultados aproximados en su mayoría, aquí entra el error de cálculo, el cual es
una medida del ajuste o cálculo de una magnitud con respecto al valor real o
teórico que dicha magnitud tiene.

La incertidumbre o error de cálculo es una medida del ajuste o cálculo de una


magnitud con respecto al valor real o teórico que dicha magnitud tiene. Un
aspecto importante de los errores de aproximación es su estabilidad numérica.
Dicha estabilidad se refiere a cómo dentro de un algoritmo de análisis numérico
el error de aproximación es propagado dentro del propio algoritmo.

El concepto de error está arraigado con el cálculo numérico. En todos los


problemas es fundamental hacer un seguimiento de los errores cometidos a fin
de poder estimar el grado de aproximación de la solución que se obtiene.

Dentro de este grupo se incluyen aquellos en los que la definición matemática


del problema es solo una aproximación a la situación física real. Estos errores
son normalmente despreciables; por ejemplo, el que se comete al obviar los
efectos relativistas en la solución de un problema de mecánica clásica. En
aquellos casos en que estos errores no son realmente despreciables, nuestra
solución será poco precisa independientemente de la precisión empleada para
encontrar las soluciones numéricas.

Otra fuente de este tipo de errores tiene su origen en la imprecisión de los


datos físicos: constantes físicas y datos empíricos. En el caso de errores en la
medida de los datos empíricos y teniendo en cuenta su carácter generalmente
aleatorio, su tratamiento analítico es especialmente complejo pero
imprescindible para contrastar el resultado obtenido computacionalmente.

La incertidumbre está relacionada con el proceso de medida. Se trata del


máximo error de la medida. Evidentemente, está relacionada con la precisión
del instrumento. Por regla general se toma como incertidumbre la precisión del
aparato, algunas veces, aunque no sea demasiado correcto se toma la mitad
de la precisión como incertidumbre

Mayo de 2020
Tipos de errores y sus diferencias

Podemos distinguir dos tipos de errores que se utilizan en los cálculos:

Error absoluto: Es la diferencia entre el valor de la medida y el valor tomado


como exacto. Puede ser positivo o negativo, según si la medida es superior al
valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las
mismas que las de la medida. Mediante la fórmula:

EA = | P* - P |

P* = valor real

P = valor aproximado

Erro absoluto: Es el cociente (la división) entre el error absoluto y el valor


exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al
igual que el error absoluto puede ser positivo o negativo (según lo sea el error
absoluto) porque puede ser por exceso o por defecto. no tiene unidades.

ER = | P* - P| / P, si P != 0

Ya planteado ambos tipos de errores como todo tienen sus diferencias.

El valor absoluto, se define el error absoluto como la diferencia, tomada


siempre en positivo, entre el valor real y el valor aproximado. Es decir, se toma
el valor absoluto de esa diferencia el error absoluto siempre se mide en las
mismas unidades que los valores tomados.

A diferencia del valor absoluto (error absoluto), el valor relativo (error relativo)
se define el error relativo de una aproximación como el cociente entre el valor
absoluto y el valor real, aquí se encuentra la diferencia más importante entre
estos dos errores, ya que el error absoluto no depende del error relativo para
poder realizar su procedimiento, pero el error relativo depende del resultado de
la formula del método (error absoluto) para tomar ese resultado y poder realizar
el procedimiento de error relativo.

Mayo de 2020
Mayo de 2020

También podría gustarte