Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Los métodos numéricos nos vuelven aptos para entender esquemas numéricos a
fin de resolver problemas matemáticos, de ingeniería y científicos en una
computadora, reducir esquemas numéricos básicos, escribir programas y
resolverlos en una computadora y usar correctamente el software existente para
dichos métodos y no solo aumenta nuestra habilidad para el uso de
computadoras sino que también amplia la pericia matemática y la comprensi6n
de los principios científicos básicos.
EL OBJETIVO PRINCIPAL
El objetivo principal del análisis numérico es encontrar soluciones
“aproximadas” a problemas complejos utilizando sólo las
operaciones más simples de la aritmética. Se requiere de una
secuencia de operaciones algebraicas y lógicas que producen la
aproximación al problema matemático.
LOS MÉTODOS NUMÉRICOS PUEDEN
SER APLICADOS PARA RESOLVER
PROCEDIMIENTOS MATEMÁTICOS EN:
· Cálculo de derivadas
· Integrales
· Ecuaciones diferenciales
· Operaciones con matrices
· Interpolaciones
· Ajuste de curvas
· Polinomios
CONCEPTOS BÁSICOS MÉTODOS NUMÉRICOS
CIFRA SIGNIFICATIVA
El concepto de cifra significativa lo podemos definir
como aquella que aporta información no
ambigua ni superflua (que no cumple ni desempeña su función)
acerca de una determinada medida
experimental, son cifras significativas de un numero
vienen determinadas por su error.
Son cifras que ocupan una posición igual o superior al
orden o posición de error.
REGLAS DE OPERACIONES
CON CIFRAS SIGNIFICATIVAS.
Regla 1: los resultados experimentales se expresan con una sola cifra dudosa, e
indicando con + - la incertidumbre en la medida.
Regla 2: las cifras significativas se cuentan de izquierda a derecha, a partir del
primer dígito diferente de cero y hasta el digito dudoso.
Regla 3: al sumar o restar dos números decimales, el numero de cifras
decimales del resultado es igual al de la cantidad con el menor número de ellas.
Regla 4: al multiplicar o dividir dos números, el numero de cifras significativas
del resultado es igual al del factor con menos cifras.
PRECISIÓN Y EXACTITUD
Precisión: se refiere a la dispersión del conjunto de valores obtenidos de
mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor
la precisión. Una medida común de la variabilidad es la desviación estándar de
las mediciones y la precisión se puede estimar como una función de ella.
Exactitud: se refiere a cuán cerca del valor real se encuentra el valor medido.
En términos estadísticos, la exactitud está relacionada con el sesgo de una
estimación. Cuanto menor es el sesgo más exacto es una estimación.
INCERTIDUMBRE:
Incertidumbre también se le conoce como Imprecisión. Se
refiere al grado de alejamiento entre sí, a las diversas
aproximaciones a un valor verdadero.