Está en la página 1de 10

INSTITUTO TECNOLOGICO SUPERIOR

DE ALVARADO

INGENIERÍA EN SISTEMAS COMPUTACIONALES

Materia:
METODOS NUMERICOS

Semestre-Grupo:
IV “UNICO”
Producto Académico:
INVESTIGACION

Temas:
1.1 Importancia de los métodos numéricos.
1.2 Conceptos básicos: cifra significativa, precisión,
exactitud, incertidumbre y sesgo.
1.3 Tipos de errores.
1.4 Software de cómputo numérico.
1.5 Métodos iterativos.
Presenta:
JOSE MIGUE LINARES VILLEGAS

Docente:
INGRID BIVIANA VEGA PEREZ

LERDO DE TEJADA, VER. FEBRERO-JUNIO 2024


Introducción
Los métodos numéricos son indispensables en campos como la ciencia, la
ingeniería y la tecnología, ya que nos permiten resolver problemas complejos
mediante aproximaciones numéricas. En esta introducción, exploraremos la
importancia de estos métodos, así como conceptos clave como precisión,
exactitud, tipos de errores, software especializado en cómputo numérico y
métodos iterativos. Estos temas son fundamentales para comprender cómo los
métodos numéricos nos ayudan a abordar una variedad de desafíos en diferentes
áreas.

Objetivo

Explorar la importancia de los métodos numéricos en diversos campos científicos


y tecnológicos, comprendiendo los conceptos básicos como cifra significativa,
precisión, exactitud, incertidumbre y sesgo. Identificar y mitigar los diferentes tipos
de errores que pueden surgir durante los cálculos numéricos, mientras se evalúa y
selecciona el software de cómputo numérico más adecuado, y se comprende y
aplica métodos iterativos para resolver ecuaciones y sistemas no lineales. Esto
permitirá abordar problemas complejos con mayor eficiencia y precisión en la toma
de decisiones informadas
Importancia de los métodos numéricos
Los métodos numéricos son fundamentales en numerosos campos de la ciencia,
la ingeniería y la tecnología debido a su capacidad para resolver problemas
matemáticos complejos mediante aproximaciones numéricas.

Aquí hay algunas razones clave que destacan su importancia:

Resolución de problemas complejos: Muchos problemas en ciencia e ingeniería


no se pueden resolver de manera analítica, es decir, no se pueden encontrar
soluciones exactas mediante fórmulas o ecuaciones cerradas. Los métodos
numéricos permiten encontrar soluciones aproximadas a estos problemas
mediante algoritmos y cálculos computacionales.

Modelado y simulación: Los métodos numéricos son esenciales para el


modelado y la simulación de sistemas físicos, financieros, biológicos y sociales.
Por ejemplo, en ingeniería, se utilizan para simular el comportamiento de
estructuras, predecir el clima, diseñar circuitos electrónicos, entre otros.

Optimización: Los métodos numéricos se utilizan para optimizar funciones y


encontrar los valores que maximizan o minimizan una determinada cantidad. Esto
es útil en una amplia gama de aplicaciones, como el diseño de productos, la
gestión de carteras de inversión, la planificación de rutas de transporte y la
ingeniería de procesos.

Análisis de datos: En el ámbito del análisis de datos, los métodos numéricos son
esenciales para el procesamiento de señales, la interpolación y el ajuste de
curvas, la clasificación y la regresión, entre otros. Estas técnicas son utilizadas en
campos como la ciencia de datos, la inteligencia artificial, la bioinformática y la
economía, entre otros.

Incertidumbre y sensibilidad: Los métodos numéricos también son útiles para


analizar la incertidumbre y la sensibilidad en los modelos matemáticos. Esto
permite evaluar cómo pequeñas variaciones en los datos de entrada o en los
parámetros del modelo pueden afectar los resultados, lo que es crucial para la
toma de decisiones informada.
Conceptos básicos: cifra significativa, precisión, exactitud,
incertidumbre y sesgo

CIFRAS SIGNIFICATIVAS:
Cuando se emplea un número
en un cálculo, debe haber
seguridad de que pueda usarse
con confianza. El concepto de
cifras significativas
tiene dos implicaciones
importantes en el estudio de
los métodos numéricos.
CIFRAS SIGNIFICATIVAS:
Cuando se emplea un número
en un cálculo, debe haber
seguridad de que pueda usarse
con confianza. El concepto de
cifras significativas
tiene dos implicaciones
importantes en el estudio de
los métodos numéricos.
CIFRAS SIGNIFICATIVAS: Cuando se emplea un número en un cálculo, debe
haber seguridad de que pueda usarse con confianza. El concepto de cifras
significativas tiene dos implicaciones importantes en el estudio de los
métodos numéricos.

Reglas de operaciones con cifras significativas

Regla 1: los resultados experimentales se expresan con una sola cifra dudosa, e
indicando con +/- la incertidumbre en la medida.

Regla 2: las cifras significativas se cuentan de izquierda a derecha, a partir del


primer dígito diferente de cero y hasta el digito dudoso.

Regla 3: al sumar o restar dos números decimales, el número de cifras decimales


del resultado es igual al de la cantidad con el menor número de ellas.

Regla 4: al multiplicar o dividir dos números, el número de cifras significativas del


resultado es igual al del factor con menos cifras.

Precisión: se refiere a la dispersión del conjunto de valores obtenidos de


mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la
precisión. Una medida común de la variabilidad es la desviación estándar de las
mediciones y la precisión se puede estimar como una función de ella.
Exactitud: se refiere a cuán cerca del valor real se encuentra el valor medido. En
términos estadísticos, la exactitud está relacionada con el sesgo de una
estimación. Cuanto menor es el sesgo más exacto es una estimación. También se
refiere a la aproximación de un numero o de una medida al valor verdadero que se
supone representa.

incertidumbre: Incertidumbre también se le conoce como Impresión. Se refiere al


grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero.
Situación bajo la cual se desconocen las probabilidades de ocurrencia asociados a
los diferentes resultados de un determinado evento.

Tipos de errores

En los métodos numéricos, es importante comprender y manejar varios tipos de


errores que pueden surgir durante los cálculos y las aproximaciones.

Aquí están los principales tipos de errores:

Error de truncamiento: Este tipo de error surge cuando se aproxima una función
matemática continua por una versión discreta. Por ejemplo, al truncar una serie
infinita en su aproximación finita, como en las expansiones de Taylor. Cuanto más
se acorta la serie, mayor es el error de truncamiento.

Error de redondeo: Este error ocurre debido a la limitación de la precisión


numérica de la computadora. Las operaciones aritméticas en una computadora
tienen una precisión limitada debido a la representación finita de los números en el
sistema de punto flotante. Las operaciones con números cercanos al límite de
precisión pueden generar errores de redondeo.

Error de propagación: También conocido como error de difusión, este error surge
cuando los errores de truncamiento y redondeo se propagan a través de cálculos
sucesivos. Los errores iniciales pueden amplificarse a medida que se realizan más
operaciones, lo que puede resultar en una pérdida significativa de precisión en los
resultados finales.
Error de aproximación: Este tipo de error ocurre cuando se utiliza un método
numérico que proporciona una solución aproximada en lugar de una solución
exacta. La diferencia entre la solución exacta y la solución aproximada es el error
de aproximación.

Error de discretización: Este error se produce al aproximar una función continua


mediante un conjunto discreto de puntos. Por ejemplo, al discretizar una ecuación
diferencial para resolverla numéricamente mediante métodos de diferencias finitas,
el error de discretización surge de la diferencia entre la solución exacta y la
solución aproximada en los puntos discretos.

Software de cómputo numérico

En la actualidad existen dos tipos de usuarios de software. Por un lado, están


aquellos que toman lo que se les da. Es decir, quienes se limitan a las
capacidades que encuentran en el modo estándar de operación del software
existente. Por ejemplo, resulta muy sencillo resolver un sistema de ecuaciones
lineales o generar una gráfica con valores x, y con Excel o Matlab. Como este
modo de operación por lo común requiere un mínimo de esfuerzo, muchos de los
usuarios adoptan este modo de operación. Además, como los diseñadores de
estos paquetes se anticipan a la mayoría de las necesidades típicas de los
usuarios, muchos de los problemas pueden resolverse de esta manera.

Los programas computacionales son únicamente conjuntos de instrucciones que


dirigen a la computadora para realizar una cierta tarea. Hay mucha gente que
escribe programas para un amplio rango de aplicaciones en los lenguajes de alto
nivel, como Fortran 90 o C, porque tienen una gran variedad de capacidades.
Aunque habrá algunos ingenieros que usarán toda la amplia gama de
capacidades, la mayoría sólo necesitará realizar los cálculos numéricos orientados
a la ingeniería. Visto desde esta perspectiva, reducimos toda esa complejidad a
unos cuantos tópicos de programación, que son:

• Representación de información sencilla (declaración de constantes, variables y


tipos).
• Representación de información más compleja (estructuras de datos, arreglos y
registros).

Métodos iterativos

En matemática computacional, un método iterativo trata de resolver un problema


(como una ecuación o un sistema de ecuaciones) mediante aproximaciones
sucesivas a la solución, empezando desde una estimación inicial. Esta
aproximación contrasta con los métodos directos, que tratan de resolver el
problema de una sola vez (como resolver un sistema de ecuaciones Ax=b
encontrando la inversa de la matriz A). Los métodos iterativos son útiles para
resolver problemas que involucran un número grande de variables (a veces del
orden de millones), donde los métodos directos tendrían un coste prohibitivo
incluso con la potencia del mejor computador disponible.

Puntos fijos atractivos

Si una ecuación puede ponerse en la forma f(x) = x, y una solución x es un punto


fijo atractivo de la función f, entonces puede empezar con un punto x1 en la base
de atracción de x, y sea xn+1 = f(xn) para n ≥ 1, y la secuencia {xn}n ≥ 1
convergerá a la solución x.

Sistemas lineales}

En el caso de un sistema lineal de ecuaciones, las dos clases principales de


métodos iterativos son los métodos iterativos estacionarios y los más generales
métodos del subespacio de Krylov
Métodos iterativos estacionarios

Los métodos iterativos estacionarios resuelven un sistema lineal con un operador


que se aproxima al original; y basándose en la medida de error (el residuo), desde
una ecuación de corrección para la que se repite este proceso. Mientras que
estos métodos son sencillos de derivar, implementar y analizar la convergencia
normalmente sólo está garantizada para una clase limitada de matrices.

También podría gustarte