Documentos de Académico
Documentos de Profesional
Documentos de Cultura
campeche
Alumnos:
David Josué Damián julian
Andry enrique Motul Cámara
Maestro:
Obed Benjamín Torres Arias
Unidad 3
Trabajo:
Manual de practicas
Cuatrimestre
8vo
Grupo:
A
Introducción
Los métodos numéricos nos sirven para resolver problemas comunes en la
ingeniería así como en otras situaciones, estos métodos nos ayudan a resolver
problemas muy complejos de la manera más fácil solo que sus resultados no son
exactos si no aproximados.
Los métodos numéricos son técnicas mediante las cuales es posible realizar
problemas matemáticos de tal forma que pueden resolverse usando operaciones.
En conclusión, los métodos nos facilitan la forma de entender esquemas
numéricos
El método de Euler
(método poligonal) es un método numérico simple para resolver problemas de
valor inicial (Cauchy) con ecuaciones diferenciales ordinarias. Por ejemplo,
permite encontrar soluciones mediante aproximación para ecuaciones
diferenciales que son difíciles de resolver o no pueden resolverse de manera
explícita. El método de Euler también se llama "método de los pasos pequeños",
ya que cada paso involucra resolver una ecuación principalmente no lineal.
El método de Euler (Euler-Cauchy) explícito (o directo), el método de paso único
más simple, se basa en el valor inicial especificado y0=y(x0)y0=y(x0) con un
proceso de iteración yn+1=yn+h⋅f(xn,yn)yn+1=yn+h⋅f(xn,yn) . En este
caso, h⋅f(xn,yn)h⋅f(xn,yn) representa el gradiente. Este método muy aproximado es
adecuado principalmente para valores de h muy pequeños, ya que la derivada se
obtiene en un punto único solamente y luego se extrapola.
Ejercicio:
Anuncios
INFORMA SOBRE ESTE ANUNCIOPRIVACY SETTINGS
Se llama método de
Euler al método numérico consistente en ir
incrementando paso a paso la variable independiente y hallando la
siguiente imagen con la
derivada.
La primera derivada proporciona una
estimación directa de la pendiente en Xi (ver
[2]
La fórmula es la siguiente:
Donde
O en su forma Explícita:
Y es sumamente útil para casos en los que la solución no puede hallarse por los
métodos convencionales (como separación de variables). Hay variaciones en el
método de Runge-Kutta de cuarto orden pero el más utilizado es el método en el
cual se elige un tamaño de paso h y un número máximo de iteraciones n.
El método Runge- Kutta para este problema está dado por la siguiente ecuación:
Ejemplo
Usar el método de Runge Kutta para aproximar dada la siguiente ecuación
diferencial:
y(0.5)= 1.28403
De esta manera, por integración directa
Finalmente evaluando en y(0.5 ), obtenemos:
Método de Newton-Raphson
Es otro método que se utiliza para calcular los ceros de una función real de
variable real. Aunque no sea siempre el mejor método para un problema dado, su
simplicidad formal y su rapidez de convergencia hacen que, con frecuencia, sea el
primer algoritmo a considerar para esta tarea.
\[f\left(\alpha\right)=f(x_{0})+\left(\alpha-
x_{0}\right)f^{\prime}(x_{0})+\frac{\left(\alpha-
x_{0}\right)^{2}}{2}f^{\prime\prime}(x_{0}+\theta h)\]
\[f\left(\alpha\right)\cong f(x_{0})+\left(\alpha-
x_{0}\right)f^{\prime}(x_{0})\] Como \(\alpha\) es la solución de la
ecuación \(f\left(x\right)=0\), se tiene que \(f(\alpha)\)=0 y por tanto, de la expresión
anterior se sigue que:
\[f(x_{0})+\left(\alpha-x_{0}\right)f^{\prime}(x_{0})\cong 0\]
\[\alpha\cong x_{0}-\frac{f(x_{0})}{f^{\prime}(x_{0})}=x_1\]
\[x_{2}=x_{1}-\frac{f(x_{1})}{f^{\prime}(x_{1})}\]
De la misma manera podemos obtener una nueva (y mejor) aproximación \(x_3\) a
partir de \(x_2\) mediante:
\[x_{3}=x_{2}-\frac{f(x_{2})}{f^{\prime}(x_{2})}\]
\[x_{i+1}=x_{i}-\frac{f(x_{i})}{f^{\prime}(x_{i})}\]
Obviamente, para que este algoritmo funcione tienen que ocurrir dos cosas:
\[y=f(x_{0})+\left(x-x_{0}\right)f^{\prime}(x_{0})\]
\[f(x_{0})+\left(x-x_{0}\right)f^{\prime}(x_{0}) = 0\]
\[f(x_{0})f^{\prime\prime}(x_{0})\geq0\].
Métodos de interpolación
Derivación numérica
Consideremos una función f(x) de la cual se conoce un conjunto discreto de
valores (x0, f0), (x1, f1),...,(xn, fn). El problema que vamos a abordar es el de
calcular la derivada de la función en un punto x que en principio no tiene porqué
coincidir con alguno de los que figuran en los datos de que disponemos. La forma
más sencilla de resolver el problema de la diferenciación numérica consiste en
estimar la derivada utilizando fórmulas obtenidas mediante la aproximación de
Taylor, que se denominan fórmulas de diferencias finitas.
La función f(x) (en azul) es aproximada por la función lineal (en rojo).
REGLAS DE SIMPSON:
Ademas de aplicar la regla trapezoidal con segmentos cada vez mas finos, otra
manera de obtener una estimacion mas exacta de una integral, es la de usar
polinomios de orden superior para conectar los puntos.
A las formulas resultantes de calcular la integral bajo estos polinomios se les llama
reglas de Simpson.
para obtener
En donde
h=(b-a)/3.
CIFRAS SIGNIFICATIVAS
π = 3.141592653589793238462643...
hasta el infinito. Como las computadoras retienen sólo un número finito de cifras
significativas, tales números jamás se podrán representar con exactitud. A la
omisión del resto de cifras significativas se le conoce como error de redondeo.
EXACTITUD Y PRECISIÓN
Método de bisección
Cuando se aplicaron las técnicas gráficas, se observó que f(x) cambió de signo a
ambos lados de la raíz. En general, si f(x) es real y continúa en el intervalo que va
desde xl hasta xu y f(xl) y f(xu) tienen signos opuestos, es decir,
entonces hay al menos una raíz real entre xl y xu. Los métodos de búsqueda
incremental aprovechan esta característica localizando un intervalo en el que la
función cambie de signo. Entonces, la localización del cambio de signo (y, en
consecuencia, de la raíz) se logra con más exactitud al dividir el intervalo en varios
subintervalos. Se investiga cada uno de estos subintervalos para encontrar el
cambio de signo. El proceso se repite y la aproximación a la raíz mejora cada vez
más en la medida que los subintervalos se dividen en intervalos cada vez más
pequeños.}
Por lo tanto, la raíz está entre 14 y 15. El límite superior se redefine como 15 y la
raíz estimada para la tercera iteración se calcula así:
que representa un error relativo porcentual et = 1.9%. Este método se repite hasta
que el resultado sea suficientemente exacto para satisfacer sus necesidades.
Tipos de Errores
Por razones prácticas, sólo puede manejarse una cantidad finita de bits para cada
número en una computadora, y esta cantidad o longitud varía de una máquina a
otra. Por ejemplo, cuando se realizan cálculos de ingeniería y ciencia, es mejor
trabajar con una longitud grande; por otro lado, una longitud pequeña es más
económica y útil para cálculos y procedimientos administrativos.
Los errores numéricos se generan con el uso de aproximaciones para representar
las operaciones y cantidades matemáticas. El error numérico es una medida del
ajuste o cálculo de una magnitud con respecto al valor real o teórico que dicha
magnitud tiene. Un aspecto importante de los errores numéricos es su estabilidad
numérica. Dicha estabilidad se refiere a como dentro de un algoritmo de análisis
numérico el error de aproximación es propagado dentro del propio algoritmo.
El concepto de error es consustancial con el cálculo numérico. En todos los
problemas es fundamental hacer un seguimiento de los errores cometidos a fin de
poder estimar el grado de aproximación de la solución que se obtiene.
ERP = ER X 100