Está en la página 1de 16

INSTITUTO TECNOLÓGICO DE VERACRUZ

DEPARTAMENTO DE INGENIERÍA
MECATRONICA

METODOS NUMERICOS
10:00 horas – 11:00 horas

TEMA:
INVESTIGACION UNIDAD 5

DOCENTE:
BRENDA EDITH MORALES FERNANDEZ

ALUMNO:
José Alberto Rojano Pegueros

ABRIL – JULIO 2021


UNIDAD 5.- DERIVACIÓN E INTEGRACIÓN
NUMÉRICA

5.1 DERIVACIÓN NUMÉRICA


Consideremos una función f(x) de la cual se conoce un conjunto discreto de valores (x0, f0), (x1,
f1),...,(xn, fn). El problema que vamos a abordar es el de calcular la derivada de la función en un
punto x que en principio no tiene por qué coincidir con alguno de los que figuran en los datos de
que disponemos. La forma más sencilla de resolver el problema de la diferenciación numérica
consiste en estimar la derivada utilizando fórmulas obtenidas mediante la aproximación de Taylor,
que se denominan fórmulas de diferencias finitas.
La derivación numérica es una técnica de análisis numérico para calcular una aproximación a
la derivada de una función en un punto utilizando los valores y propiedades de la misma.
Por definición la derivada de una función f(x) es:

Las aproximaciones numéricas que podamos hacer (para h > 0) serán:


Diferencias hacia adelante:

Diferencias hacia atrás:

La aproximación de la derivada por este método entrega resultados aceptables con un


determinado error. Para minimizar los errores se estima que el promedio de ambas entrega la
mejor aproximación numérica al problema dado:
Diferencias centrales:
5.2 INTEGRACIÓN NUMÉRICA: MÉTODO DEL
TRAPECIO, MÉTODOS DE SIMPSON 1/3 Y 3/8.
En matemáticas la regla del trapecio es un método de integración numérica, es
decir, un método para calcular aproximadamente el valor de la integral definida.

La función f(x) (en azul) es aproximada por la función lineal (en rojo).

La regla se basa en aproximar el valor de la integral de f(x) por el de la función


lineal que pasa a través de los puntos (a, f(a)) y (b,f(b)). La integral de ésta es igual
al área del trapecio bajo la gráfica de la función lineal. Se sigue que

y donde el término error corresponde a:


REGLA DEL TRAPECIO
Corresponde al caso donde n=1, es decir:

Donde f1(x) es un polinomio de interpolación (obviamente de grado 1) para los


datos:

x a b

y f(a) f(b)

Sabemos que este polinomio de interpolación es:

Integrando este polinomio, tenemos que:

Que es la conocida Regla del Trapecio. Este nombre se debe a la interpretación


geométrica que le podemos dar a la fórmula. El polinomio de interpolación para una
tabla que contiene dos datos, es una línea recta. La integral, corresponde al área
bajo la línea recta en el intervalo [a,b], que es precisamente el área del trapecio que
se forma.
REGLA DE SIMPSON DE UN TERCIO
Suponemos que tenemos los datos:

a xm b

f(a) f(xm) f(b)

Donde xm es el punto medio entre a y b.


En este caso se tiene que:

Donde f2(x) es el polinomio de interpolación para los datos en la tabla anterior.


Usaremos el polinomio de LaGrange. Así, tenemos que:

Si denotamos h= (b-a)/2 = xm-a = b-xm, entonces:


Simplificando términos:

Vemos que cada uno de los términos anteriores, es esencialmente de la misma


forma, es decir, una constante por (x-α)(x-β).
Así, calculamos la siguiente integral por partes:

Obteniendo, por lo tanto,

Usamos esta fórmula para calcular la integral de cada uno de los tres términos
de f2(x) y obteniendo como resultado final

Debido al factor h/3 se le conoce como la regla de Simpson de un tercio.


En la práctica, sustituimos el valor de h = (b-a)/ 2 para obtener nuestra fórmula
final:

REGLA DE SIMPSON DE TRES OCTAVOS


Este caso corresponde a n=3, es decir,
Donde f3(x) es un polinomio de interpolación para los siguientes datos:

x0 x1 x2 x3

f(x0) f(x1) f(x2) f(x3)

Y donde a= x0, b= x3 y x1, x2 son los puntos que dividen en tres partes iguales al
intervalo [a,b].
Igual que en el caso anterior, se usa el polinomio de interpolación de Lagrange, y
usando el método de integración por partes se llega a la siguiente fórmula:

Donde h = (b-a) / 3. Debido al factor 3h / 8 es que se le dio el nombre de Regla de


Simpson de 3/8. En la práctica, se sustituye el valor de h para obtener:

5.3 Integración con intervalos desiguales.


Cuando la longitud de los sub intervalos no es igual, se usa una combinación de la
regla Trapezoidal y las reglas de Simpson, procurando seguir el siguiente orden
jerárquico:
1.- Simpson 3/8
Esta se aplica, si contamos con 4 puntos igualmente espaciados.
2.- Simpson 1/3
Esta se aplica si falla (1) y contamos con 3 puntos igualmente espaciados.
3.- Regla Trapezoidal
Solo se aplica si no se cumple (1) y (2)
Ejemplo
Evaluar
1

Usando la siguiente tabla:

x 0 0.1 0.3 0.5 0.7 0.95 1.2


f(x) 0 6.84 4 4.2 5.51 5.77 1

Solución.
Vemos que en el intervalo [0,0.01] podemos aplicar la regla del trapecio, en el
intervalo [0.1, 0.7] la regla de Simpson de 3/8 y en el intervalo [0.7, 1.2] la regla de
Simpson de 1/3. Así, tenemos las siguientes integrales:

Finalmente, la integral buscada es la suma de las tres integrales anteriores:

5.4 Aplicaciones.
· Método del trapecio
Ejemplo
Utilizar la regla del trapecio para aproximar la integral:
Solución.
Usamos la fórmula directamente con los siguientes datos:

Por lo tanto tenemos que:

· Método de Simpson 1/3


Ejemplo 1. Usar la regla de Simpson de 1/3 para aproximar la siguiente integral:

Solución.
Aplicamos la fórmula directamente, con los siguientes datos:

Por lo tanto, tenemos que:

· Método de Simpson 3/8


Ejemplo 1.
Aproximar la siguiente integral:
Aplicando la regla de Simpson de 3/8, y sub dividendo en 3 intervalos.
Solución
Identificamos n=3 y la partición correspondiente:

Al considerar los puntos que dividen en tres partes iguales a cada sub intervalo,
tenemos los siguientes datos:

Sustituyendo todos los datos en la fórmula, obtenemos:

De acuerdo a los ejemplos vistos, resulta evidente que la regla de Simpson de 3/8,
es más exacta que la de 1/3 y a su vez, ésta es más exacta que la regla del trapecio.
En realidad, pueden establecerse cotas para los errores que se cometen en cada
uno de estos métodos.

5.5 Regresión y correlación


La correlación lineal y la regresión lineal simple son métodos estadísticos que
estudian la relación lineal existente entre dos variables. Antes de profundizar en
cada uno de ellos, conviene destacar algunas diferencias:
 La correlación cuantifica como de relacionadas están dos variables, mientras
que la regresión lineal consiste en generar una ecuación (modelo) que,
basándose en la relación existente entre ambas variables, permita predecir
el valor de una a partir de la otra.
 El cálculo de la correlación entre dos variables es independiente del
orden o asignación de cada variable a XX e YY, mide únicamente la relación
entre ambas sin considerar dependencias. En el caso de la regresión lineal,
el modelo varía según qué variable se considere dependiente de la otra (lo
cual no implica causa-efecto).
 A nivel experimental, la correlación se suele emplear cuando ninguna de las
variables se ha controlado, simplemente se han medido ambas y se desea
saber si están relacionadas. En el caso de estudios de regresión lineal, es
más común que una de las variables se controle (tiempo, concentración de
reactivo, temperatura…) y se mida la otra.
 Por norma general, los estudios de correlación lineal preceden a la
generación de modelos de regresión lineal. Primero se analiza si ambas
variables están correlacionadas y, en caso de estarlo, se procede a generar
el modelo de regresión.

Correlación lineal
Para estudiar la relación lineal existente entre dos variables continuas es necesario
disponer de parámetros que permitan cuantificar dicha relación. Uno de estos
parámetros es la covarianza, que indica el grado de variación conjunta de dos
variables aleatorias.

siendo x¯ e y¯ la media de cada variable y xi e yi el valor de las variables para la


observación ii.
La covarianza depende de las escalas en que se miden las variables estudiadas,
por lo tanto, no es comparable entre distintos pares de variables. Para poder hacer
comparaciones se estandariza la covarianza, generando lo que se conoce
como coeficientes de correlación. Existen diferentes tipos, de entre los que destacan
el coeficiente de Pearson, Rho de Spearman y Tau de Kendall.
 Todos ellos varían entre +1 y -1. Siendo +1 una correlación positiva perfecta
y -1 una correlación negativa perfecta.
 Se emplean como medida de fuerza de asociación (tamaño del efecto):
o 0: asociación nula.
o 0.1: asociación pequeña.
o 0.3: asociación mediana.
o 0.5: asociación moderada.
o 0.7: asociación alta.
o 0.9: asociación muy alta.
Las principales diferencias entre estos tres coeficientes de asociación son:
 La correlación de Pearson funciona bien con variables cuantitativas que
tienen una distribución normal. En el libro Handbook of Biological Statatistics
se menciona que sigue siendo bastante robusto a pesar de la falta de
normalidad. Es más sensible a los valores extremos que las otras dos
alternativas.
 La correlación de Spearman se emplea cuando los datos son ordinales, de
intervalo, o bien cuando no se satisface la condición de normalidad para
variables continuas y los datos se pueden transformar a rangos. Es un
método no paramétrico.
 La correlación de Kendall es otra alternativa no paramétrica para el estudio
de la correlación que trabaja con rangos. Se emplea cuando se dispone de
pocos datos y muchos de ellos ocupan la misma posición en el rango, es
decir, cuando hay muchas ligaduras.
Además del valor obtenido para el coeficiente de correlación, es necesario calcular
su significancia. Solo si el p-value es significativo se puede aceptar que existe
correlación, y esta será de la magnitud que indique el coeficiente. Por muy cercano
que sea el valor del coeficiente de correlación a +1+1 o −1−1, si no es significativo,
se ha de interpretar que la correlación de ambas variables es 0, ya que el valor
observado puede deberse a simple aleatoriedad.
El test paramétrico de significancia estadística empleado para el coeficiente de
correlación es el t-test. Al igual que ocurre siempre que se trabaja con muestras, por
un lado está el parámetro estimado (en este caso el coeficiente de correlación) y
por otro su significancia a la hora de considerar la población entera. Si se calcula el
coeficiente de correlación entre XX e YY en diferentes muestras de una misma
población, el valor va a variar dependiendo de las muestras utilizadas. Por esta
razón se tiene que calcular la significancia de la correlación obtenida y su intervalo
de confianza.
Para este test de hipótesis, H0 considera que las variables son independientes
(coeficiente de correlación poblacional = 0) mientras que, la Ha, considera que existe
relación (coeficiente de correlación poblacional ≠≠ 0)
La correlación lineal entre dos variables, además del valor del coeficiente de
correlación y de sus significancia, también tiene un tamaño de efecto asociado. Se
conoce como coeficiente de determinación R2. Se interpreta como la cantidad de
varianza de YY explicada por XX. En el caso del coeficiente de Pearson y el
de Spearman, R2 se obtiene elevando al cuadrado el coeficiente de correlación. En
el caso de Kendall no se puede calcular de este modo. (No he encontrado como se
calcula).

Regresión lineal
La regresión lineal simple consiste en generar un modelo de regresión (ecuación de
una recta) que permita explicar la relación lineal que existe entre dos variables. A la
variable dependiente o respuesta se le identifica como “Y” y a la variable predictora
o independiente como “X”.
El modelo de regresión lineal simple se describe de acuerdo a la ecuación:

Siendo β0 la ordenada en el origen, β1 la pendiente y ϵ el error aleatorio. Este último


representa la diferencia entre el valor ajustado por la recta y el valor real. Recoge el
efecto de todas aquellas variables que influyen en “Y” pero que no se incluyen en el
modelo como predictores. Al error aleatorio también se le conoce como residuo.
En la gran mayoría de casos, los valores β0 y β1 poblacionales son desconocidos,
por lo que, a partir de una muestra, se obtienen sus estimaciones β^0 y β^1. Estas
estimaciones se conocen como coeficientes de regresión o least square coefficient
estimates, ya que toman aquellos valores que minimizan la suma de cuadrados
residuales, dando lugar a la recta que pasa más cerca de todos los puntos. (Existen
alternativas al método de mínimos cuadrados para obtener las estimaciones de los
coeficientes).
Donde Sy y Sx son las desviaciones típicas de cada variable y R el coeficiente de
correlación. β^0 es el valor esperado la variable YY cuando XX = 0, es decir, la
intersección de la recta con el eje y. Es un dato necesario para generar la recta,
pero en ocasiones, no tiene interpretación práctica (situaciones en las que X no
puede adquirir el valor 0).
Una recta de regresión puede emplearse para diferentes propósitos y dependiendo
de ellos es necesario satisfacer distintas condiciones. En caso de querer medir la
relación lineal entre dos variables, la recta de regresión lo va a indicar de forma
directa (ya que calcula la correlación). Sin embargo, en caso de querer predecir el
valor de una variable en función de la otra, no solo se necesita calcular la recta, sino
que además hay que asegurar que el modelo sea bueno.

5.6 Mínimos cuadrados


La aproximación por mínimos
cuadrados permite calcular una función
que mejor se ajuste a un conjunto de
puntos en particular. Es sumamente útil
en las ciencias experimentales para
encontrar modelos matemáticos de
fenómenos físicos, o para modelar
comportamientos estadísticos de
poblaciones.
Para obtener la distancia mínima, es
necesario considerar que un punto dado
crea una proyección ortogonal sobre la
función de ajuste, ya que este tipo de proyección minimiza la distancia entre ambos.
Dicha distancia se puede considerar como el error entre una magnitud real (el punto
obtenido experimentalmente) y una ideal (el perteneciente a la curva de ajuste).
La forma de proceder es mediante las ecuaciones normales de Gauss

Donde A es la matriz formada por las abscisas de los puntos, distribuidos según la
función que se esté ajustando, y B son las ordenadas del conjunto de datos
experimentales.

EJEMPLO. Dado el conjunto de puntos

Se puede obtener una recta que mejor se ajuste a ellos. Esta recta debe tener la
forma Yi = mxi + b. Para formar la matriz A se usan los coeficientes de la recta
propuesta, utilizando los datos dados.
Que al aplicarle las ecuaciones normales, se obtiene un sistema de dos ecuaciones
con dos incógnitas

La solución de este sistema de ecuaciones dará como resultado la pendiente y la


ordenada al origen de la recta que mejor se ajusta al conjunto de puntos propuesto.
Dicha recta es

También podría gustarte