Está en la página 1de 20

Tecnológico Nacional de México Instituto

Tecnológico de Tijuana
Portafolio : Unidad 4 : Ajuste de funciones.

Materia: Métodos Numéricos

Carrera: Ingeniería Química

Alumnos:
Gradillas Ramirez Ailynee Veronica 19211026
Castro Hernandez Jennifer Vianey 21211767
Bernal Valladares Amber Yamel 21211764
Huerta Olva Jazmin 21211781

Docente: Marisela Castillo Lopez

Fecha de entrega: 2/Mayo /2023


4.1 Interpolación
La interpolación es un método estadístico por el que se utilizan valores conocidos
relacionados para estimar un precio desconocido o el rendimiento potencial de un valor, por
ejemplo. La interpolación se consigue utilizando otros valores establecidos que se
encuentran en secuencia con el valor desconocido.

La fórmula de la interpolación

La fórmula de interpolación es la siguiente:


y−y1=y2−y1x2−x1×(x−x1)
dicho de otra forma,
y=y1+y2−y1x2−x1×(x−x1)
donde dos puntos se conocen como (x1,y1)y(x2,y2).
Relacionado con la interpolación, otro proceso es la extrapolación, que es la búsqueda de
un valor correspondiente para un conjunto dado de valores fuera del rango indicado.

Usos de la interpolación
Para sustituir un conjunto de puntos de datos {(xi, yi)} por una función dada analíticamente.

Los datos pueden pertenecer a una clase conocida de funciones. La interpolación se utiliza
entonces para encontrar el miembro de esta clase de funciones que concuerda con los
datos dados.

Podemos querer tomar los valores de la función f(x) dados en una tabla para valores
seleccionados de x, a menudo igualmente espaciados, y extender la función a valores de x,
no en la tabla. Por ejemplo, dados los números de una tabla de logaritmos, estimar el
logaritmo de un número x que no está en la tabla
.
Dado un conjunto de puntos de datos {(xi,yi)}, encontrar una curva que pase por estos
puntos y que sea «agradable a la vista». De hecho, esto es lo que se hace continuamente
con los gráficos por ordenador.
En el subcampo matemático del análisis numérico, se denomina interpolación a obtención
de nuevos puntos partiendo del conocimiento de un conjunto de puntos.

Se puede considerar como


"llenar los espacios" de una
tabla de datos. La estrategia
para la interpolación lineal es
usar una línea recta para
conectar los datos conocidos a
ambos lados del punto
desconocido. La interpolación
lineal es a menudo no precisa
para datos no lineales

¿Qué es la interpolación y para


qué sirve?

Mediante la interpolación, un
analista financiero puede estimar
la tasa para un período que se encuentra dentro de ese rango. Para obtener estimaciones
precisas de tasas de intereses o de crecimiento, se puede aplicar la interpolación, como un
método para estimar valores intermedios desconocidos.

La interpolación es un proceso que utiliza mediciones realizadas sobre algún fenómeno


(precipitación, temperatura o elevación) en determinados lugares, para hacer una predicción
sobre un fenómeno en otros lugares donde no se han realizado mediciones.
Los diferentes métodos de interpolación desarrollados pueden dividirse en dos tipos
fundamentales:

● Métodos globales, utilizan toda la muestra para estimar el valor en cada nuevo
punto.
● Métodos locales, utilizan solo los puntos de muestreo más cercanos.
El desarrollo de la interpolación se entrelaza con los primeros desarrollos de las diferencias
finitas, empezando por la cuadratura del círculo de Wallis en 1655, con la que propuso el
principio de “inter cálculo” o inter- polación.mk

4.2 Regresión de mínimos cuadrados.


MÉTODO DE CUADRADOS MÍNIMOS – REGRESIÓN LINEAL.Hemos enfatizado sobre la
importancia de las representaciones gráficas y hemos visto la utilidad de las versiones
linealizadas de los gráficos (X, Y) junto a las distintas maneras de llevar a cabo la
linealización. A menudo nos enfrentamos con situaciones en las que existe o suponemos
que existe una relación lineal entre las variables X e Y.
Surge de modo natural la pregunta: ¿cuál es la relación analítica que mejor se ajusta a
nuestros datos? El método de cuadrados mínimos es un procedimiento general que nos
permite responder esta pregunta. Cuando la relación entre las variables X e Y es lineal, el
método de ajuste por cuadrados mínimos se denomina también método de regresión lineal.
Observamos o suponemos una tendencia lineal entre las variables y nos preguntamos
sobre cuál es la mejor recta:
y(x) = a x + b
Que representa este caso de interés. Es útil definir la función:
Que es una medida de la desviación total de los valores observados y respecto de los
predichos por el modelo lineal a x + b. Los mejores valores de la pendiente y la ordenada al
origen b son aquellos que minimizan esta desviación total, o sea, son los valores que
reemplazados en la Ec.(1) minimizan la función c2. Ec.(2). Los parámetros a y b pueden
obtenerse usando técnicas matemáticas que hacen uso del cálculo diferencial. Aplicando
estas técnicas, el problema de minimización se reduce al de resolver el par de ecuaciones:
Actualmente, la mayoría de los programas de análisis de datos y planillas de cálculo,
realizan el proceso de minimización en forma automática y dan los resultados de los
mejores valores de a y b, o sea los valores indicados por las ecuaciones.
Gráfico de datos asociados a un modelo lineal. La cantidad yi - y(xi)
representa la desviación de cada observación de yi respecto del valor predicho por
el modelo y(x).
El criterio de mínimos cuadrados reemplaza el juicio personal de quien mire los gráficos y
defina cuál es la mejor recta. En los programas como Excel, se realiza usando la
herramienta “regresión lineal” o “ajuste lineal”. Los resultados se aplican en el caso lineal
cuando todos los datos de la variable dependiente tienen la misma incertidumbre absoluta y
la incertidumbre de la variable independiente se considera despreciable.
REGRESIÓN MÍNIMO-CUADRÁTICA
Consiste en explicar una de las variables en función de la otra a través de un determinado
tipo de función (lineal, parabólica, exponencial, etc.), de forma que la función de regresión
se obtiene ajustando las observaciones a la función elegida, mediante el método de
Mínimos-Cuadrados (M.C.O.).
Elegido el tipo de función ¦ ( ) la función de regresión concreta se obtendrá minimizando la
expresión
(yj - ¦ (xi ) ) 2. nij en el caso de la regresión de Y/X
(xi - ¦ (yj ) ) 2. nij en el caso de la regresión de X/Y
Puede probarse que es equivalente ajustar por mínimos cuadrados la totalidad de las
observaciones (toda la nube de puntos) que realizar el ajuste de los puntos obtenidos por la
regresión de la media; de forma que la regresión mínimo-cuadrática viene ser, en cierto
modo, la consecución de una expresión analítica operativa para la regresión en sentido
estricto.
Coeficientes de regresión.
Se llama coeficiente de regresión a la pendiente de la recta de regresión:
en la regresión Y/X : b = Sxy / Sx2
en la regresión X/Y b' = Sxy / Sy2
El signo de ambos coincidirá con el de la covarianza, indicándonos la tendencia (directa o
inversa a la covariación).Es interesante hacer notar que b.b'= r2
BONDAD DEL AJUSTE (Varianza residual, varianza de la regresión y coeficiente de
determinación)
Por bondad del ajuste hay que entender el grado de acoplamiento que existe entre los datos
originales y los valores teóricos que se obtienen de la regresión. Obviamente cuanto mejor
sea el ajuste, más útil será la regresión a la pretensión de obtener los valores de la variable
regresando a partir de la información sobre la variable regresora .
Obtener indicadores de esta bondad de ajuste es fundamental a la hora de optar por una
regresión de un determinado tipo u otro.
Puesto que la media de los residuos se anula, el primer indicador de la bondad del ajuste
(no puede ser el error medio) será el error cuadrático medio, o varianza del residuo, o
varianza residual :
Considerando la regresión Y/X:

Que será una cantidad mayor o igual que cero.De forma que cuanto más baja sea mejor
será el grado de ajuste.Si la varianza residual vale cero el ajuste será perfecto (ya que no
existirá ningún error ).
Del hecho de que yi=y*i+ei ,y de que las variables y* ý e están incorrelacionadas se tiene
que:

Donde S2y* es la llamada varianza de la regresión y supone la varianza de la variable


regresión

Igualdad fundamental anterior de la que se deduce que la varianza total de la variable y


puede descomponerse en dos partes una parte explicada por la regresión( la varianza de la
regresión) y otra parte no explicada (la varianza residual).
Considerando que la varianza nos mide la dispersión de los datos este hecho hay que
entenderlo como que la dispersión total inicial queda, en parte explicada por la regresión y
en parte no.Cuanto mayor sea la proporción de varianza explicada (y menor la no explicada)
tanto mejor será el ajuste y tanto más útil la regresión.
A la proporción de varianza explicada por la regresión se le llama coeficiente de
determinación ( en nuestro caso lineal):

que evidentemente estará siempre comprendido entre 0 y 1 y, en consecuencia, da cuenta


del tanto por uno explicado por la regresión.
Una consecuencia importante en la práctica es que la varianza residual será obviamente:

Es sencillo probar que en el caso lineal que nos ocupa el coeficiente de determinación
coincide con el cuadrado del coeficiente de correlación: R2 = r2
Con lo cual la varianza residual y la varianza debida a la regresión pueden calcularse a
partir del coeficiente de correlación:

REGRESIÓN MÍNIMO CUADRÁTICA NO-LINEAL


La regresión mínimo-cuadrática puede plantearse de forma que la función de ajuste se
busca no sea una función lineal. El planteamiento general sería similar, aunque obviamente
habría que minimizar el cuadrado de los residuos entre los datos originales y los valor
teóricos obtenibles a través de la función no-lineal considerada.
Regresión parabólica .Desarrollaremos someramente la regresión Y/X y debe quedar claro
que la regresión X/Y resultaría análoga.
Supongamos para simplificar que los datos no están agrupados por frecuencias.
En tal caso, obtener la función parabólica y* = a0+a1x+a2 x2 se llevará a cabo determinado
los valores de los tres parámetros a0,a1,a2 que minimicen :
y (a0,a1,a2)=S (yi- (a0+a1x+a2 x2)) 2
Igualando a cero las tres derivadas parciales se obtendrá las ecuaciones normales, que
convenientemente manipuladas acaban siendo:

yj =N a0 + a1 xi + a2 xi2

yjxi = a0 xi + a1 xi2 + a2 xi3

yjxi2 = a0 xi2 + a1 xi3 + a2 xi4


Sistema de ecuaciones del que se pueden despejar los valores de los coeficientes de
regresión
4.3 Aplicaciones.
En el subcampo matemático del análisis numérico, un spline es una curva diferenciable
definida en proporciones mediante polinomios.
En los problemas de interpolación, se utiliza a menudo la interpolación mediante splines
porque da lugar a los resultados similares requiriendo solamente el uso de polinomios de
bajo grado, evitando así las oscilaciones indeseables en la mayoría de las aplicaciones
encontradas al interpolar mediante polinomios de grado elevado.

Para el ajuste de curvas, los splines se utilizan para aproximar formas complicadas. La
simplicidad de la representación de curvas en informática particularmente en el terreno de
las gráficas del ordenador.
Uno de los principales usos de la interpolación ha sido el hallar valores intermedios a los
calculados en tablas trigonométricas, o astronómicas. Tal como dice por ejemplo el anuario
del observatorio Astronómico de 2003. Muchas tablas de este anuario contienen listas de
valores correspondientes a posiciones dadas para instantes de tiempos sucesivos de una
duración de un día. Por medio de la interpolación es posible determinar los valores de tales
magnitudes para instantes intermedios a los que aparecen en la tabla.
Ejercicios.
ejercicio 3
ejercicio 4
para el siguiente sistema de ecuaciones subdeterminado,encuentre la solución si se tiene
que x1=1
Ejercicio 5.
Con el método de Newton-Raphson resolver el siguiente sistema de
ecuaciones sujeta a las siguientes condiciones iniciales que se indican y detener el
proceso cuando el valor de los incrementos sea menor que :
−6
△ ≤ 1𝑥10

Ejercicio 6:
Con el método de Newton-Raphson resolver el siguiente sistema de
ecuaciones sujeta a las siguientes condiciones iniciales que se indican y detener el
proceso cuando el valor de los incrementos sea menor que :
−6
△ ≤ 1𝑥10
Ejercicio 7.
Resolver por los métodos G, G-J, inv(A),regla de Cramer:
GAUSS
Ejercicio 8.
Verificar cual es la solución del sistema de ecuaciones :
Conclusiones.
Huerta Olva Jazmin.
Es un tema amplio en donde existen distintos métodos, los cuales nos ayuda con diferentes
polinomios ya sea de primer grado o segundo en cuanto más grande la función mayor
precisión en la interpolación ya que este se va formando de una línea a una curvatura.
con este sistema podemos tener más profundidad en las funciones,tenemos más facilidad
de entendimiento sobre el problema para solucionarlo.
Gradillas Ramirez Ailynee Veronica.
En conclusión, el ajuste de funciones es un proceso fundamental en la modelización
matemática de datos y se utiliza en una variedad de campos, como la física, la ingeniería, la
economía y la ciencia de datos.
El objetivo del ajuste de funciones es encontrar una función matemática que mejor se ajuste
a los datos observados. Esto se logra a través del uso de técnicas estadísticas que
minimizan la diferencia entre los valores observados y los valores predichos por la función.
Bernal Valladares Amber Yamel
Al concluir este proyecto nos podemos dar cuenta de la importancia que tiene una
interpolación correcta, además al conocer distintas maneras de hacer un ajuste de
funciones nos permite hacerlo de la mejor manera según los datos que se nos otorgan.
Jennifer Vianey Castro Hernandez
El metodo de gauss-jordan, es un metodo sencillo que se utiliza para deducir sistemas
complejos de ecuaciones y es utilizado en la ingeniería de manera recurrente debido a su
facilidad de manejo y a sus exactitud asimismo.
Referencias.
4.-AJUSTE DE FUNCIONES
4.2 Regresión de mínimos cuadrados.

También podría gustarte