0% encontró este documento útil (0 votos)
4K vistas5 páginas

Interpolación y regresión: diferencias clave

La regresión analiza la relación entre una variable dependiente y una o más variables independientes para generar una función que describa la relación, mientras que la interpolación usa puntos de datos conocidos para estimar valores desconocidos. La diferencia clave es que la regresión busca una función general que describa los datos, mientras que la interpolación solo conecta puntos específicos de datos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
4K vistas5 páginas

Interpolación y regresión: diferencias clave

La regresión analiza la relación entre una variable dependiente y una o más variables independientes para generar una función que describa la relación, mientras que la interpolación usa puntos de datos conocidos para estimar valores desconocidos. La diferencia clave es que la regresión busca una función general que describa los datos, mientras que la interpolación solo conecta puntos específicos de datos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Diferencia fundamental entre regresión e interpolación

ANALISIS DE REGRECION

En un Análisis de Regresión simple existe una variable respuesta o dependiente (y)


que puede ser el número de especies, la abundancia o la presencia-ausencia de
una sola especie y una variable explicativa o independiente (x).

El propósito es obtener una función sencilla de la variable explicativa, que sea capaz
de describir lo más ajustadamente posible la variación de la variable dependiente.
Como los valores observados de la variable dependiente difieren generalmente de
los que predice la función, ésta posee un error.

La función más eficaz es aquella que describe la variable dependiente con el menor
error posible o, dicho en otras palabras, con la menor diferencia entre los valores
observados y predichos. La diferencia entre los valores observados y predichos (el
error de la función) se denomina variación residual o residuos. Para estimar los
parámetros de la función se utiliza el ajuste por mínimos cuadrados. Es decir, se
trata de encontrar la función en la cual la suma de los cuadrados de las diferencias
entre los valores observados y esperados sea menor. Sin embargo, con este tipo
de estrategia es necesario que los residuos o errores estén distribuidos
normalmente y que varíen de modo similar a lo largo de todo el rango de valores de
la variable dependiente. Estas suposiciones pueden comprobarse examinando la
distribución de los residuos y su relación con la variable dependiente.

Cuando la variable dependiente es cuantitativa (por ejemplo, el número de especies)


y la relación entre ambas variables sigue una línea recta, la función es del tipo
y= c + bx, en donde c es el intercepto o valor del punto de corte de la línea de
regresión con el eje de la variable dependiente (una medida del número de especies
existente cuando la variable ambiental tiene su mínimo valor) y b es la pendiente o
coeficiente de regresión (la tasa de incremento del número de especies con cada
unidad de la variable ambiental considerada). Si la relación no es lineal pueden
transformarse los valores de una o ambas variables para intentar linearizarla. Si no
es posible convertir la relación en lineal, puede comprobarse el grado de ajuste de
una función polinomial más compleja. La función polinomial más sencilla es la
cuadrática (y= c + bx + bx2) que describe una parábola, pero puede usarse una
función cúbica u otra de un orden aun mayor capaz de conseguir un ajuste casi
perfecto a los datos. Cuando la variable dependiente se expresa en datos
cualitativos (presencia-ausencia de una especie) es aconsejable utilizar las
regresiones logísticas (y= [ exp (c+ bx)] / [ 1 + exp (c + bx)] ).

INTERPOLACION

En el subcampo matemático del análisis numérico, se denomina interpolación a la


obtención de nuevos puntos partiendo del conocimiento de un conjunto discreto de
puntos.

En ingeniería y algunas ciencias es frecuente disponer de un cierto número de


puntos obtenidos por muestreo o a partir de un experimento y pretender construir
una función que los ajuste.

Otro problema estrechamente ligado con el de la interpolación es la aproximación


de una función complicada por una más simple. Si tenemos una función cuyo cálculo
resulta costoso, podemos partir de un cierto número de sus valores e interpolar
dichos datos construyendo una función más simple. En general, por supuesto, no
obtendremos los mismos valores evaluando la función obtenida que si evaluásemos
la función original, si bien dependiendo de las características del problema y del
método de interpolación usado la ganancia en eficiencia puede compensar el error
cometido.
En todo caso, se trata de, a partir de n parejas de puntos (x k,yk), obtener una
función f.

Diferencia fundamental

la interpolación se deriva de una regresión y la regresión puede ser lineal cuadrática


exponencial, entre otros depende de lo que te pidan. Para hacer una interpolación
te tienes que pedir un punto desconocido y este punto desconocido tiene que estar
en por lo mínimo dos puntos conocido o ya tabulados para que puedas hacer la
regresión y luego calcular el punto desconocido mediante la fórmula calculada de la
regresión.

Ejemplo:

Por ejemplo si te piden interpolar la presión del agua a una temperatura de 125 C y
te dan una tabla de presiones en donde el valor 125 C no aparece sino que aparece
de esta forma

P.............T

200.......100
250.......110
300.......120
350.......130
400.......140

Es decir que tienes que tomar dos puntos que estén dentro de 125C y en este caso
son:

P.............T
300.......120
350.......130

Entonces con estos dos puntos hacemos una regresión lineal para hallar la fórmula
de la línea
y=mx+b donde y=p y x=T

y así poder halar el valor de la presión P a una T de 125C

La regresión polinomial y la lineal múltiple (observe que la regresión lineal simple es


una particularidad de ambas) pertenecen a una clase más general de modelos de
mínimos cuadrados lineales. Se clasifican de esta manera porque son lineales
respecto a sus coeficientes. Por lo común estos modelos se implementan a través
de la solución de sistemas algebraicos lineales, que algunas veces están mal
condicionados. Sin embargo, en muchos problemas de ingeniería (se tienen ajustes
de grado inferior), afortunadamente, no ocurre. En los casos donde esto represente
un problema se cuenta con algunos procedimientos alternativos. Por ejemplo, existe
una técnica llamada de polinomios ortogonales, para realizar la regresión polinomial

Las ecuaciones que no son lineales respecto a sus coeficientes se denominan no


lineales. Hay técnicas de regresión especiales para ajustar tales ecuaciones. Éstos
son métodos aproximados que empiezan con un parámetro inicial estimado y
después, iterativamente, llegan a valores que minimizan la suma de los cuadrados.

La interpolación polinomial está diseñada para ajustar un único polinomio de n-


ésimo grado que pasa exactamente a través de los n + 1 puntos que se tienen como
datos. Este polinomio se presenta en dos formas alternativas. La interpolación
polinomial de Newton en diferencias divididas es ideal en aquellos casos donde se
conoce el grado del polinomio. El polinomio de Newton resulta apropiado en tales
situaciones, ya que se programa en forma sencilla en un formato que sirve para
comparar resultados con diferentes grados. Además, un error estimado
simplemente se puede incorporar en la técnica. Así, usted puede comparar y elegir
de los resultados usando varios polinomios de diferente grado
La interpolación de polinomios de Lagrange es una forma alternativa que es
conveniente cuando el grado se conoce de antemano. En dichas situaciones, la
versión de Lagrange es más fácil de programar y no requiere del cálculo ni el
almacenamiento de diferencias divididas finitas.

APA

Aguilar, N. C. (16 de Marzo de 2014). spacebioq. Obtenido de spacebioq:


[Link]

Diferencia fundamental entre regresión e interpolación 
ANALISIS DE REGRECION 
En un Análisis de Regresión simple existe una
una función polinomial más compleja. La función polinomial más sencilla es la 
cuadrática (y= c + bx + bx2) que describe una
En todo caso, se trata de, a partir de n parejas de puntos (xk,yk), obtener una 
función f. 
Diferencia fundamental  
la inte
300.......120  
350.......130  
 
Entonces con estos dos puntos hacemos una regresión lineal para hallar la fórmula 
de 
la
La interpolación de polinomios de Lagrange es una forma alternativa que es 
conveniente cuando el grado se conoce de antemano

También podría gustarte