Está en la página 1de 3

REGRESION LINEAL

Regresión lineal. Permite determinar el grado de dependencia de las series de valores X e Y,


prediciendo el valor y estimado que se obtendría para un valor x que no esté en la distribución.

Tipos de modelos de regresión lineal

Existen diferentes tipos de regresión lineal que se clasifican de acuerdo a sus parámetros:

REGRESIÓN LINEAL SIMPLE

La regresión lineal simple se basa en estudiar los cambios en una variable, no aleatoria, afectan a
una variable aleatoria, en el caso de existir una relación funcional entre ambas variables que
puede ser establecida por una expresión lineal, es decir, su representación gráfica es una línea
recta. Es decir, se esta en presencia de una regresión lineal simple cuando una variable
independiente ejerce influencia sobre otra variable dependiente.

Ejemplo: Y = f(x)

REGRESIÓN LINEAL MÚLTIPLE

La regresión lineal permite trabajar con una variable a nivel de intervalo o razón, así también se
puede comprender la relación de dos o más variables y permitirá relacionar mediante ecuaciones,
una variable en relación a otras variables llamándose Regresión múltiple. O sea, la regresión lineal
múltiple es cuando dos o más variables independientes influyen sobre una variable dependiente.

Ejemplo: Y = f(x, w, z).

Aplicaciones de la regresión lineal

LÍNEAS DE TENDENCIA

Una línea de tendencia representa una tendencia en una serie de datos obtenidos a través de un
largo período. Este tipo de líneas puede decir si un conjunto de datos en particular (como por
ejemplo, el PBI, el precio del petróleo o el valor de las acciones) han aumentado o decrementado
en un determinado período. Las líneas de tendencia son generalmente líneas rectas, aunque
algunas variaciones utilizan polinomios de mayor grado dependiendo de la curvatura deseada en
la línea.
CORRELACIÓN

Indica la fuerza y la dirección de una relación lineal y proporcionalidad entre dos variables
estadísticas. Se considera que dos variables cuantitativas están correlacionadas cuando los valores
de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si
tenemos dos variables (A y B) existe correlación entre ellas si al disminuir los valores de A lo hacen
también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna
relación de causalidad.

MINIMOS CUADRADOS

Es una técnica de análisis numérico enmarcada dentro de la optimización matemática, en la que,


dados un conjunto de pares ordenados —variable independiente, variable dependiente— y una
familia de funciones, se intenta encontrar la función continua, dentro de dicha familia, que mejor
se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.

En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias en las
ordenadas (llamadas residuos) entre los puntos generados por la función elegida y los
correspondientes valores en los datos. Específicamente, se llama mínimos cuadrados promedio
(LMS) cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para
minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado
esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de
iteraciones para converger.

Su expresión general se basa en la ecuación de una recta y = mx + b. Donde m es la


pendiente y b el punto de corte, y vienen expresadas de la siguiente manera:

Σ Es el símbolo sumatoria de todos los términos, mientas (x, y) son los datos en
estudio y n la cantidad de datos que existen.
El método de mínimos cuadrados calcula a partir de los N pares de datos
experimentales (x, y), los valores m y b que mejor ajustan los datos a una recta. Se
entiende por el mejor ajuste aquella recta que hace mínimas las distancias d de los
puntos medidos a la recta.

Teniendo una serie de datos (x, y), mostrados en un gráfico o gráfica, si al conectar
punto a punto no se describe una recta, debemos aplicar el método de mínimos
cuadrados, basándonos en su expresión general:

Cuando se haga uso del método de mínimos cuadrados se debe buscar una línea de
mejor ajuste que explique la posible relación entre una variable independiente y
una variable dependiente. En el análisis de regresión, las variables dependientes se
designan en el eje y vertical y las variables independientes se designan en el eje x
horizontal. Estas designaciones formarán la ecuación para la línea de mejor ajuste,
que se determina a partir del método de mínimos cuadrados.

También podría gustarte