Está en la página 1de 29

INTRODUCCIÓN

 El análisis de regresión lineal es una técnica estadística utilizada para estudiar la regresión entre
variable. Se adapta a una amplia variedad de situaciones. Esta investigación social, el análisis de
regresiones usa para presidir un amplio rango de fenómenos desde medidas económicas hasta
diferentes aspectos del comportamiento humano. En contexto de la investigación de mercados
pueden utilizarse para determinar en cual de diferentes medios de comunicación puede resultar más
eficaz invertir o para presidir el número de ventas de un determinado producto

 Nuestro objetivo es el de proporcionar los fundamentos del análisis de regresión, intentaremos


fomentar la compresión de cómo y cuándo utilizar el análisis de regresión lineal, fórmulas para
poder llevarlo a cabo así como definiciones para comprenderlo.
PRONÓSTICO Y REGRESIÓN (ANALISIS)
El pronóstico es el proceso de estimación en situaciones de incertidumbre. El
término predicción es similar, pero más general, y usualmente se refiere a la estimación
de series temporales o datos instantáneos.
Se clasifica en:

 Pronósticos a corto plazo: En las empresas modernas, este tipo de pronóstico se efectúa cada mes o
menos, y su tiempo de planeación tiene vigencia de un año. Se utiliza para programas de
abastecimiento, producción, asignación de mano de obra a las plantillas de trabajadores, y
planificación de los departamentos de fabricación.
 Pronósticos a mediano plazo: Abarca un lapso de seis meses a tres años. Este se utilizan para
estimar planes de ventas, producción, flujos de efectivo y elaboración de presupuestos.
 Pronósticos a largo plazo: Este tipo de pronóstico se utiliza en la planificación de nuevas
inversiones, lanzamiento de nuevos productos y tendencias tecnológicas de materiales, procesos y
productos, así como en la preparación de proyectos.
PRONÓSTICO Y REGRESIÓN (ANALISIS)
Regresión es un proceso estadístico para estimar las relaciones entre variables. Incluye
muchas técnicas para el modelado y análisis de diversas variables, cuando la atención se centra
en la relación entre una variable dependiente y una o más variables independientes (o
predictores). Más específicamente, el análisis de regresión ayuda a entender cómo el valor de la
variable dependiente varía al cambiar el valor de una de las variables independientes,
manteniendo el valor de las otras variables independientes fijas.
TIPOS DE REGRESIÓN

Método de regresión lineal simple

La regresión lineal simple examina la relación lineal entre dos variables continuas:
una respuesta (Y) y un predictor (X). Cuando las dos variables están relacionadas, es
posible predecir un valor de respuesta a partir de un valor predictor con una exactitud
mayor que la asociada únicamente a las probabilidades.

Ejemplos:

 Estudiar cómo influye la estatura del padre sobre la estatura del hijo.

 Estimar el precio de una vivienda en funcion de su superficie.


MÉTODO DE REGRESIÓN LINEAL MÚLTIPLE

Siguiendo con nuestro ejemplo, si consideramos el


La regresión lineal peso como variable dependiente y como posibles
múltiple examina las variables explicativas:
relaciones lineales entre  Estatura
una respuesta continua y  Pie
dos o más predictores.  brazo
 Espalda
 Cráneo
 El modelo que deseamos construir es:
MÉTODO DE REGRESIÓN NO LINEAL

 La regresión lineal no siempre da buenos  Una función no-lineal que tiene


muchas aplicaciones es la función
resultados, porque a veces la relación exponencial
entre Y y X no es lineal sino que exhibe
Y = AXb
algún grado de curvatura. La estimación
directa de los parámetros de funciones  Donde A y b son constantes
desconocidas. Si aplicamos
no-lineales es un proceso bastante
logaritmos, esta función también
complicado. No obstante, a veces se puede ser expresada como:
pueden aplicar las técnicas de regresión
lineal por medio de transformaciones de
log(Y) = log(A) + b.log(X)
las variables originales.
DIAGRAMA DE DISPERSIÓN
Un diagrama de dispersión o gráfica de dispersión es un tipo de diagrama que
utiliza las coordenadas cartesianas para mostrar los valores de dos variables
para un conjunto de datos.
-Dos variables cuantitativas
-Una variable es llamada
independiente (X) y la otra
dependiente (Y)
-Los puntos no se unen
-No es tabla de frecuencias
Construir el diagrama de dispersión entre semanas de experiencia y número de rechazos

40

35

30

25

NÚMERO DE
20
RECHAZOS

15

10

0
0 5 10 15
SEMANA DE EXPERIENCIA
COVARIANZA
La covarianza aprovecha esta característica señalada en la transparencia anterior (al emplear el
producto de las puntuaciones diferencias de X e Y). He aquí la fórmula:

 X i  X Yi  Y 
sxy  i 1

n
En el caso 1, la covarianza será un valor positivo, y en el caso 2, la covarianza será un valor negativo.
Por tanto la covarianza nos da una idea de si la relación entre X e Y es positiva o negativa.

Problema: la covarianza no en un índice acotado (v.g., cómo interpretar una covarianza de 6 en


términos del grado de asociación), y no tiene en cuenta la variabilidad de las variables. Por eso se
emplea el siguiente índice....
COEFICIENTE DE CORRELACIÓN (LINEAL) DE
PEARSON
El coeficiente de correlación de Pearson parte de la covarianza:

 X i  X Yi  Y 
rxy 
sxy
rxy  i 1
sx  s y
n  sx  s y

Ahora veremos varias propiedades del índice...


COEFICIENTE DE CORRELACIÓN (LINEAL)
DE PEARSON
Propiedad 1. El índice de correlación de Pearson no puede valer menos de -1 ni más de
+1.

Un índice de correlación de Pearson de -1 indica una relación lineal negativa perfecta

Un índice de correlación de Pearson de +1 indica una relación lineal positiva perfecta.

Un índice de correlación de Pearson de 0 indica ausencia de relación lineal. (Observad


que un valor cercano a 0 del índice no implica que no haya algún tipo de relación no
lineal: el índice de Pearson mide relación lineal.)
Ejemplo 1

DATOS DEL CLUB DE SALUD

Datos correspondientes a 20 empleados del club de salud de una empresa

X pulsasiones or minuto en reposo


Y tiempo en correr 1 milla ( reg)

Fuente: S. Chatterjee - A. Hadi: " Sentivity Analysis in Linear Regression"

obs X Y
1 67 481
2 52 292
3 56 357
4 66 396
5 65 345
6 80 469
7 77 425
8 65 393
9 68 346
10 66 401
11 70 267
12 59 368
13 58 295
14 52 391
15 64 487
16 72 481
17 57 374
18 59 367
19 70 469
20 63 252
Promedios: 64,3 382,8
Calcularemos de la covarianza entre estas dos variables.

Covarianza

Valores centrados y productos:


obs X-64,3 Y-382,8 prod
1 2,7 98,2 265,14
2 -12,3 -90,8 1116,84
3 -8,3 -25,8 214,14
4 1,7 13,2 22,44
5 0,7 -37,8 -26,46
6 15,7 86,2 1353,34
7 12,7 42,2 535,94
8 0,7 10,2 7,14
9 3,7 -36,8 -136,16
10 1,7 18,2 30,94
11 5,7 -115,8 -660,06
12 -5,3 -14,8 78,44
13 -6,3 -87,8 553,14
14 -12,3 8,2 -100,86
15 -0,3 104,2 -31,26
16 7,7 98,2 756,14
17 -7,3 -8,8 64,24
18 -5,3 -15,8 83,74
19 5,7 86,2 491,34
20 -1,3 -130,8 170,04
Promedio : 239,41

La covarianza entre las


variables X e Y es igual a 239,41
COEFICIENTE O ÍNDICE DE CORRELACIÓN
 La correlación, también conocida como coeficiente de correlación
lineal (de Pearson), es una medida de regresión que pretende
cuantificar el grado de variación conjunta entre dos variables.

Por tanto, es una medida estadística que cuantifica la dependencia lineal entre dos variables, es decir, si se
representan en un diagrama de dispersión los valores que toman dos variables, el coeficiente de correlación
lineal señalará lo bien o lo mal que el conjunto de puntos representados se aproxima a una recta.
 La podemos definir como el número que mide el grado de intensidad y el
sentido de la relación entre dos variables.

Siendo:

Cov (x;y): la covarianza entre el valor «x» e «y».


σ(x): desviación típica de «x».
σ(y): desviación típica de «y».
Valores que puede tomar la correlación

 P= Es coeficiente de correlación de Pearson

 P = -1 Correlación perfecta negativa

 P=0 No existe correlación

 P = +1 Correlación perfecta positiva

Hablamos de correlación positiva si siempre que el valor «x» sube, el valor «y» sube, y
además con la misma intensidad (+1).

En el caso opuesto, si siempre que el valor «x» sube, y el valor «y» baja, y además con la
misma intensidad, entonces estamos hablando de
REPRESENTACIÓN GRÁFICA DE LA
CORRELACIÓN
Correlación perfecta positiva:

Correlación perfecta negativa:

No hay correlación:
RECTA DE REGRESIÓN DE MÍNIMOS CUADRADOS

Es un procedimiento de análisis numérico en la que, dados un conjunto de datos (pares ordenados y familia de
funciones), se intenta determinar la función continua que mejor se aproxime a los datos (línea de regresión o la
línea de mejor ajuste), proporcionando una demostración visual de la relación entre los puntos de los
mismos. En su forma más simple, busca minimizar la suma de cuadrados de las diferencias ordenadas
(llamadas residuos) entre los puntos generados por la función y los correspondientes datos.

Este método se utiliza comúnmente para analizar una serie de


datos que se obtengan de algún estudio, con el fin de expresar su
comportamiento de manera lineal y así minimizar los errores de
la data tomada.
DEFINICIÓN: MÉTODO DE MÍNIMOS
CUADRADOS
Su expresión general se basa en la ecuación de una
recta y = mx + b. Donde m es la pendiente y b el punto
de corte, y vienen expresadas de la siguiente manera:

Σ Es el símbolo sumatoria de todos los términos, mientas (x, y) son los datos en estudio y n la
cantidad de datos que existen.

El método de mínimos cuadrados calcula a partir de los N


pares de datos experimentales (x, y), los valores m y b que
mejor ajustan los datos a una recta. Se entiende por el
mejor ajuste aquella recta que hace mínimas las distancias
d de los puntos medidos a la recta.
INTERPRETACIÓN DEL COEFICIENTE
DE REGRESIÓN
La interpretación del coeficiente de regresión se basa en una técnica estadística
utilizada para estudiar la relación entre las variables.

En el contexto de la investigación en se puede aplicar para determinar en cuál de


diferentes medios de comunicación puede resultar más eficaz invertir, o para predecir el
número de ventas de un determinado producto.
Los coeficientes son los números por los
cuales se multiplican las variables de una
ecuación. Por ejemplo, en la ecuación y = -3.6
+ 5.0X1 - 1.8X2, las variables X1 y X2 se
multiplican por 5.0 y -1.8, respectivamente, de
modo que los coeficientes son 5.0 y -1.8.

El tamaño y el signo de un coeficiente en una


ecuación afecta su gráfica. En una ecuación
lineal simple (contiene solamente una variable
X), el coeficiente es la pendiente de la línea.
COEFICIENTE DE DETERMINACIÓN
En estadística, el coeficiente de determinación, denominado R² y
pronunciado R cuadrado, es un estadístico usado en el contexto de un
modelo estadístico cuyo principal propósito es predecir futuros
resultados o probar una hipótesis. El coeficiente determina la calidad del
modelo para replicar los resultados, y la proporción de variación de los
resultados que puede explicarse por el modelo
Es importante saber que el
resultado del coeficiente de
determinación oscila entre 0 y 1.
Cuanto más cerca de 1 se sitúe
su valor, mayor será el ajuste del
modelo a la variable que
estamos intentando explicar. De
forma inversa, cuanto más cerca
de cero, menos ajustado estará
el modelo y, por tanto, menos
fiable será.
La primera diferencia es que la Y lleva un circunflejo. El circunflejo lo que detalla es que
esa Y es la estimación de un modelo sobre lo que según las variables explicativas vale
Y, pero no es el valor real de Y, sino una estimación de Y.

En segundo lugar, faltaría dividir entre T. Que, en otros casos, se nota como N o número
de observaciones. Sin embargo, dado que la fórmula del denominador también la
llevaría, eliminamos los denominadores (parte de abajo) de ambas fórmulas para
simplificar la expresión. De esta manera es más fácil trabajar con ella.

A continuación, vamos a realizar el mismo análisis con la parte del denominador (parte
de abajo).
CONSECUENCIAS
PARTICIÓN DE LA VARIANZA DE Y, 𝑺𝒙𝟐
INVARIANZA DEL COEFICIENTE DE REGRESIÓN
Y DEL ÍNDICE DE CORRELACIÓN

También podría gustarte