Está en la página 1de 25

Capitulo 01

Análisis de regression
Naturaleza del análisis
de regresión

Docente: Rodas Cobos Jose Luis


1.1 Origen histórico del término regresión
Francis Galton acuñó el término regresión. En un famoso ensayo,
Galton planteó que, a pesar de la tendencia de los padres de
estatura alta a procrear hijos altos y los padres de estatura baja,
hijos bajos, la estatura promedio de los niños de padres de una
estatura determinada tendía a desplazarse, o “regresar”, a la
estatura promedio de la población total.

Docente: Rodas Cobos Jose Luis


1.2 Interpretación moderna de la regresión
El análisis de regresión trata del estudio de la dependencia de una
variable (variable dependiente) respecto de una o más variables
(variables explicativas) con el objetivo de estimar o predecir la
media o valor promedio poblacional de la primera en términos de los
valores conocidos o fijos (en muestras repetidas) de las segundas.

Docente: Rodas Cobos Jose Luis


1.3 Relaciones estadísticas y
relaciones deterministas
En los ejemplos de la sección 1.2 se observa
que en el análisis de regresión interesa lo que
se conoce como dependencia estadística entre
variables, no así la funcional o determinista,
propia de la física clásica. En las relaciones
estadísticas entre variables se analizan, en
esencia, variables aleatorias o estocásticas,4
es decir, variables con distribuciones de
probabilidad. Por otra parte, en la dependencia
funcional o determinista también se manejan
variables, pero no son aleatorias o
estocásticas.

Docente: Rodas Cobos Jose Luis


1.4 Regresión y causalidad

A pesar de que el análisis de regresión


tiene que ver con la dependencia de una
variable respecto de otras variables,
esto no implica causalidad
necesariamente. En palabras de Kendall
y Stuart: “Una relación estadística, por
más fuerte y sugerente que sea, nunca
podrá establecer una conexión causal:
nuestras ideas de causalidad deben
provenir de estadísticas externas y, en
último término, de una u otra teoría”.

Docente: Rodas Cobos Jose Luis


Docente: Rodas Cobos Jose Luis
Docente: Rodas Cobos Jose Luis
Docente: Rodas Cobos Jose Luis
1.6 Terminología y notación
✓ Antes de proceder al análisis formal de la
teoría de regresión abordaremos brevemente
la terminología y la notación. En las
publicaciones especializadas, los términos
variables dependiente y variable explicativa se
definen de varias maneras; a continuación, se
presenta una lista representativa:

✓ Si se estudia la dependencia de una variable


respecto de una única variable explicativa,
como se conoce como análisis de regresión
simple. Sin embargo, si se estudia la
dependencia de una variable respecto de
más de una variable explicativa, se trata de
un análisis de regresión múltiple.

Docente: Rodas Cobos Jose Luis


COEFICIENTE DE
DETERMINACIÓN
El coeficiente de determinación es la proporción de la varianza
total de la variable explicada por la regresión. El coeficiente
de determinación, también llamado R cuadrado, refleja la
bondad del ajuste de un modelo a la variable que pretender
explicar.

σ 2
2
𝑏0 𝛴𝑦 + 𝑏 1 𝑥𝑦 − 𝑛 𝑦

𝑅 =
σ 𝑦 2 − 𝑛𝑦ത 2

Docente: Rodas Cobos Jose Luis


Interpretación
Si R^2 = 0 -- el modelo no explica nada de y a partir de x

Si R^2 = 1 -- ajuste perfecto : depende funcionalmente de x

Un valor de R^2 cercano a 0 -- La recta tiene baja capacidad


de explicación

Un valor de R^2 próximo a 1 -- alta capacidad explicativa de la


recta.

Docente: Rodas Cobos Jose Luis


Regresión Lineal
Simple
El análisis de regresión lineal simple es
útil para estudiar la forma probable de la
relación entre dos variables (Y: variable VARIABLE
VARIABLE
dependiente y X: variable INDEPENDIE
DEPENDIENT
independiente), y su objetivo final es NTE: Explica
E: Depende
predecir o estimar el valor de la variable Y
de X
dependiente, conociendo un valor
específico de la variable independiente

Docente: Rodas Cobos Jose Luis


El modelo
La regresión lineal simple de Y con respecto a X , consiste en
determinar la ecuación de la recta: que mejor se ajuste a los
valores de la muestra, con el fin de poder predecir o
estimar Y (variable dependiente) a partir de X (variable
independiente).

Docente: Rodas Cobos Jose Luis


ŷ = b 0 + b1x
Docente: Rodas Cobos Jose Luis
INTERCEPTO β0
Es aquel punto donde cuando alargo la recta hasta
interceptar con el eje y aparece un punto
12

10

β0 8
estadística

0
0 2 4 6 8 10 12
matemáticas

Docente: Rodas Cobos Jose Luis


PENDIENTE β1
Es la inclinación de una recta y se calcula buscando la razón del
cambio en las coordenadas y (variación vertical) al cambio
correspondiente en las coordenadas x (variación horizontal).
12

10

8
estadística

6
β1
4

0
0 2 4 6 8 10 12
matemáticas

Docente: Rodas Cobos Jose Luis


Supuestos del modelo
de regresión lineal

Independencia. Linealidad. Homocedasticidad. Normalidad


.

Docente: Rodas Cobos Jose Luis


Estimación de los parámetros del modelo
mediante ecuaciones normales
−𝟏 ෌ 𝒙𝟐 − σ 𝒙
𝒃𝟎 𝒏 𝜮𝒙 𝜮𝒚
= 𝒃𝟎 −𝜮𝒙 𝒏 𝜮𝒚
𝒃𝟏 𝜮𝒙 𝜮𝒙𝟐 𝜮𝒙𝒚
𝒃𝟏
= ′

𝜮𝒙𝒚
𝒙𝒙

𝑦ො = β0 + β1 𝑥

𝑥′𝑥 = 𝑛 ෍ 𝑥2 − 𝑥 2

Docente: Rodas Cobos Jose Luis


Regression Lineal
Simple: Pasos
• Especificar la variable independiente (x) y
la dependiente (y)

• Desarrollar un gráfico de dispersión

• Calcular el coeficiente de correlación

• Determinar la ecuación de regresión lineal

Docente: Rodas Cobos Jose Luis


UN ANÁLISIS DE
VARIANZA
PARA REGRESIÓN
LINEAL

Docente: Rodas Cobos Jose Luis


Validación Global del modelo
➢ En un análisis de regresión, la respuesta y está relacionada con la variable
independiente x. En consecuencia, la variación total de la variable de respuesta
y, dada por

está dividida en dos partes:


• La SCR (suma de cuadrados para regresión) mide la cantidad de variación
explicada al usar la recta de regresión con una variable independiente x

• La SCE (suma de cuadrados de error) mide la variación “residual” en los datos


que no está explicada por la variable independiente x

Docente: Rodas Cobos Jose Luis


Anova
H0: bi=0
H1: algún bi ≠0
Fuente de Grados de Suma de Cuadrado
Fc
Variación Libertad Cuadrados Medio
Regresion k SCR CMR CMR/CME
Error n-k-1 SCE CME

Total n-1

Docente: Rodas Cobos Jose Luis


Prueba de
hipótesis de
cada bi

Docente: Rodas Cobos Jose Luis


Validación de 𝞫i prueba de hipótesis

Ho:𝞫i= 0 H1: 𝞫i≠0

Estadístico de prueba

𝒃𝒊 − 𝜷𝒊
𝝉𝒌 = ~𝒕 𝒏−𝟐 𝒈𝒍
෡𝒃𝒊
𝑺

Docente: Rodas Cobos Jose Luis


Formulas
𝟐
𝑺𝑻𝑪 = ෌ 𝒚 − 𝒏ഥ
𝒚2 𝐒𝐂𝐑
𝐂𝐌𝐑 =
𝐱𝐲ത
𝐒𝐂𝐑 = 𝐛𝟏 𝚺𝐱𝐲 − 𝐧ത 𝐤
𝐒𝐂𝐄
𝐒𝐂𝐄 = 𝐒𝐂𝐓 − 𝐒𝐂𝐑 𝐂𝐌𝐄 =
𝐧−𝐤−𝟏

𝒔ො 𝒃𝒊 = 𝑪𝑴𝑬 𝒙′ 𝒙 −𝟏

Docente: Rodas Cobos Jose Luis

También podría gustarte