Está en la página 1de 33

“UNIDAD 1”

CALIFICACION: ___________

PROFESOR: Ortiz Campos María Esperanza

MATERIA: Estadística Inferencial 2

CARRERA= INGENIERIA INDUSTRIAL

REGRESION LINEAL SIMPLE Y MULTIPLE

ALUMNO(s): Pazos Victorino Fernanda Citlalli

Piña Amado Liliana

vallejo Karen

MATRÍCULA: 12251201

13250580

12251428

GRUPO: P-42

FECHA DE ENTREGA: Jueves 27 de febrero del 2014 LUGAR= TLALNEPANLTLA


Introducción.
 ¿Que es Regresión? Proceso general para predecir una variable a partir de otra
mediante medios estadísticos utilizando datos históricos.
REGRESIÓN LINEAL SIMPLE: 1 variable independiente y 1 variable dependiente.
REGRESIÓN LINEAL MÚLTIPLE: 2 o mas variables independientes y 1 variable dependiente.

 Análisis de Regresión: Análisis en el que interviene una variable independiente y una


variable dependiente y la relación entre estas variables mediante una línea recta.

 Análisis de Correlación: Técnica para determinar el grado en el que las variables se


relacionan linealmente y también nos permite utilizar mas información disponible para
estimar una variable dependiente.
Regresión:

 Que es el análisis de regresión, ¿Qué es una ecuación de


estimación? Son los estadísticos muéstrales que se usan para
estimar los parámetros, también es el modelo matemático para
saber la relación de las variables.
 ¿Cual es el propósito del análisis de correlación? Nos permite
utilizar mas información disponible para estimar la variable
dependiente.
 Defina cuales son las relaciones directas e inversas.
En la relación directa la variable independiente “x” y la variable
dependiente “y” crecen al mismo tiempo.
En la relación inversa la variable independiente “x” crece y la variable
dependiente “y” disminuye.
 ¿A que se refiere el termino relación causal? La variable
independiente causa cambios en la variable dependiente.
 Explique la diferencia entre relaciones lineales y
curvilíneas. Las lineales esta dada por dos variables y las
curvilíneas son mas de 3.
 Explique por que y como se construye un diagrama de
dispersión. Nos brinda dos tipos de información. Visualmente
podemos identificar patrones que indiquen que las variables
están relacionadas.
 Que es el análisis de regresión múltiple? Estudia la relación
de una variable dependiente con 2 o mas variables
independientes.
Ejemplo:

 Un instructor esta interesado en saber como se


relaciona el numero de estudiantes ausentes con la
temporada media del día. uso una muestra
Ejemplo de diagrama de
dispersión. Valores Y

10
9
8
7
6
5
4 Valores Y
3
2
1
0
0 20 40 60 80
 Pendiente:
Sumatoria(xi-x)(yi-Ῡ)/(xi-x)
 Ordenada al origen
A=Ῡ-bx
 Ecuación de regresión estimada:
Ŷ=a+bx
A=ordenada al origen
B= pendiente
COEFICIENTE DE DETERMINACION
Es una medida dela bondad de ajuste para una ecuación de
regresión.
Para la i-esima observación, la diferencia entre el valor
dependiente yᵢ, y el valor estimado de la variable dependiente
Ў se llama i-esimo residual. Representa el error que se
comete al usar Ў y para estimar yᵢ.
La suma de cuadrados debida al error se representa por SSE=
n n

u
i 1
2
i   ( yi  yˆ i ) 2
i 1
 El valor SSE es una medida de error que se comete al
usar la ecuación de regresión para calcular los valores
de la variable dependiente en la muestra.
 Y para la suma de cuadrados correspondientes se llama
suma de cuadrados total y es SST.
 SST=∑(yi −y¯)
Suma de cuadrados debido a
la region

 SSR=∑(yi −y¯)
 De acuerdo con lo dicho, debemos esperar que SST, SSR, y SSE esten relacionadas, la
relaciòn entre estas tres sumas de cuadrados de uno de los resultados mas importantes.

SCT = SCE +SCR


SCT : Suma de cuadrados total
SCE : Suma de cuadrados error.
SCR: Suma de cuadrados de la regresión
COEFICIENTE DE DETERMINACIÓN
Estadístico que representa la proporción de variación
explicada por la regresión
Es una medida relativa del grado de asociación lineal entre x e y

R
2
= SCR eg =1 −
SCE ;0 ≤ R
2
≤ 1
SCT SCT

Si R2 = 0 ⇒ SCReg = 0 ⇒ El modelo no explica nada de y a partir de x.


Si R2 = 1 ⇒ SCReg = SCT ⇒ Ajuste perfecto: y depende funcionalmente
de x .
F Un valor de R2 cercano a 0 ⇒ Baja capacidad explicativa de la recta.
F Un valor de R2 próximo a 1 ⇒ Alta capacidad explicativa de la recta
Coeficiente de la correlación
COEFICIENTE DE CORRELACIÓN LINEAL
Es una medida de la asociación lineal de las variables x e y

Rxy=( signo de b1)√ coeficiente determinación


=signo de b1 √r2
r = Cov(x,y) ,
SxSy
−1 ≤ r ≤ 1

EL signo de coeficiente de correlaciones positivo si la


ecuación de regresión tiene pendiente positiva (b₁ ˃ 0)y
negativo si la ecuación de regresión tiene pendiente
negativa (b₁ ˂ 0).
PRUEBA T

Esta prueba se evalúa la hipótesis nula de que la media de la población


estudiada es igual a un valor especificado μ0, se hace uso del estadístico:
A
 donde xi, i = 1, ..., n son conocidos, α y β son
desconocidos, y εi es el error aleatorio en los residuales
que se encuentra normalmente distribuido, con un valor
esperado 0 y una varianza desconocida σ2,
e Yi, i = 1, ..., n son las observaciones.
 Se desea probar la hipótesis nula de que la
pendiente β es igual a algún valor especificado β0 (a
menudo toma el valor 0, en cuyo caso la hipótesis es
que x e y no están relacionados).
FORMULAS DE PARA T
FUENTE SUMA DE GRADOS DE CUADRADO F
CUADRADOS LIBERTAD MEDIO
REGRESION SCR 1 MCR= SCR/1 F = MCR/
MCE
ERROR SCE N–2 MCE= SCE / N
-2
TOTAL SCT n-1

TABLA ANOVA REGRESION


LINEAL
REGRESION LINEAL
MULTIPLE
INTRODUCCIÓN:
A continuación hablaremos acerca de la regresión lineal múltiple cuyo
objetivo es mostrar la relación de la variable dependiente cuando se tienes a
dos mas variables independientes, obtenida a partir de los cálculos
correspondientes de los datos que se da de cada caso a analizar
 La regresión lineal múltiple es la forma en que la variable dependiente,
se relaciona con dos o mas variables independientes
 Donde p representara la cantidad de variables independientes
MODELO DE REGRESION Y ECUACION DE REGRESION
 El modelo de regresión múltiple que estudiara la relación de dichas
variables es el siguiente:

 En donde el termino de error explica la variabilidad en y que no puede


explicar el efecto lineal de las p variables independientes.
ECUACION DE REGRESION MULTIPLE ESTIMADA
 Para obtener la ecuación de regresión múltiple estimada, es necesario
obtener los datos de la pendiente de la recta y la ordenada al origen,
quienes son las estimaciones acumuladas que se toman de una muestra
aleatoria bajo ciertos parámetros, quienes dan como resultado la
siguiente ecuación
ȳ = b0 + b1x1 + ….. + bpxp
METODO DE CUADRADOS MINIMOS
 Este se aplica para llegar a la ecuación de regresión estimada que mas se
aproxima a la relación lineal entre las variables dependientes e
independiente. También se puede utilizar para obtener la ecuación de
regresión múltiple estimada

Donde: min Ʃ (yi - ȳi) 2

 El método de cuadrados mínimos usa los valores de la muestra que se va a


analizar para así poder determinar los valores de la pendiente y la
ordenada al origen de la ecuación de regresión lineal simple
COEFICIENTES DE DETERMINACION MULTIPLE
 El termino de coeficiente de determinación múltiple hace referencia a la
bondad de ajuste para la ecuación de regresión múltiple. Que se
encuentra representado como R2, que se calcula:
R2= SCR/SCT

 Este nos servirá para interpretar la proporción de la variabilidad de la


variable dependiente que se explica con la ecuación de regresión múltiple
 Tambiénse aplica el coeficiente de
determinación múltiple ajustado que es :
Ra2 = 1 – (1 – R2) n-1 / n-p-1
 Que también muestra la relación de las
variables desacuerdo con el numero de la
muestra y la cantidad de variables
independientes
PUEBAS DE SIGNIFICANCIA

 Laspruebas de significancia que se emplean


en la ecuación de regresión múltiple son la
prueba t y F, las cuales dan la misma
conclusión: si se rechaza la hipótesis nula .
La prueba F se usa para determinar si hay relación significativa entre
la variable dependiente y el conjunto de todas las variables
independientes
𝑀𝐶𝑅
𝐹=
𝑀𝐶𝐸
Prueba F de la significancia en la regresión lineal simple:
𝐻𝑜: 𝐵1 = 0
𝐻𝑎: 𝐵1 ≠ 0
Estadística de prueba:
𝑀𝐶𝑅
𝐹=
𝑀𝐶𝐸
Regla del rechazo:
Con el estadístico de prueba: Rechace
𝐻𝑜 𝑠𝑖 𝐹 > 𝐹𝛼 con el valor de: Rechace 𝐻𝑜 𝑠𝑖 𝑃 < 𝛼
Donde 𝐹𝛼 se basa en una distribución F con un grado de libertad en el
numerador y n-2 grados de libertad en el denominador
 La prueba t hace pruebas por separado para cada variable
independiente en el modelo.
𝑏
t=
𝑆𝑏

Prueba t de significancia en la regresión lineal simple


𝐻𝑜: 𝐵1 = 0
𝐻𝑎: 𝐵1 ≠ 0
Estadística de prueba:
𝑏1
T= → desviación estándar de la pendiente
𝑆𝑏1

Regla del rechazo:


Con el estadístico de prueba: Rechace 𝐻𝑜 𝑠𝑖 𝑡 <
𝑡𝛼/2
Con el valor de: Rechace si el valor 𝑝 < 𝛼
Donde 𝑡𝛼/2 se basa en una distribución t con n-2
TABLA ANOVA

FUENTE SUMA DE GRADOS DE CUADRADO F


CUADRADOS LIBERTAD MEDIO
REGRESION DCR P MCR= SCR/P F = MCR/
MCE
ERROR SCE N–P–1 MCE= SCE / N
– P -1
TOTAL SCT n-1
Ejemplo de aplicación:
En el ejercicio 1 se presento la siguiente ecuación de regresión basada en 10
observaciones
𝑦 = 29.1270 + 0.5906𝑥1 + 0.4980𝑥2
En este caso, 𝑆𝑆𝑇 = 6724.125, 𝑆𝑆𝑅 = 6216.375, 𝑠𝑏1 = 0.0813 𝑦 𝑠𝑏2 = 0.0567
a.- Determine MSR y MSE
b.- Calcule F y haga la prueba F adecuada. Use 𝛼 = 0.05
c.- Realice una prueba t de la significancia de 𝛽1 . Use 𝛼 = 0.05
d.- Haga una prueba t de la significancia de 𝛽2 . Use 𝛼 = 0.05
Resolución:
Fuente Suma de Grados de Cuadrado media
Anova RLM cuadrados libertad
Regresión 6216.375 2 3108.18
Error 507.75 7 72.53
Total 6724.125 9

F= 42.85
𝑦 = 29.1270 + 0.5906𝑥1 + 0.4980𝑥2
𝑆𝑆𝑇 = 6724.125, 𝑆𝑆𝑅 = 6216.375, 𝑆𝑏1 = 0.0813
𝑆𝑏2 = 0.0567
a) Determine MCR y MCE
𝑆𝐶𝑅 6216.375
𝑀𝐶𝑅 = = = 3108.18
2 2
b) 𝐻𝑜; 𝐵1 = 𝐵2 = 0 No existe
𝐻𝑜; 𝐵1 ≠ 𝐵2 ≠ 0 Si existe relación
𝛼 = 0.05
Valor critico 𝐹𝛼, 𝑔𝑙𝑛, 𝑔𝑙𝑑 = 𝐹0.05, 2, 7 = 4.74
Regla de rechazo: Rechace 𝐻𝑜 𝑠𝑖 𝐹 > 𝐹𝑥
Decisión: Se rechazara Ho
Conclusión: Si es significativa la relación entre "𝑦" y "𝑥1 "y "𝑥2 «
c) Realice una prueba t de la significancia de 𝛽1 Use 𝛼 = 0.05
𝐻𝑜:𝐵1 =0
𝛼 = 0.05 𝑡𝑎 , 𝑔𝑙
𝐻𝑎: 𝐵1 ≠0 𝑦

Determinando el valor observado de "𝑡"


𝑏 .5906
𝑡= = = 7.264 𝑉𝑎
𝑆𝑏 .0873
𝑥
± 𝑡 , 𝑔𝑙 = 𝑡. 025, 7 = ±2.365
𝑧
Decisión: Se rechaza 𝑡𝑜
Conclusión: Es significativa la relación entre "𝑦" y "𝑥1 "
CONCLUSIÓN:
Este análisis es muy útil cuando se utilizan
diversas variables y se requiere saber si existe
una relación entre ellas que podrá observarse
en el diagrama dispersión, quien muestra sus
relaciones.
En la regresión lineal se usa en una variable y
mas mas eficiente cuando solo es con pocos
datos.
FUENTES BIBLIOGRAFICAS

 F Lara Porras A.M. (2002). "Estadística para Ciencias


Biológicas y Ciencias Ambientales. Problemas y
Exámenes Resueltos". Ed.: Proyecto Sur.
 F Milton, Susan (2002). "Estadística para Biología y
Ciencias de la Salud". Ed.: Mc
 .wikipedia.org/wiki/Prueba_t_de_Student
 pendientedemigracion.ucm.es/info/socivmyt/.../D.../1
8reglin_SPSS.pdf

También podría gustarte