Está en la página 1de 9

OBJETIVOS

z Escribir la relación entre 2 o más variables


independientes y una dependiente utilizando la ecuación
de regresión múltiple.
REGRESION MULTIPLE z Calcular e interpretar el error estándar múltiple de
estimación y el coeficiente de determinación.
z Interpretar la matriz de correlación.
ING. ROSMERY MAYTA H z Realizar el cuadro de ANOVA y explicarlo.
z Realizar la prueba de hipótesis para determinar si los
2010 coeficientes de regresión son diferentes de cero (prueba
global).
z Realizar una prueba de hipótesis para cada uno de los
coeficientes de regresión

REGRESION MULTIPLE

zRealizar la prueba de hipótesis del efecto La regresión múltiple y el análisis de


lineal y del efecto curvilíneo. correlación múltiple consiste en estimar una
variable dependiente, utilizando dos o más
zAnálisis de influencia.
variables independientes.

El modelo genérico será

Yˆ = f ( X 1 , X 2 , X 3 ,....)
Variable Variables
dependiente independientes

Visualización: se puede representar una


Cuando se tiene dos variables. La ecuación se ecuación de regresión múltiple con dos
representa de la siguiente forma: variables, como un plano
Ŷ = b 0 + b 1 X 1 + b 2 X 2
: Valor estimado correspondiente a la variable
Ŷ dependiente
Donde:
X1 y X2: variables independientes
zbo: es la intercepción con el eje Y
zb1: es el cambio neto en Y por cada cambio unitario en X1,
manteniendo X2 constante. Se denomina coeficiente de
regresión neta .
zb2: Coeficiente de regresión

1
Ecuación General de Regresión
METODO DE MINIMOS CUADRADOS
Múltiple
Para calcular los coeficientes, se utiliza el
método de Mínimos cuadrados, este método
Y = a + b1 X 1 + b2 X 2 + b3 X 3 .........bk X k
nos garantiza que la suma de cuadrados de los
errores sea mínimo. Las ecuaciones normales
Donde: son:
X1, X2, X3...Xk: Variables independientes ∑ Y = nb 0 + b1 ∑ X1 + b 2 ∑ X 2
∑ X1Y = b 0 ∑ X1 + b1 ∑ X12 + b 2 ∑ X1X 2
∑ X 2 Y = b 0 ∑ X 2 + b1 ∑ X1 X 2 + b 2 ∑ X 22
Donde bo, b1 y b2 son los coeficientes de regresión
estimados.

Consideraciones acerca de la regresión y la


Error estándar múltiple correlación múltiples
z El error estándar de estimación en el análisis de z Las variables independientes y las variables dependientes tienen
regresión múltiple mide el error para los valores de Y una relación lineal.
con respecto al plano de regresión ( cuando z La variación en la diferencia entre los valores real y pronosticado es
la misma para todos los valores ajustados de Y. Esto es (Y-Y´) debe
intervienen 2 variables independendientes). ser aproximadamente igual para todos los valores de Y´. Cuando tal
sea el caso, las diferencias presentan homoscedastidad.
z Los residuos, calculados de Y-Y´, están distribuidos en forma
∑ (Y − Yˆ )
2 normal con media igual a 0.
SY .12...k = z Las observaciones sucesivas de la variable dependiente no están
n − (k + 1) correlacionadas. Si tal consideración no se cumple, la situación se
denomina auto correlación. Tal auto correlación ocurre con
Donde: frecuencia cuando se recopilan datos sucesivamente en intervalos
de tiempo.
Y: es la observación
Ŷ: es el valor estimado a partir de la ecuación de regresión
n: número de observaciones.
K: número de variables independientes

Análisis de correlación múltiple

Se utilizan los tres coeficientes zSus valores varían de 0 a 1 siempre es es


zCoeficientes de correlación Múltiple positivo
zCoeficiente de determinación Múltiple z0.95: indica una asociación muy fuerte
zCoeficiente de no determinación entre las variables dependientes e
independientes.
Coeficiente de correlación múltiple:
z0.08: Indica una relación muy débil
Es la medida de la fuerza de asociación
entre la variable dependiente y dos o mas
variables independientes

2
Coeficiente de Determinación (r2)
COEFICIENTE DE DETERMINACION
Es la proporción ( porcentaje) de la
variación total en la variable dependiente SSR
y que se explica por medio del conjunto de R 2 Y 12 =
variables independientes. .R2 TotalSS
COEFICENTE DE LA NO DETERMINACION:
Mide la proporción de la variación total en
la variable dependiente y, que no se debe
a las variables independientes. Se obtiene
1-.R2

PRUEBA GLOBAL
z Se usa para poner a prueba la capacidad de las zCalcular el F cal y el F (α,k, n-k-1) (tablas)
variables independientes, para explicar el
comportamiento de la variable dependiente Y. z: el nivel de significancia
z Procedimiento
zK: Numero de variables independientes
z 1)
Ho: β1=β2=β3........βk z.n : Tamaño de la muestra
Ha: No todas las β son iguales a cero. 4) Si el Fcal es > Ft, entonces se rechaza la
Donde : β1,β2,β3,....,βk = coeficientes de regresión hipótesis nula
neta en la población.
z 2) Nivel de significancia
z 3) Se utiliza el estadística F

5) Tabla ANOVA
FV GL SS MS F

Regressions k SSR MSR=SSR/K MSR/MSE

Error n-(k+1) SSE MSE=SSE/(n-(k+1))

Total n-1 SST

Suma de cuadrado total: SS total =


Suma de cuadrado del error SSE =
∑(Y −Y')
2

Suma de cuadrado debido a la regresion: SSR = SS total - SSE

3
PRUEBA DE HIPOTESIS INDIVIDUAL PARA
CADA UNO DE LOS COEFICIENTES

2) Definir el nivel de significancia


z Se usa para probar las variables individualmente para
determinar cuales coeficientes de regresión podrían ser 3) El estadístico a utilizar es t
cero y cuales no.
Calcular el valor de t para cada uno de los
z Si una β es cero, esto implica que tal variable
independiente en particular, no es de ningún valor para coeficientes
explicar cualquier variación en el valor dependiente.
Tk =( b1-β1) / Sb1
1) Plantear la hipótesis
Para: Variable 1 Variable 2 ..... Variable k Tk =( b2-β2) / Sb2
Ho: β1=0 Ho: β2=0 Ho: βk=0
Tk =( b3-β3) / Sb3
Ha: β1≠0 Ha: β2≠0 Ha: βk≠0

ESTIMACIÓN DEL INTERVALO DE


CONFIANZA
zCalcular el t cal y el t (α, n-k-1) (tablas)
z: el nivel de significancia zEs la estimación del valor de población de
zK: Numero de variables independientes un coeficiente de regresión. El análisis de
regresión se puede obtener una
z.n : Tamaño de la muestra
estimación de intervalo de confianza
4) Si el Tk es > Tt, entonces se rechaza la
hipótesis nula ( se realiza para cada uno
de los coeficientes) y se acepta la
alternativa

Estimación de intervalo para los


coeficientes de regresión parcial
zK: Indica la variable independiente

bk ±tn−p−1Sbk correspondiente.
zP: Numero de variables independientes
zSbk: es el error estándar de la variable
independiente k

4
MODELO DE REGRESIÓN CURVILÍNEO

zUna de las relaciones no lineales más


comunes es la relación polinomial
MODELO CURVILINEO curvilínea entre dos variables en la que Y
aumenta (o disminuye) con una rapidez
variable para diferentes valores de X. Este
modelo da una relación polinomial entre X
e Y puede expresarse como

zβ0 = Intersección Y
zβ1 = Efecto lineal en Y
Yi = β0 +β1X1i +β11X21i +∈i zβ11= Efecto curvilíneo en Y
z∈i= Error aleatorio en Y para la
observación

PRUEBA DE SIGNIFICANCIA DEL


MODELO CENTRADO MODELO CURVILINEO
z.Prueba global
z Un planteamiento alternativo al modelo de regresión
curvilíneo consiste en centrar los datos mediante la 1) Plantear la hipótesis
sustracción de la media de la variable explicativa de Ho: β1=0 Ho: β11=0
cada valor del modelo. Este modelo de regresión
centrada se presenta en la ecuación. Ha: No todos los beta son iguales a
cero
Yˆi = b'0 +b'1 (X 1i − X 1 ) + b11 (X 1i − X 1 ) 2) Definir el nivel de significancia
2

3) El estadístico a utilizar es F
Calcular el valor de F

5
5)

2) Definir el nivel de significancia


3) El estadístico a utilizar es F
4)Calcular el F cal y el F (α,k, n-k-1) (tablas)
zΑ : el nivel de significancia. k= 2
zK: Numero de variables independientes
z.n : Tamaño de la muestra
5) Si el Fcal es > Ft, entonces se rechaza la
hipótesis nula

PRUEBA DE HIPOTESIS PARA PROBAR


EL EFECTO CURVILINEO
2) Definir el nivel de significancia
1) Plantear la hipótesis 3) El estadístico a utilizar es t
Para: Variable 1 Variable 2 .....
Variable k 4)Calcular el t cal y el t (α, n-k-1) (tablas dos
Ho: β11=0 (La inclusión del efecto curvilineo no mejora colas)
de forma significativa el modelo
z: el nivel de significancia k=2
Ha: β ≠0 (
11 La inclusión del efecto curvilineo mejora de
forma significativa el modelo zK: Numero de variables independientes
z.n : Tamaño de la muestra

PRUEBA DE HIPOTESIS PARA PROBAR


EL EFECTO LINEAL
5) Calcular el valor de t para cada uno de
los coeficientes
Tk =( b11-β11) / Sb11 1) Plantear la hipótesis
Para: Variable 1 Variable 2 .....
Si el Tcal es > Tt, entonces se rechaza la Variable k
hipótesis nula ( se realiza para cada uno Ho: β1=0 (La inclusión del efecto lineal no mejora de
de los coeficientes) y se acepta la forma significativa el modelo

alternativa Ha: β1≠0 (La inclusión del efecto lineal mejora de forma
significativa el modelo

6
zCalcular el t cal y el t (α, n-k-1) (tablas dos
2) Definir el nivel de significancia colas)
3) El estadístico a utilizar es t z: el nivel de significancia k=2
Calcular el valor de t para cada uno de los zK: Numero de variables independientes
coeficientes z.n : Tamaño de la muestra
Tk =( b1-β1) / Sb1 4) Si el Tk es > Tt, entonces se rechaza la
hipótesis nula ( se realiza para cada uno
de los coeficientes) y se acepta la
alternativa

Ejemplo :MODELO CURVILINEO

zSe tiene los datos de precio y ventas de


un determinado producto realizar la
prueba de hipótesis del efecto lineal y
curvilíneo

PRUEBA DE HIPOTESIS DEL MODELO


CURVILINEO
zPrueba global
1) Plantear la hipótesis
Para: Variable 1 Variable 2 .....
Variable k
Ho: β1 = β11 = 0
Ha: β1 ≠ β11≠0

7
zSi el Fk es > Ft,
2) α= 0.05 37.56 >3.89 ,entonces se rechaza la
3) El estadístico a utilizar es F hipótesis nula y se acepta la alternativa
4) El Ft (0.05,2, n-k-1) : el nivel de significancia
k=2
z .n : Tamaño de la muestra
z F(2,12) = 3.89
5) Calcular el valor de F para cada uno de los
coeficientes
Fk = 6221.2/165.6= 37.56

PRUEBA DE HIPOTESIS PARA PROBAR


EL EFECTO CURVILINEO
2) α= 0.05
3) El estadístico a utilizar es t
1) Plantear la hipótesis 4) Calcular el t cal y el t (0.05, 12) = 2.17 (tabla dos colas)
Para: Variable 1 Variable 2 ..... z : el nivel de significancia k=2
Variable k z K: Numero de variables independientes
z .n : Tamaño de la muestra
Ho: β11=0 (La inclusión del efecto curvilíneo no mejora
de forma significativa el modelo 5) Calcular el estadístico y tomar la decisión
Calcular el valor de t para cada uno de los coeficientes
Ha: β ≠0 (
11 La inclusión del efecto curvilíneo mejora de
forma significativa el modelo Tkl = 465/ 176.2=2.64

PRUEBA DE HIPOTESIS PARA PROBAR


EL EFECTO LINEAL
Si el Tkl es > Tt
Como 2.64 >2.17 entonces se rechaza la
hipótesis nula , se concluye la inclusión 1) Plantear la hipótesis
del efecto curvilíneo mejora de modo Para: Variable 1 Variable 2 .....
significativo el modelo. Variable k
Ho: β1=0 (La inclusión del efecto lineal no mejora de
forma significativa el modelo
Ha: β1≠0 (La inclusión del efecto lineal mejora de forma
significativa el modelo

8
5) Calcular el valor de t para cada uno de
2) α= 0.05 los coeficientes
3) El estadístico a utilizar es t Tk = -1088,7/349.5= -3.11
4) Calcular el t cal y el t (0.05, 12) = 2.17 (tabla Si el Tk es > Tt
dos colas) Como -3.11 <-2.17 entonces se rechaza la
z: el nivel de significancia k=2 hipótesis nula , se concluye que la
zK: Numero de variables independientes inclusión del efecto lineal mejora el
modelo del efecto curvilíneo
z.n : Tamaño de la muestra

También podría gustarte