Está en la página 1de 16

Verificación desde el punto

de vista gráfico: Diagrama


de dispersión.

Eje y (VD)

2 Variables Pares ordenados


El objetivo es mostrar la
Numericas relación que existe entre (x,y)
ellas Eje x (VI)

Verificación desde el punto


de vista numérico:
covarianza (Sxy) y
correlación (Ρxy)
Tomado de Estadística aplica
D. A. Lind, W. G. Marchal, y
Hill Education.
Regresión lineal Simple: 1 Variabl
dependiente (Y) se explica por una var
independiente (X).

Regresiones lineales para


variables numéricas

Regresión lineal Múltiple: 1 Variab


dependiente (Y) se explica por 2 ó m
Un análisis mas profundo
variables independientes (X)
del diagrama se obtiene
recurriendo al análisis de
regresión.

Otras regresiones lineales y


no lineales para variables
numéricas y categóricas

Cov (x,y)> 0, las 2 variables aumentan


disminuyen al mismo tiempo. (Asocia
Directa)
Covarianza= Sx,y= , en donde si
Cov (x,y)< 0, cuando una variable aum
la otra disminuye.

Cov (x,y)= 0, No hay relación lineal en


las variables.

Ρx,y= -1, Asociación inversa entre las


variables.
Correlación = Ρx,y= ≈ , en donde si
Ρx,y= +1, Asociación directa entre las
variables.

La fortaleza de la relación se define de acuerdo con el Ρx,y= 0, Poca asociación entre las
siguiente esquema: variables.
_____________________________________________

mado de Estadística aplicada a los negocios y la economía (16a Ed., p. 384), por
A. Lind, W. G. Marchal, y S. A. Wathen, 2015, México D.F., México: Mc Graw
RL poblacional:
Regresión lineal Simple: 1 Variable
pendiente (Y) se explica por una variable (𝑌 ) ̂= 𝛽_0+ 𝛽_1 𝑋_1 + 𝜇
independiente (X). Donde,
𝜇=𝑝𝑒𝑟𝑡𝑢𝑟𝑏𝑎𝑐𝑖ó𝑛 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎 (𝑒𝑟𝑟𝑜𝑟 𝑒𝑛 𝑙𝑎
𝑒𝑐𝑢𝑎𝑐𝑖ó𝑛 𝑝𝑜𝑟 𝑜𝑚𝑖𝑠𝑖ó𝑛 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠
𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠

Regresión lineal Múltiple: 1 Variable


dependiente (Y) se explica por 2 ó mas (𝑌 ) ̂= 𝛽_0+ 𝛽_1 𝑋_1 + 𝛽_2 𝑋_2 +...+ 𝛽_𝑛 𝑋_𝑛+ 𝜇
variables independientes (X)

ov (x,y)> 0, las 2 variables aumentan o


sminuyen al mismo tiempo. (Asociación
recta)

ov (x,y)< 0, cuando una variable aumenta


otra disminuye.

ov (x,y)= 0, No hay relación lineal entre


s variables.

(Si〖𝜌 ) 〗se
^2obtiene el coeficiente de determinación (o variación explicada)

Proporción de la variación total en Y que se explica por la variación en X.


,y= -1, Asociación inversa entre las
𝑟^2= 𝑆𝑆𝑅/𝑆𝑆𝑇
riables. Cálculo alternativo de la variación explicada:

,y= +1, Asociación directa entre las Donde, SSR : suma de los cuadrados de la regresión
riables. SST: suma de los cuadrados totales
SSE : suma de los cuadrados de los errores
,y= 0, Poca asociación entre las
riables. 𝑆𝑆𝑇= ∑▒ 〖 (𝑌_𝑖^ − 𝑌 ̅) 〗 ^2

𝑆𝑆𝑅= ∑▒ 〖 (𝑌 ̂_𝑖− 𝑌 ̅) 〗 ^2


𝑆𝑆𝑅= ∑▒ 〖 (𝑌 ̂_𝑖− 𝑌 ̅) 〗 ^2

Variación no explicada: 𝑆𝑆𝐸/𝑆𝑆𝑇= (∑▒ 〖 (𝑌_𝑖^


−𝑌 ̂_𝑖 ) 〗 ^2 )/𝑆𝑆𝑇=(∑▒ 〖 (𝜇 ̂_𝑖 ) 〗 ^2 )/
𝑆𝑆𝑇 =1 − 𝑟^2
Donde, 𝑌_𝑖 :valor observado de Y
𝜇 ̂_𝑖 : error en la predicción

𝐸𝐸𝐸= √(𝑆𝑆𝐸/(𝑛−2))
Error estándar en la estimación:

Medida de la variación alrededor de la línea de predicción (equivalente a la


desviación estándar).
RL muestral:

(𝑌 ) ̂= 𝛽 ̂_0+ 𝛽 ̂_1 𝑋_1


Donde,
(𝑌 ) ̂=𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑒𝑛𝑑ó𝑔𝑒𝑛𝑎 𝑜 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒, valor estimad
𝑋_1=𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑒𝑥ó𝑔𝑒𝑛𝑎, 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑜 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙
Una variable independiente para predecir Y
𝛽 ̂_0=𝑖𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡𝑜, 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑌 𝑐𝑢𝑎𝑛𝑑𝑜 𝑋_1=0= 𝑌 ̅- 𝑋 ̅𝛽
𝛽 ̂_1=𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒, 𝑐𝑎𝑚𝑏𝑖𝑜 𝑒𝑛 𝑌 𝑝𝑜𝑟 𝑢𝑛 𝑐𝑎𝑚𝑏𝑖𝑜 𝑑𝑒 𝑢𝑛𝑎

(𝑌 ) ̂= 𝛽 ̂_0+ 𝛽 ̂_1 𝑋_1 + 𝛽 ̂_2 𝑋_2 +...+ 𝛽 ̂_𝑛 𝑋_𝑛


Donde,
𝑋_1, 𝑋_2 , …, 𝑋_𝑛=𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑒𝑥ó𝑔𝑒𝑛𝑎𝑠
Más de una variable independiente pa
𝛽 ̂_0=𝑖𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡𝑜, 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑌 𝑐𝑢𝑎𝑛𝑑𝑜 𝑋_1=𝑋_2 〖 = …=𝑋 〗 _
𝛽 ̂_1=𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒, 𝑐𝑎𝑚𝑏𝑖𝑜 𝑒𝑛 𝑌 𝑝𝑜𝑟 𝑢𝑛 𝑐𝑎𝑚𝑏𝑖𝑜 𝑑𝑒 𝑢𝑛𝑎 𝑢
𝑝𝑒𝑟𝑚𝑎𝑛𝑒𝑐𝑖𝑒𝑛𝑑𝑜 𝑙𝑎𝑠 𝑑𝑒𝑚á𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠

Este modelo debe cumplir con una serie de hipótesis bá


el proceso de inferencia

Hipótesis sobre
la forma funcional

Relación lineal entre La PA es una


ación (o variación explicada) 𝑟^2 el regresando, los variable aleatoria
regresores y la no observable
xplica por la variación en X. perturbación aleatoria
(Modelo lineal en los
𝑟^2= 𝑆𝑆𝑅/𝑆𝑆𝑇
parámetros)

e la regresión
No constrastables empíricamente
e los errores
(𝑌_𝑖^
=(∑▒ 〖 (𝜇 ̂_𝑖 ) 〗 ^2 )/

e predicción (equivalente a la
ó𝑔𝑒𝑛𝑎 𝑜 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒, valor estimado de Y
𝑥ó𝑔𝑒𝑛𝑎, 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑜 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙
ble independiente para predecir Y
𝑜, 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑌 𝑐𝑢𝑎𝑛𝑑𝑜 𝑋_1=0= 𝑌 ̅- 𝑋 ̅𝛽 ̂_1
, 𝑐𝑎𝑚𝑏𝑖𝑜 𝑒𝑛 𝑌 𝑝𝑜𝑟 𝑢𝑛 𝑐𝑎𝑚𝑏𝑖𝑜 𝑑𝑒 𝑢𝑛𝑎 𝑢𝑛𝑖𝑑𝑎𝑑 𝑒𝑛 𝑋_1=(𝐶𝑜𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 (𝑋,𝑌))/(𝐶𝑜𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 (𝑋,𝑋))= (∑▒ 〖 (𝑋 〗 _𝑖−𝑋 ̅)(𝑌_𝑖−𝑌 ̅) " " " " )

_1 𝑋_1 + 𝛽 ̂_2 𝑋_2 +...+ 𝛽 ̂_𝑛 𝑋_𝑛

𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑒𝑥ó𝑔𝑒𝑛𝑎𝑠
Más de una variable independiente para predecir Y
𝑟 𝑑𝑒 𝑌 𝑐𝑢𝑎𝑛𝑑𝑜 𝑋_1=𝑋_2 〖 = …=𝑋 〗 _𝑛=0
𝑐𝑎𝑚𝑏𝑖𝑜 𝑒𝑛 𝑌 𝑝𝑜𝑟 𝑢𝑛 𝑐𝑎𝑚𝑏𝑖𝑜 𝑑𝑒 𝑢𝑛𝑎 𝑢𝑛𝑖𝑑𝑎𝑑 𝑒𝑛 𝑋_𝑖
𝑙𝑎𝑠 𝑑𝑒𝑚á𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒𝑠

e cumplir con una serie de hipótesis básicas para facilitar

Hipótesis sobre
la perturbación
aleatoria (PA)

La esperanza Las PA son Las PA son Las PA siguen


matemática de la homocedásticas independientes una distribución normal
PA es cero (no están correlacionadas)

s empíricamente Constrastables empíricamente


mediante diversos contrastes
estadísticos
𝛽 ̂_0 𝑦 𝛽 ̂_1
se obtienen mediante la
minimización de la suma de
los cuadrados de los errores
(SCE) usando el método de los
𝑋 〗 _𝑖−𝑋 ̅)(𝑌_𝑖−𝑌 ̅) " " " " )/( ∑▒ 〖 ( 〖𝑋 _𝑖−(𝑋)) ̅ 〗 ^2 〗 ) mínimos cuadrados ordinarios
(MCO)

𝛽 ̂_0 , 𝛽 ̂_1 , …,𝛽 ̂_𝑛


se obtienen mediante la
minimización de la SCE usando
los MCO y matrices

Hipótesis sobre los regresores

Son fijos El número de observaciones (T) No contienen


debe ser mayor o igual que el errores de observación
número de regresores (k) o de medida

Son linealmente independientes


(no puede existir una relación lineal
exacta entre ellos)
obtienen mediante la Intervalo de confianza sobre el parámetro
nimización de la suma de
s cuadrados de los errores
CE) usando el método de los
nimos cuadrados ordinarios

obtienen mediante la Prueba de hipótesis sobre el parámetro


nimización de la SCE usando
s MCO y matrices

Z1 =-3 EP

Hipótesis sobre el vector


de parámetros 99.73%
p[μ < -3]= (1-0,9973)/2 p[-3 < μ < +3] = 0,9973

Son fijos Nivel de significancia Nivel de confianza


∝⁄2 1−∝

𝐿𝐼= 𝜇 −𝑍1 𝜎

Donde,

𝑍1, 𝑍2 ≈ 𝑍_(𝛼⁄2)≈𝑉𝑎𝑙𝑜𝑟 𝑐𝑟í𝑡𝑖𝑐𝑜: valor de Z para una probabilida


(distribución inversa o distribu

𝑍𝑜𝑛𝑎 𝑑𝑒 𝑛𝑜 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝑑𝑒 𝐻_0


𝑍𝑜𝑛𝑎 𝑑𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝑑𝑒 𝐻_0

Reglas de decisión:
a. Metodología del VC: b. Metodología del P-Value:
No rechazar Ho si EP <= VC No rechazar Ho si alpha (nivel
Rechazar Ho si EP > VC Rechazar Ho si alpha > P-Valu

La prueba de hipótesis para un parámetro individual es la siguiente:


𝐻_(0 ): 𝛽_𝑖= 𝛽_𝑖^∗
𝐻_(1 ): 𝛽_𝑖≠ 𝛽_𝑖^∗
Donde,
𝛽_𝑖^ :Valor estimado del parámetro
𝛽_𝑖^∗ :Valor prefijado

El EP, para este caso, se obtiene según el siguiente factor:

𝐸𝑃= 𝑡_(𝑇−2)= (𝛽 ̂_𝑖−𝛽_𝑖^∗)/𝜎 ̂_(𝛽 ̂_𝑖 )

Se tienen tantos EP como pruebas de hipótesis, esta es sólo una de ellas


aunque el proceder para tomar una decisión con respecto a H0 es invar
ianza sobre el parámetro

sis sobre el parámetro p[μ < -3]= (1-0,9973)/2

Nivel de significancia
∝⁄2

𝐿𝐼= 𝜇 −𝑍1 𝜎

𝐸𝑠𝑡𝑎𝑑í𝑠𝑡𝑖𝑐𝑜 𝑑𝑒 𝑝𝑟𝑢𝑒𝑏𝑎 (𝐸𝑃) ~ 𝑁 (0, 1)

Si, 𝜇= 𝛽 ̂_𝑖 y la variable sigue una

𝑝[ 𝛽 ̂_𝑖<𝐿𝐼 ]= 𝛼⁄2

Z2 =+3 Donde,
𝐿𝐼= 𝛽 ̂_𝑖 −𝑡1 𝜎 ̂_(𝛽 ̂_𝑖 )
𝐿𝑆= 𝛽 ̂_𝑖+𝑡2 𝜎 ̂_(𝛽 ̂_𝑖 )

< μ < +3] = 0,9973 p[μ > +3]= (1-0,9973)/2 𝑡1, 𝑡2 ≈ 𝑡_(𝛼⁄2): valor de t para una pr
(distribución inversa
vel de confianza Nivel de significancia
∝⁄2 𝜎 ̂_(𝛽 ̂_𝑖 ):error estandar, o desviación estand
Para la regresión lineal simple se tiene qu
𝐿𝑆= 𝜇+𝑍2 𝜎 𝜎 ̂_𝜇^2= 1/(𝑛 −2) ∑_(𝑖=1)^𝑛▒𝜇 ̂_𝑖^2

𝜎 ̂_(𝛽 ̂_0 )=[𝜎 ̂_𝜇^2 (∑_(𝑖=1)^𝑛▒𝑥_𝑖^2 )/(∑_(𝑖=1)^𝑛▒ 〖 (𝑥_𝑖^ −


lor de Z para una probabilidad determinada
istribución inversa o distribución quantíl).
𝜎 ̂_(𝛽 ̂_1 )= [(𝜎 ̂_𝜇^2)/(∑_(𝑖=1)^𝑛▒ 〖 (𝑥_𝑖^ − 𝑥 ̅) 〗 ^2 )

𝑜 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝑑𝑒 𝐻_0 Para la regresión lineal múltiple se tiene


𝜎 ̂_𝛽 ̂ = 〖〖 [𝜎 ̂ 〗 ^2 〖 (𝑋^′ 𝑋)" " 〗 ^(−1)] 〗 ^0,5
𝜎 ̂_𝛽 ̂ = 〖〖 [𝜎 ̂ 〗 ^2 〖 (𝑋^′ 𝑋)" " 〗 ^(−1)] 〗 ^0,5
𝑍𝑜𝑛𝑎 𝑑𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝑑𝑒 𝐻_0
Donde,
𝑇:𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑑𝑎𝑡𝑜𝑠
𝑘:𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑠
Metodología del P-Value: 𝜎 ̂^2= (𝜇 ̂^′ 𝜇 ̂^ )/(𝑇 −𝑘)
o rechazar Ho si alpha (nivel de significancia) <= P-value
echazar Ho si alpha > P-Value

individual es la siguiente:

siguiente factor:

tesis, esta es sólo una de ellas


n con respecto a H0 es invariable.
𝜇 ~ 𝑁 (0, 1)

Z1 =-3 μ Z2 =+3

99.73%
p[-3 < μ < +3] = 0,9973 p[μ > +3]= (1-0,9973)/2

Nivel de confianza Nivel de significancia


1−∝ ∝⁄2

𝐼= 𝜇 −𝑍1 𝜎 𝐿𝑆= 𝜇+𝑍2 𝜎

p[LI < μ < LS] = 0,9973

y la variable 𝛽 ̂_sigue
𝑖 una distribución t de Student se tiene que: 𝜇 ~ 𝑡 (𝑣)

𝑝[ 〖𝐿𝐼 <𝛽 ̂ 〗 _𝑖<𝐿𝑆 ]=1 − 𝛼 𝑝[ 𝛽 ̂_𝑖>𝐿𝑆 ]= 𝛼⁄2

valor de t para una probabilidad y unos grados de libertad (v) determinados


(distribución inversa o distribución quantíl).

standar, o desviación estandar, de 𝛽 ̂_𝑖


sión lineal simple se tiene que:
𝑖=1)^𝑛▒𝜇 ̂_𝑖^2

/(∑_(𝑖=1)^𝑛▒ 〖 (𝑥_𝑖^ − 𝑥 ̅) 〗 ^2 )]^0,5

^𝑛▒ 〖 (𝑥_𝑖^ − 𝑥 ̅) 〗 ^2 )]^0,5

sión lineal múltiple se tiene que:


𝑋)" " 〗 ^(−1)] 〗 ^0,5
𝑋)" " 〗 ^(−1)] 〗 ^0,5

𝑒 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑠

También podría gustarte