Está en la página 1de 9

Verificación desde el

punto de vista gráfico:


Diagrama de dispersión.
Eje y

Pares ordenados
2 Variables El objetivo es mostrar la (x,y)
Numericas relación que existe entre Eje x
ellas

Verificación desde el
punto de vista numérico:
covarianza (Sxy) y
correlación (Ρxy)
Regresión lineal Simple: 1 Variable depe
se explica por una variable independie

Regresiones lineales para


variables numéricas

Regresión lineal Múltiple: 1 Variable depe


Un análisis mas profundo
se explica por 2 ó mas variables independ
del diagrama se obtiene
recurriendo al análisis de
regresión.

Otras regresiones lineales y


no lineales para variables
numéricas y cayegóricas

Cov (x,y)> 0, las 2 variables aumentan o d


al mismo tiempo. (Asociación Directa)
Covarianza= Sx,y= , en donde si
Cov (x,y)< 0, cuando una variable aument
disminuye.

Cov (x,y)= 0, No hay relación lineal entre


variables.

Ρx,y= -1, Asociación inversa entre las vari


Correlación = Ρx,y= ≈ , en donde si

Ρx,y= +1, Asociación directa entre las var

La fortaleza de la relación se define de acuerdo con el


siguiente esquema: Ρx,y= 0, Poca asociación entre las variable
_____________________________________________
RL poblacional:

eal Simple: 1 Variable dependiente (Y) (𝑌 ) ̂= 𝛽_0+ 𝛽_1 𝑋_1 + 𝜇


por una variable independiente (X). Donde,
𝜇=𝑝𝑒𝑟𝑡𝑢𝑟𝑏𝑎𝑐𝑖ó𝑛 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎 (𝑒𝑟𝑟𝑜𝑟 𝑒𝑛 𝑙𝑎 (𝑌 ) ̂=𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑒𝑛𝑑ó
𝑒𝑐𝑢𝑎𝑐𝑖ó𝑛 𝑝𝑜𝑟 𝑜𝑚𝑖𝑠𝑖ó𝑛 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠
𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠

al Múltiple: 1 Variable dependiente (Y) (𝑌 ) ̂= 𝛽_0+ 𝛽_1 𝑋_1 + 𝛽_2 𝑋_2 +...+ 𝛽_𝑛 𝑋_𝑛+ 𝜇
2 ó mas variables independientes (X)
𝑋_1, 𝑋_2 , …, 𝑋_𝑛=𝑣𝑎𝑟

𝛽 ̂_0=𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒, 𝑣𝑎𝑙𝑜𝑟
𝛽 ̂_1=𝑖𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡𝑜, 𝑐
𝑝𝑒𝑟𝑚𝑎𝑛𝑒𝑐𝑖𝑒𝑛𝑑𝑜 𝑙𝑎

as 2 variables aumentan o disminuyen


po. (Asociación Directa)

uando una variable aumenta la otra

No hay relación lineal entre las

(Si〖𝜌 ) 〗se
^2obtiene el coeficiente de determinación (o variación explicada)

Proporción de la variación total en Y que se explica por la variación en X.

iación inversa entre las variables. 𝑟^2= 𝑆𝑆𝑅/𝑆𝑆𝑇


Cálculo alternativo de la variación explicada:

Donde, SSR : suma de los cuadrados de la regresión


ciación directa entre las variables. SST: suma de los cuadrados totales
SSE : suma de los cuadrados de los errores

asociación entre las variables. 𝑆𝑆𝑇= ∑▒ 〖 (𝑌_𝑖^ − 𝑌 ̅) 〗 ^2

𝑆𝑆𝑅= ∑▒ 〖 (𝑌 ̂_𝑖− 𝑌 ̅) 〗 ^2


𝑆𝑆𝑅= ∑▒ 〖 (𝑌 ̂_𝑖− 𝑌 ̅) 〗 ^2

Variación no explicada:𝑆𝑆𝐸/𝑆𝑆𝑇= (∑▒ 〖 (𝑌_𝑖^


−𝑌 ̂_𝑖 ) 〗 ^2 )/𝑆𝑆𝑇=𝜇 ̂/𝑆𝑆𝑇 =1 − 𝑟^2

Donde, 𝑌_𝑖 :valor observado de Y


𝜇 ̂ : error en la predicción

𝐸𝐸𝐸= √(𝑆𝑆𝐸/(𝑛−2))
Error estándar en la estimación:

Medida de la variación alrededor de la línea de predicción (equivalente a la


desviación estándar).
RL muestral:

(𝑌 ) ̂= 𝛽 ̂_0+ 𝛽 ̂_1 𝑋_1


Donde,
(𝑌 ) ̂=𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑒𝑛𝑑ó𝑔𝑒𝑛𝑎 𝑜 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒, valor estimado de Y
𝑋_1=𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑒𝑥ó𝑔𝑒𝑛𝑎, 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑜 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙
Una variable independiente para predecir Y
𝛽 ̂_0=𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒, 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑌 𝑐𝑢𝑎𝑛𝑑𝑜 𝑋_1=0= 𝑌 ̅- 𝑋 ̅𝛽 ̂_1
𝛽 ̂_1=𝑖𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡𝑜, 𝑐𝑎𝑚𝑏𝑖𝑜 𝑒𝑛 𝑌 𝑝𝑜𝑟 𝑢𝑛 𝑐𝑎𝑚𝑏𝑖𝑜 𝑑𝑒 𝑢𝑛𝑎 𝑢𝑛𝑖𝑑𝑎𝑑 𝑒𝑛 𝑋_1=(𝐶𝑜𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 (𝑋,𝑌))/(𝐶𝑜𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 (𝑋))= (∑▒ 〖 (

(𝑌 ) ̂= 𝛽 ̂_0+ 𝛽 ̂_1 𝑋_1 + 𝛽 ̂_2 𝑋_2 +...+ 𝛽 ̂_𝑛 𝑋_𝑛


Donde,
𝑋_1, 𝑋_2 , …, 𝑋_𝑛=𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑒𝑥ó𝑔𝑒𝑛𝑎𝑠
Más de una variable independiente para predecir Y
𝛽 ̂_0=𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒, 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑌 𝑐𝑢𝑎𝑛𝑑𝑜 𝑋_1=𝑋_2 〖 = …=𝑋 〗 _𝑛=0
𝛽 ̂_1=𝑖𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡𝑜, 𝑐𝑎𝑚𝑏𝑖𝑜 𝑒𝑛 𝑌 𝑝𝑜𝑟 𝑢𝑛 𝑐𝑎𝑚𝑏𝑖𝑜 𝑑𝑒 𝑢𝑛𝑎 𝑢𝑛𝑖𝑑𝑎𝑑 𝑒𝑛 𝑋_𝑖
𝑝𝑒𝑟𝑚𝑎𝑛𝑒𝑐𝑖𝑒𝑛𝑑𝑜 𝑙𝑎𝑠 𝑑𝑒𝑚á𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒𝑠

variación explicada)
𝑟^2

r la variación en X.
=1 − 𝑟^2

ión (equivalente a la
𝛽 ̂_0 𝑦 𝛽 ̂_1
se obtienen mediante la
minimización de la suma de
los cuadrados de los errores
(SCE) usando el método de los
mínimos
𝑟𝑖𝑎𝑛𝑧𝑎 (𝑋))= (∑▒ 〖 (𝑋 〗 _𝑖−𝑋 ̅)(𝑌_𝑖−𝑌 ̅ ) " " "cuadrados
" )/( ∑▒ ordinarios
〖 ( 〖𝑋 _𝑖−(𝑋)) ̅ 〗 ^2 〗 )
(MCO)

𝛽 ̂_0 , 𝛽 ̂_1 , …,𝛽 ̂_𝑛


se obtienen mediante la
minimización de la SCE usando
los MCO y matrices

También podría gustarte