Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tema 3 P
Tema 3 P
Contenido
1 Introducción
6 Modelos Multinomiales
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
Introducción
f (y ) = Pr (Y = y ) = p y (1 − p )1−y
E (Y ) = Pr (Y = 1) = p
Var ( Y ) = p (1 − p )
NO estamos interesados en esta distribución incondicional de Y ,
sino en su distribución condicional:
dadas sus características, cuál es la probabilidad de que el individuo i
tome una acción (Yi = 1)
Generalizando el resultado anterior, la probabilidad de Y =1
condicional en X es igual a la esperanza condicional de Y dado X
E (Y |X = x ) = Pr (Y = 1|X = x ) = p (x )
E (Y |X = x ) = Pr (Y = 1|X = x ) = p (x ) = β0 + β1 x
MLP: limitaciones
Var (Y |X = x ) = p (x ) [1 − p (x )] = (β0 + β1 x ) (1 − β0 − β1 x )
h (x1 , . . . , xk ) = β 0 + β 1 X1 + · · · + β k Xk
E (Y |X = x ) = Pr (Y = 1|X = x ) = F (β0 + β1 X1 + · · · + βk Xk )
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
ˆz ˆz
1 1
Φ (z ) = φ (x ) dx = exp − x 2 dx
2π 2
−∞ −∞
e
z
Λ (z ) =
1 + ez
E (Y |X = x ) = Pr (Y = 1|X = x ) = Φ (β0 + β1 X1 + · · · + βk Xk )
E (Y |X = x ) = Pr (Y = 1|X = x ) = Λ (β0 + β1 X1 + · · · + βk Xk )
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
Vi 1 = π0 + π1 X11i + · · · + πk Xki1 + εi 1
Supongamos que la utilidad del individuo si no compra el bien
depende de las características de la mejor alternativa posible:
Vi 0 = δ0 + δ1 X10i + · · · + δk Xki0 + εi 0
El individuo comprará el bien si la utilidad de comprarlo es mayor
que la de no comprarlo Vi 1 > Vi 0 .
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
∗
Se dene la variable latente Yi como la diferencia de las utilidades
(no observadas)
∗
Yi = Vi 1 − Vi 0
Sí observamos la decisión del individuo que resulta de comparar
ambas utilidades.
∗
1, si el individuo compra: Yi = Vi 1 − Vi 0 > 0
Yi = ∗
0, si el individuo NO compra: Yi = Vi 1 − Vi 0 < 0
∗
La variable latente Yi es un índice lineal de comparación de
utilidades
∗
Yi = β0 + β1 X1i + · · · + βk Xki + ui
E (Yi |X1i , . . . , Xki ) = Pr (Yi = 1|X1i , . . . , Xki ) = Pr (Yi∗ > 0|X1i , . . . , Xki )
= Pr (β0 + β1 X1i + · · · + βk Xki + ui > 0|X1i , . . . , Xki )
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
1 − F (−z ) = F (z )
por tanto,
Pr (u > −β0 − β1 X1 − · · · − β X )
i i k ki
= 1 − Pr (u < −β0 − β1 X1 − · · · − β X )
i i k ki
= 1 − F (−β0 − β1 X1 − · · · − β X )
i k ki
= F (β0 + β1 X1 i + · · · + βk Xki )
Intuición
Intuición
∗
1, si yi >0
yi = ∗
0, si yi <0
∗
yi = β0 + β1 X1 + εi
εi |X1 ∼ N (0, 1)
i =1
N
X
log L (β0 , β1 ; y1 , . . . , yn ) = [yi log Φ (β0 + β1 x1 )] (1 − yi ) log [1 − Φ (β0 + β1 x1 )]
i =1
Nuestra estimación de los parámetros será aquella que haga máxima
esta función
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
1 consistente
Efectos Marginales
E Y | X1 , . . . , Xj , . . . , Xk Pr Y = 1| X1 , . . . , Xj , . . . , Xk
=
F β 0 + β 1 X1 + · · · + β j Xj + · · · + β k Xk
=
δE Y | X1 , . . . , Xj , . . . , Xk
β j f β 0 + β 1 X 1 + · · · + β j Xj + · · · + β k Xk
δXj
=
F β 0 + β 1 X1 + · · · + β j cj + 1 + · · · + β k Xk −
F β 0 + β 1 X1 + · · · + β j cj + · · · + β k Xk
donde
Efectos Marginales
f (•) > 0
F (•) es monótona no decreciente
Efectos Marginales
Ejemplo 1
E (Y |X = x ) = Pr (Y = 1|X = x ) = δ0 + δ1 X
E (Y |X = x ) = Pr (Y = 1|X = x ) = π0 + π1 X + π2 X 2
E (Y |X = x ) = Pr (Y = 1|X = x ) = F (β0 + β1 X )
Los efectos marginales son, respectivamente:
δE (Y |X = x )
δX
= δ1
δE (Y |X = x )
π1 + 2π2 X
δX
=
δE (Y |X = x )
β1 f (β0 + β1 X )
δX
=
Efectos Marginales
Ejemplo
δE (Y |X1 , X2 )
π2 + 2π3 X2
δX2
=
δE (Y |X1 , X2 )
β2 f (β0 + β1 X1 + β2 X2 )
δX2
=
Para
una variable continua,
el efecto marginal evaluado en
X1 = x1∗ , . . . , Xk = xk∗ es:
δE Y | X1 , . . . , Xj , . . . , Xk
em∗j = = βj f β0 + β1 x1∗ + · · · + βk xk∗
δXj
1
X =x ∗ ,...,X =x ∗
1 k k
em∗j F β 0 + β 1 x1 i + · · · + β j
cj + 1 + · · · + βk xki
=
F β0 + β1 x1i + · · · + βj cj + · · · + +βk xki
−
Se tiene una distribución (muestral) de efectos marginales
puede resumirse con el Efecto Marginal Promedio
N
X
emj = N1 emij
i =1
Este enfoque sí controla por la relación entre variables explicativas.
Como disponemos de toda la distribución, podemos interesarnos
por percentiles representativos de la parte alta o de la parte baja
por medidas de dispersión
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
J βj f β0 + β
δ hb b b 1x ∗ + · · · + β
b k x∗
i
=
δβ 0 1 k
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
Predicción de Probabilidades
Predicción de Probabilidades
Predicción de Probabilidades
AVar Pr
c (Y = 1|X1 = x1∗ , X2 = x2∗ ) = G 0 VG
G = δβδ 0 F βb 0 + βb 1 x ∗ + βb 2 x ∗
h i
donde 1 2
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
b logit
β ' b lineal
4β
b probit
β ' 2,5β
b lineal
b logit
β ' 1,6β
b probit
Bondad de Ajuste
Bondad de Ajuste
El valor de la (log-)verosimilitud.
El pseudo-R
2 de McFadden:
LN β
b
2
R
e =1−
LN (y )
Bondad de Ajuste
Las probabilidad predichas serán valores entre cero y uno, PERO los
datos observados son exactamente cero o uno
Contrastes
1 Test de Wald:
Introducción
Modelos Multinomiales
em
irj = δ Pr (Yi = r |Xi ) = δFr (Xi ; θ)
δxij δxij
Las probabilidades y los efectos marginales dependen de los valores
concretos de las variables explicativas en que se evalúen
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
Para un individuo i
m
Y
Pr (Yi = r |Xi ) = piy11 × · · · × pim
i
y = im
pisy
is
s =1
donde
1, si Yi =r
yir =
0, en caso contrario
i =1 i =1 s =1
N Y
Y m
L (θ) = [Fs (Xi ; θ)]y is
i =1 s =1
y, por tanto, la log-verosimilitud es
N X
X m
ln L (θ) = yis ln Fs (Xi ; θ)
i =1 s =1
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
U ir = Vir + εir
Se observa que el individuo i elige la alternativa r , Yi = r, si obtiene
la mayor utilidad entre alternativas
Xi 0 β r
pir = Pmexpexp
X 0β r = 1, . . . , m
s =1 i s
m
X
βi = is βs
p
s =1
0
+ Zi0 γr
exp Xir β
pir = Pm r = 1, . . . , m
Xis0 β + Zi0 γs
s =1 exp
δpir pir (1 − pir ) βj , r =s
=
δXjis −pir pis βj , r 6= s
Logit Anidado
Por ejemplo,
modo de pesca
costa barco
playa puerto alquilado comprado
Introducción Modelos binarios Estimación MV Ef. Marginales. Predicción Inferencia Modelos Multinomiales
Probit Multinomial
ε ∼ N (0, Σ)
pir = Pr (Yi = r ) = Pr εis − εir 6 (xir − xis ) 0 β + zi0 (γr − γs ) para todo s
,
Logit/Probit Ordenado
Yi∗ = Xi0 β + ui
∗
La variable categórica se observa según Yi cruza secuencialmente
determinados umbrales
Yi = r , si αr −1 < Yi∗ 6 αr , r = 1, . . . , m
donde α0 = −∞ y αm = ∞
Logit/Probit Ordenado
δ Pr (Yi = r )
= [F 0 (αr − Xi0 β) − F 0 (αr −1 − Xi0 β)] βj
δXij
Modelos Multivariantes
Modelos Multivariantes
Modelos Multivariantes