Está en la página 1de 5

Ayudantı́a 4

Métodos Multivariados
Profesor: Francisco Gómez
Ayudante: Natalia Osorio

Junio, 2022

1. Regresión Multivariada
Variables independientes explican el comportamiento de una variable dependiente. Se deben calcular
los coeficientes.
Regresión Multivariada Modelo

y(a0 , a1 , ..., ap , x1 , x2 , ..., xp ) = M odelo(a0 , a1 , ..., xp ) + {


En donde:
{ es una v.a que distribuye ∼ N (0, σ 2 )
y: variable respuesta
x1 , x2 , ..., xp : variables predictoras

1.1. Linealidad del modelo


La linealidad de un modelo se caracteriza en términos de los coeficientes (a0 , a1 , a2 , ..., ap ).
Modelo lineal: exponente de los coeficientes es 1.
Modelo no-lineal: al menos un coeficiente tiene exponente 6= 1.
Modelo linealizable: es un modelo no-lineal, pero en donde aplicando una transformación
adecuada se obtiene un modelo lineal.

1.2. Formas de ajustar un modelo:


Método Mı́nimos cuadrados discretos
Se define el error cuadrático medio:
n
(yi − modelo(ao , a1 , ..., xp ))2
P
E(ao , a1 , a2 , ..., ap ) =
i=1
δE
Concepto: debe ser minimal ⇔ δai =0

1
Método Matriz de Diseño
El sistema lineal a resolver es:
X t X β~ = X t ~y
m
β~ = (X t X)−1 X t ~y
Comprobar en excel
Análisis de datos → regresión

Ejemplo
Ajustar el modelo y = ao + a1 e−x1 + a2 cos x2 + {
a) M.M.D
b) Matriz de Diseño
c) Comprobar con excel
Datos:
x1 3.5 3 6 5.3 4.6 5
x2 4 4.1 5.3 5 3.8 5.6
y 0.8 1.1 1.9 1.7 1.5 2
2. Propiedades de un buen modelo
Objetivos del modelo
1. Tener un alto nivel de predicción (R2 )
2. Ser significativo (esta propiedad se docima)
3. Información de las variables xi no se superpongan (Independencia)

2.1. Tener un R2 cercano a 1


El R2 describe que tan bien el modelo propuesto ajusta los datos
0 < R2 < 1
Criterio: mientras más cerca está de 1, es mejor predictor.
El coeficiente de determinación R2 se explicita por

n
(yˆi − y)2
P
2 SCReg i=1
R = = n
SCtotal
(yi − y)2
P
i=1

2.2. El modelo debe ser significativo


Las variables consideradas en el modelo deben ser importantes
Esta propiedad se docima
Testeo: (prueba de una cola)
i) H0 : β1 = β2 = ... = βp = 0
ii) HA : por lo menos un βi 6= 0, i = 1, 2, 3.., p
iii) α = 0, 05
iv) Estadı́stico de contraste:
CM (Reg)
Fobs = CM (Resid)

v) Si Fobs > F0,95 (p, n − (p + 1)) se rechaza H0


Si se rechaza H0 , el modelo es significativo.
2.3. Variables predictoras independientes
Las variables predictoras no deben tener información que se superponga. Se calcula la matriz de
correlación
Matriz de correlación de la muestra X
 
1 r12 r13 ... r1p
r21 1 r23 ... . 
R= .

. . . . 
rp1 . . . 1

Recuerdo: Coef. de Relacion r(x1 , x2 ) = √ S12



S11 S12

r(xi , xj ) indica el nivel de correlación entre las variables


r(xi , xj )=1
˜ alta correlación directa
˜ − 1 alta correlación inversa
r(xi , xj )=
r(xi , xj )=0
˜ no hay correlación lineal entre xi y xj
*en excel: análisis de datos → coef. de correlación

Ejemplos
1. Ajustar el modelo exponencial y = aebx + {
Con los datos
x 2 1.5 3 4.8 1.9
y 4 6 1.5 2.3 4.1
2. Dada la tabla de valores
x1 3.5 4.6 5 2.7 3
x2 4.2 3.8 4.5 4.3 4.5
x3 5.1 4.9 3.8 5.1 3.2
y 0.7 0.9 1.1 1.3 0.85
Ajustar los modelos:
y1 = β0 + β1 x1 + β2 x2 + β3 x3 + {
y2 = β0 + β1 e−x1 + β2 x22 + β3 cos x3 + {
a) Comparar predicción de cada modelo
b) Analizar la significancia α = 0,05
c) Analizar la independencia de las variables predictoras
3. Ejercicio Pep 2020
a) Considere la matriz de muestreo representativa X de una poblacion ω1 . La cuarta columna
es la variable dependiente y las 3 primeras son las predictoras. Ajuste el modelo
y = ax21 + be−x2 + c cos x3 + {
Comente sus 3 propiedades (el ajuste puede ser con Excel).
 t
3 5 5 5 2 3
4 6 6 3 4 6
X=5

3 7 7 6 7
6 1 2 2 4 8

b) Determine las ecuaciones normales del modelo

También podría gustarte