Está en la página 1de 2

1)

un

La mejor selección del subconjunto tiene el entrenamiento más pequeño RSS porque los otros dos
métodos determinan los modelos con una dependencia de la trayectoria en cuáles predictors eligen
primero mientras que iteran al k'th modelo.

La mejor selección de subconjuntos puede tener la menor prueba RSS porque considera más modelos que
los otros métodos. Sin embargo, los otros modelos pueden tener mejor suerte eligiendo un modelo que se
ajuste mejor a los datos de la prueba.

do

yo. Cierto. Ii. Cierto. Iii. Falso. Iv. Falso. V Falso.

2)

Capítulo 6: Ejercicio 2 Un lazo Iii. Menos flexibilidad y mejores predicciones debido a la menor
varianza, más sesgo B (regresión de la cresta) Igual que el lasso. Iii. C (Métodos no lineales) Ii. Más
flexible, menos sesgo, más desviación

Caso3:

Capítulo 6: Ejercicio 3 un (Iv) Disminuye constantemente: A medida que aumentamos ss a partir de


00, todos los ββ 's aumentan desde 00 hasta sus valores de estimación mínimos cuadrados. El error
de entrenamiento para 00 ββ s es el máximo y disminuye de manera constante al mínimo ordinario
RSS segundo (Ii) Disminuir inicialmente, y luego eventualmente comenzar a aumentar en forma de
U: Cuando s = 0s = 0, todos β β s son 00, el modelo es extremadamente simple y tiene una alta
prueba RSS. A medida que aumentamos ss, betabeta s asumen valores no nulos y el modelo
empieza a encajar bien en los datos de la prueba y así la prueba RSS disminuye. Finalmente, a
medida que los betabeta s se acercan a sus valores de OLS, comienzan a ajustarse a los datos de
entrenamiento, aumentando la prueba RSS. do (Iii) Incremento constante: Cuando s = 0s = 0, el
modelo predice efectivamente una constante y no tiene casi ninguna varianza. A medida que
aumentamos ss, los modelos incluyen más β β s y sus valores empiezan a aumentar. En este punto,
los valores de ββ s se vuelven altamente dependientes de los datos de entrenamiento, aumentando
así la varianza. re (Iv) Disminución constante: Cuando s = 0s = 0, el modelo predice efectivamente
una constante y, por lo tanto, la predicción está muy lejos del valor real. Por lo tanto, el sesgo es
alto. A medida que ss aumenta, más ββ s se convierten en no-cero y por lo tanto el modelo sigue
ajustándose mejor a los datos de entrenamiento. Y así, el sesgo disminuye. mi (V) Permanece
constante: Por definición, el error irreducible es independiente del modelo y, por tanto,
independientemente de la elección de ss, permanece constante.

Caso4
Capítulo 6: Ejercicio 4 un (Iii) Aumento constante: A medida que aumentamos λλ desde 00, todos los
β β 's disminuyen desde su mínimos estimados cuadrados a 00. El error de entrenamiento para full-
blown-OLS β β s es el mínimo y aumenta constantemente como β β s se reducen a 00. segundo (Ii)
Disminuir inicialmente, y luego eventualmente comenzar a aumentar en forma de U: Cuando λ = 0λ
= 0, todos β β s tienen sus valores de estimación de mínimos cuadrados. En este caso, el modelo
intenta adaptarse a los datos de entrenamiento y, por lo tanto, el RSS de prueba es alto. A medida
que aumentamos λλ, la betabeta s comienza a reducirse a cero y se reduce algo de la
sobreejecución. Así, la prueba RSS inicialmente disminuye. Eventualmente, como betabeta s
enfoque 00, el modelo se vuelve demasiado simple y RSS prueba aumenta. do (Iv) Disminuye
constantemente: Cuando λ = 0λ = 0, los β β s tienen sus valores de estimación de mínimos
cuadrados. Las estimaciones reales dependen en gran medida de los datos de formación y, por
tanto, la varianza es alta. A medida que aumentamos λλ, ββ s comienza a disminuir y el modelo se
vuelve más simple. En el caso límite de λλ que se aproxima al infinito, todas las betabeta s se
reducen a cero y el modelo predice una constante y no tiene varianza. re (Iii) Aumenta
constantemente: Cuando λ = 0λ = 0, β β s tienen sus valores de estimación de mínimos cuadrados y
por lo tanto tienen el menor sesgo. A medida que λλ aumenta, ββ s comienza a reducirse hacia cero,
el modelo se ajusta menos exactamente a los datos de entrenamiento y por lo tanto aumenta el
sesgo. En el caso límite de λλ que se acerca al infinito, el modelo predice una constante y, por tanto,
el sesgo es máximo. mi (V) Permanece constante: Por definición, el error irreducible es
independiente del modelo y, por tanto, independientemente de la elección de λλ, permanece
constante.

Caso5

También podría gustarte