Documentos de Académico
Documentos de Profesional
Documentos de Cultura
un
La mejor selección del subconjunto tiene el entrenamiento más pequeño RSS porque los otros dos
métodos determinan los modelos con una dependencia de la trayectoria en cuáles predictors eligen
primero mientras que iteran al k'th modelo.
La mejor selección de subconjuntos puede tener la menor prueba RSS porque considera más modelos que
los otros métodos. Sin embargo, los otros modelos pueden tener mejor suerte eligiendo un modelo que se
ajuste mejor a los datos de la prueba.
do
2)
Capítulo 6: Ejercicio 2 Un lazo Iii. Menos flexibilidad y mejores predicciones debido a la menor
varianza, más sesgo B (regresión de la cresta) Igual que el lasso. Iii. C (Métodos no lineales) Ii. Más
flexible, menos sesgo, más desviación
Caso3:
Caso4
Capítulo 6: Ejercicio 4 un (Iii) Aumento constante: A medida que aumentamos λλ desde 00, todos los
β β 's disminuyen desde su mínimos estimados cuadrados a 00. El error de entrenamiento para full-
blown-OLS β β s es el mínimo y aumenta constantemente como β β s se reducen a 00. segundo (Ii)
Disminuir inicialmente, y luego eventualmente comenzar a aumentar en forma de U: Cuando λ = 0λ
= 0, todos β β s tienen sus valores de estimación de mínimos cuadrados. En este caso, el modelo
intenta adaptarse a los datos de entrenamiento y, por lo tanto, el RSS de prueba es alto. A medida
que aumentamos λλ, la betabeta s comienza a reducirse a cero y se reduce algo de la
sobreejecución. Así, la prueba RSS inicialmente disminuye. Eventualmente, como betabeta s
enfoque 00, el modelo se vuelve demasiado simple y RSS prueba aumenta. do (Iv) Disminuye
constantemente: Cuando λ = 0λ = 0, los β β s tienen sus valores de estimación de mínimos
cuadrados. Las estimaciones reales dependen en gran medida de los datos de formación y, por
tanto, la varianza es alta. A medida que aumentamos λλ, ββ s comienza a disminuir y el modelo se
vuelve más simple. En el caso límite de λλ que se aproxima al infinito, todas las betabeta s se
reducen a cero y el modelo predice una constante y no tiene varianza. re (Iii) Aumenta
constantemente: Cuando λ = 0λ = 0, β β s tienen sus valores de estimación de mínimos cuadrados y
por lo tanto tienen el menor sesgo. A medida que λλ aumenta, ββ s comienza a reducirse hacia cero,
el modelo se ajusta menos exactamente a los datos de entrenamiento y por lo tanto aumenta el
sesgo. En el caso límite de λλ que se acerca al infinito, el modelo predice una constante y, por tanto,
el sesgo es máximo. mi (V) Permanece constante: Por definición, el error irreducible es
independiente del modelo y, por tanto, independientemente de la elección de λλ, permanece
constante.
Caso5