Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Link https://www.nature.com/articles/nmeth.4438
Dificultad ⭐
Contenido Teoría
Idioma Español
Type Tutorial
Nuestro ajuste de regresión de consenso en la Figura 1c es más suave que el ajuste
simple basado en toda la muestra y refleja la forma de la parábola más de cerca. Esto
sugiere que si aumentamos el número de bootstraps, podríamos obtener un ajuste aún
mejor, pero ¿cuántos deberíamos usar? El uso de más muestras reduce la varianza del
Resulta que hay otro error útil que podemos calcular, el error 'out-of-bag'
(OOB). Debido a que muestreamos con reemplazo, en cualquier muestra de arranque
dada, algunas observaciones no se seleccionan (puntos huecos, Fig. 1b ), mientras que
otras se representan más de una vez. Los puntos que no se seleccionan forman la
muestra OOB, que se puede utilizar como muestra de validación para el ajuste 5 para
evaluar la precisión de la regresión para nuevas observaciones no incluidas en los
datos de entrenamiento. El error OOB, ε OOB , se calcula de manera análoga a ε B ,
excepto que en lugar de ŷ i usamos ŷ OOB, i , que es el ajuste para cada y ipromediado
a partir de muestras en las que es OOB.
Para evaluar el proceso de embolsado, calculamos periódicamente ε OOB y
continuamos creando nuevas muestras de arranque hasta que el error se
estabilice. Realicemos más arranques a la muestra en la Figura 1 y veamos cómo
disminuyen los errores. El ajuste del árbol de regresión basado en la muestra completa
da un MSE de ε = 0,067. Si ejecutamos diez bootstraps ( Fig. 2a ), el error cae a ε B =
0.048 con un error OOB de ε OOB = 0.077. En la Figura 2bcomparamos las
regresiones de conjunto para ejecuciones individuales de 10, 25 y 50 bootstraps. No
parece haber mucha diferencia entre los ajustes que usan 25 y 50 bootstraps, lo que
podemos verificar observando el perfil de ε B y ε OOB en función del número de
bootstraps ( Fig. 2c ). Podemos ver que después de unos 25 arranques, ambos errores
permanecen relativamente constantes. El uso de ε OOB nos brinda una mejor
indicación de cuándo detenerse, ya que ε B parece estabilizarse demasiado pronto
(alrededor de 15 arranques).
Figura 2: Las regresiones de conjunto mejoran en calidad, hasta cierto punto, a
medida que aumenta el número de arranques.
Las simulaciones han demostrado que el embolsado funciona mejor con algoritmos que
son muy sensibles a pequeños cambios en los datos 6 . Esta sensibilidad significa que
los valores ajustados ŷ serán muy variables de una muestra a otra sin
agregación. Cuando el algoritmo es muy estable, por ejemplo, en una regresión lineal
sin puntos influyentes, el ŷ B en realidad puede ser más variable que ŷ .
Para limitar el impacto de dichas variables, se utiliza una modificación sencilla pero
inteligente del embolsado CART: un bosque aleatorio 7 . En este enfoque, en cada
nodo del árbol, se selecciona al azar un subconjunto m de las p variables en los datos,
y solo estas m variables se consideran para la partición en el nodo. Esta selección
aleatoria de variables reduce la similitud de los árboles que crecen a partir de diferentes
muestras de arranque; es probable que incluso dos árboles que crecen a partir de la
misma muestra de arranque difieran. Una vez que se ha cultivado un bosque de
árboles lo suficientemente grande, los resultados se embolsan de la forma habitual.
Habrá un valor de m que optimice la reducción de la varianza en relación con el costo
computacional. Esto se puede estimar utilizando el error OOB en función de m . Los
bosques aleatorios son bastante sólidos con respecto a m , y en ocasiones se utilizan
reglas generales como m = p /3 para la regresión y m = √ p para la clasificación 7 .
Los métodos de conjunto como bagging y random forest son prácticos para mitigar
tanto el ajuste insuficiente como el sobreajuste, como hemos visto con nuestros
ejemplos de regresión y clasificación. El uso de la muestra OOB con cada bootstrap es
conceptualmente equivalente a usar un conjunto de pruebas para la evaluación fuera
de la muestra, pero proporciona un medio para usar la muestra completa para estimar y
evaluar el ajuste.
Referencias
1. Kulesa, A., Krzywinski, M., Blainey, P. & Altman, N. Nat. Methods 12, 477–478
(2015).
2. Liang, G., Zhu, X. & Zhang, C. in Proc. 25th AAAI Conference on Artificial
Intelligence (eds. Wang, D. & Reynolds, M.) 1802–1803 (Springer, 2011).
DOIhttps://doi.org/10.1038/nmeth.4438