11 Métodos ensamblados
Los métodos ensamblados (ensemble methods) constituyen una estrategia fundamental en aprendizaje supervisado, basada en la combinación de múltiples modelos para mejorar la precisión y estabilidad de las predicciones. En lugar de depender de un único estimador, estos métodos buscan reducir la varianza, el sesgo o ambos mediante la agregación de múltiples modelos base. Su eficacia radica en el principio de que la combinación de modelos diversos puede generar una predicción más robusta que cualquiera de ellos por separado.
Existen distintas formas de ensamblaje, entre las que destacan bagging (bootstrap aggregating) y boosting, ambas con enfoques distintos pero complementarios. Bagging se basa en entrenar múltiples modelos independientes sobre subconjuntos de datos obtenidos mediante remuestreo, para luego “promediar” sus resultados y reducir la varianza del modelo. Un ejemplo destacado de este enfoque es el Random Forest, que extiende la idea de los árboles de decisión al combinar múltiples árboles construidos de manera aleatoria.
Por otro lado, boosting emplea un esquema iterativo en el que cada modelo sucesivo se entrena enfatizando los errores cometidos por los modelos anteriores. A diferencia de bagging, donde los modelos se entrenan en paralelo sin influencia mutua, en boosting los modelos se construyen de manera secuencial, permitiendo corregir errores progresivamente y reducir el sesgo del modelo final.
Estos enfoques han demostrado ser especialmente efectivos, tanto en problemas de clasificación como en problemas de regresión, ofreciendo mejoras significativas en el rendimiento sin necesidad de modificar los datos originales ni la estructura base de los modelos individuales.
Cuadernos computacionales:
- .
- .