Random Forest
Un ensamble de árboles que votan juntos para ganar robustez y reducir la varianza.
Random Forest combina muchos árboles de decisión entrenados sobre muestras y subconjuntos de variables distintos. En lugar de confiar en una sola rama, agrega muchas voces pequeñas y decide por mayoría.
Mira cómo vota el bosque
Laboratorio Random Forest
Votación de árboles débiles
Árbol 1
Sí
Ingreso alto + deuda controlada
Árbol 2
Sí
Buen score o antigüedad
Árbol 3
No
Ingreso muy alto o score fuerte
Árbol 4
No
Deuda baja + cierta estabilidad
Árbol 5
Sí
Perfil equilibrado
Aprobado
3 votos positivos de 5. Probabilidad por voto: 60%.
- Cada árbol ve el problema con reglas algo distintas.
- La votación reduce la varianza respecto a un único árbol sensible.
- El bosque gana robustez aunque pierda interpretabilidad global.
Intuición clave
Un árbol individual puede ser inestable: un pequeño cambio en los datos puede alterar mucho su estructura. El bosque reduce ese problema porque promedia decisiones diversas.
Qué observar
- Cada árbol usa reglas parecidas, pero no idénticas.
- La decisión final depende de la agregación, no de un solo árbol.
- Se gana robustez a costa de perder una explicación global simple.
Aplicaciones
Es un baseline fuerte para clasificación tabular, detección de fraude, riesgo crediticio y diagnóstico cuando se busca buen desempeño sin demasiado ajuste fino.