statistics Intermedio

Random Forest

Un ensamble de árboles que votan juntos para ganar robustez y reducir la varianza.

machine-learning ensamble clasificación

Random Forest combina muchos árboles de decisión entrenados sobre muestras y subconjuntos de variables distintos. En lugar de confiar en una sola rama, agrega muchas voces pequeñas y decide por mayoría.

Mira cómo vota el bosque

Laboratorio Random Forest

Votación de árboles débiles

Caso evaluado

Árbol 1

Ingreso alto + deuda controlada

Árbol 2

Buen score o antigüedad

Árbol 3

No

Ingreso muy alto o score fuerte

Árbol 4

No

Deuda baja + cierta estabilidad

Árbol 5

Perfil equilibrado

Resultado agregado

Aprobado

3 votos positivos de 5. Probabilidad por voto: 60%.

Qué mirar
  • Cada árbol ve el problema con reglas algo distintas.
  • La votación reduce la varianza respecto a un único árbol sensible.
  • El bosque gana robustez aunque pierda interpretabilidad global.

Intuición clave

Un árbol individual puede ser inestable: un pequeño cambio en los datos puede alterar mucho su estructura. El bosque reduce ese problema porque promedia decisiones diversas.

Qué observar

  • Cada árbol usa reglas parecidas, pero no idénticas.
  • La decisión final depende de la agregación, no de un solo árbol.
  • Se gana robustez a costa de perder una explicación global simple.

Aplicaciones

Es un baseline fuerte para clasificación tabular, detección de fraude, riesgo crediticio y diagnóstico cuando se busca buen desempeño sin demasiado ajuste fino.