statistics Intermedio

Naive Bayes

Un clasificador probabilístico rápido que asume independencia condicional entre las variables.

machine-learning probabilidad clasificación

Naive Bayes usa el teorema de Bayes para estimar qué clase es más probable dada la evidencia observada. Su supuesto “naive” es que las variables son condicionalmente independientes dentro de cada clase.

Combina evidencia paso a paso

Laboratorio Naive Bayes

Evidencia probabilística en texto

Evidencia observada
P(Spam | evidencia)0.998
P(Legítimo | evidencia)0.002
Decisión

Spam

Naive Bayes multiplica evidencia condicional clase por clase y luego normaliza para obtener probabilidades posteriores.

Qué mirar
  • La independencia condicional simplifica mucho el cálculo.
  • Un remitente conocido empuja la decisión hacia “Legítimo”.
  • Palabras como “gratis” y “urgente” elevan rápido la probabilidad de spam.

La regla de decisión

\[P(C|X) = \frac{P(X|C)P(C)}{P(X)}\]

En la práctica se comparan las probabilidades posteriores de cada clase y se elige la mayor.

Qué observar

  • Con pocas cuentas ya se obtiene una probabilidad posterior útil.
  • El supuesto de independencia es fuerte, pero muchas veces funciona sorprendentemente bien.
  • Es especialmente competitivo en texto y problemas de alta dimensionalidad.

Aplicaciones

Filtrado de spam, análisis de sentimiento, clasificación documental y tareas donde importa mucho la velocidad de entrenamiento y predicción.