statistics Intermedio
Naive Bayes
Un clasificador probabilístico rápido que asume independencia condicional entre las variables.
machine-learning probabilidad clasificación
Naive Bayes usa el teorema de Bayes para estimar qué clase es más probable dada la evidencia observada. Su supuesto “naive” es que las variables son condicionalmente independientes dentro de cada clase.
Combina evidencia paso a paso
Laboratorio Naive Bayes
Evidencia probabilística en texto
Evidencia observada
P(Spam | evidencia)0.998
P(Legítimo | evidencia)0.002
Decisión
Spam
Naive Bayes multiplica evidencia condicional clase por clase y luego normaliza para obtener probabilidades posteriores.
Qué mirar
- La independencia condicional simplifica mucho el cálculo.
- Un remitente conocido empuja la decisión hacia “Legítimo”.
- Palabras como “gratis” y “urgente” elevan rápido la probabilidad de spam.
La regla de decisión
\[P(C|X) = \frac{P(X|C)P(C)}{P(X)}\]
En la práctica se comparan las probabilidades posteriores de cada clase y se elige la mayor.
Qué observar
- Con pocas cuentas ya se obtiene una probabilidad posterior útil.
- El supuesto de independencia es fuerte, pero muchas veces funciona sorprendentemente bien.
- Es especialmente competitivo en texto y problemas de alta dimensionalidad.
Aplicaciones
Filtrado de spam, análisis de sentimiento, clasificación documental y tareas donde importa mucho la velocidad de entrenamiento y predicción.