Tema 4. Reglas de clasificación: Métodos bayesianos y árboles de decisión

Qué estudiar

Capítulos del Libro:
10 (10.1, 10.2, 10.3, 10.4, 10.5, 10.7 y 10.8)
11 (11.1, 11.2, 11.3, 11.4 y 11.8)
17 (17.1, 17.2 –excepto 'análisis ROC' y 'evaluación de estimadores de probabilidad'–, 17.4, 17.6, 17.7 y 17.8)
De las trasparencias y ejemplos todo lo que queda

Conceptos

  1. Teorema de la probabilidad condicionada de Bayes e hipótesis de independencia mutua
  2. El algoritmo Naïve Bayes
  3. Estimación de probabilidades: Casos continuo y discreto
  4. Aprendizaje en árboles de inducción
  5. Métricas y funciones de particionamiento
  6. Poda en árboles de inducción
  7. Técnicas de clasifiación del vecino más cercano
  8. Conjuntos de datos de aprendizaje y validación
  9. Técnicas de validación cruzada
  10. Estimación basada en costes
  11. Área bajo la curva ROC (¡sólo para los curiosos!, es una técnica muy usada en medicina)
  12. Comparación de técnicas de aprendizaje

Ejercicios

Todos los que quedan en pdf de ejercicios!!!

Comentarios sobre el tema

En este tema nos vamos a centrar en tres modelos de clasificación muy extendidos: Naïve Bayes, árboles de clasificación (algoritmo C4.5) y las técnicas del vecino más cercano. Son modelos que se basan en principios radicalmente diferentes y que se pueden adaptar mejor o peor dependiendo del conjunto de datos en cuestión.

Otro aspecto muy importante a tener en cuenta son las técnicas de validación, es decir, saber evaluar cómo de buenos son los modelos clasificatorios que estamos generando.

Espero que este último tema sea de vuestro interés. Y ánimos, que es ya el último con el que nos enfrentamos.

Un saludo

 
docencia/cursos/inap/tema4.txt · Última modificación: 2012/10/08 17:58 (editor externo)
 
Recent changes RSS feed Powered by PHP Valid XHTML 1.0 Valid CSS Driven by DokuWiki