Módulo 7: Aprendizaje Computacional Predictivo

Módulo 7: Aprendizaje Computacional Predictivo

Este segundo módulo de machine learning, profundiza técnicamente en diferentes técnicas de análisis predictivo de datos. Cada una de las secciones de este módulo está estructurada de manera independiente, cubriendo los fundamentos técnicos, la historia, ejemplos de aplicación y prácticas en laboratorio tuteladas por el ponente.

Al término de este módulo el alumno será capaz de identificar en qué casuísticas y escenarios de aplicación son aplicables cada una de las técnicas de análisis de datos abordadas en el módulo, así como las diferencias, ventajas e inconvenientes de cada una de ellas.


Tecnologías: Python, Sklearn. kNN, Modelos SVM, Decision Tree, Random Forest, Naïve Bayes, Neural Networks, validación cruzada, métricas de scoring, limpieza de datos.

El módulo será implantado por Javier del Ser, experto en analítica de datos descriptiva, predictiva y prescriptiva para la resolución de problemas relacionados con redes de distribución inteligente, energías renovables, telecomunicaciones, etc. Imparte los módulos de aprendizaje computacional descriptivo y predictivo.

Planificación docente

Clase 1 (teórica):

  • Repaso al proceso de modelización predictiva
    • Extracción de características
    • Validación cruzada y generalización
    • Problemas prácticos
    • Conexión con optimización y modelización prescriptiva

Clase 2 (teórica):

  • Clasificación/regresión por vecindad (k-vecinos)
  • Inferencia y aprendizaje bayesiano
    • Introducción formal a la regla de Bayes y a la inferencia Bayesiana.
    • Hipótesis MAP/ML para clasificación y predicción.
    • Aprendizaje de redes bayesianas a partir de datos.
  • Árboles de decisión y regresión
    • Introducción: árboles de clasificación y regresión. Motivación.
    • Inducción de árboles: algoritmos ID3, C4.5. Criterios de partición y podado.
    • Extensión a clasificación multi-clase y regresión.
  • Mezclas de modelos
    • Bagging versus boosting
    • Bosques aleatorizados (“Random Forest”).
    • Boosting Classifier.
  • Ejemplos prácticos de aplicación.

Prácticas: KNN, Pipeline, Optimización

Clase 3 (teórico-práctica):

  • Máquinas de vectores soporte
    • Introducción teórica.
    • Tipos de máquinas de vectores soporte. Kernels. Construcción.
    • Selección del modelo: validación cruzada y búsqueda por rejilla.
    • Máquinas de vectores soporte para clasificación multi-clase y regresión.
    • Máquinas de vectores soporte para clasificación de una única clase (one-class).
  • Computación Neuronal
    • Introducción e historia de la Computación Neuronal.
    • Estructura básica de una red neuronal: aprendizaje y adaptación.
    • Fundamentos de las redes neuronales artificiales (ANN).
  • Ejemplos prácticos de aplicación.

Prácticas: Notebook SVM, Notebook ANN

Clase 4 (teórico-práctica):

  • ¿Qué es una serie temporal?
  • Modelos de predicción para series temporales
    • Modelos simples: medias móviles, smoothing
    • Consideraciones sobre estacionalidad, tendencia, ruido
  • ¿Se puede modelizar la predicción de series temporales como un problema de aprendizaje supervisado?

Prácticas: Notebook Time Series Forecasting

Clase 5 (teórica):

  • Preprocesamiento de datos: propósitos
  • Integración de datos
  • Normalización de datos
  • Transformación de datos
  • Imputación de datos

Clase 6 (teórica):

  • Identificación de ruido (aprendizaje supervisado)
  • Identificación de atipicalidades (aprendizaje supervisado/no supervisado)
  • Reducción de dimensionalidad
  • Balanceo de clases
  • Consideraciones finales
  • Revisión de dudas puntuales

Related Posts

Deja un comentario

Your email address will not be published. Required fields are marked.*

× ¿Cómo puedo ayudarte?