Está en la página 1de 3

Plan temático Todos los módulos están profundamente enlazados

por lo que no se ofrecen por separado.

Módulo I - Entrenamiento: estimación - Sobrecarga de funciones y operadores


- Validación - Programación funcional. Funciones que
Matemáticas y Estadística: 10 horas:
- Validación cruzada: método k-fold generan funciones
Matemáticas: - Selección de modelos - Arreglos. Introducción a Numpy. Ope-
- Álgebra Lineal - Inferencia: predicción
- Vectores y Matrices raciones con arreglos.
- Sensibilidad, especificidad, recuer- - Protocolos: contextos
- Tensores
- Productos de Tensores: vectores y do y precisión
matrices Programación en Tensorflow 2-
- Cálculo Diferencial
Módulo II - Tensores. Algebra de tensores
Introducción a Programación: 20 horas
- Concepto de Derivada - Conversión de arreglos Numpy en
- Gradientes Entornos de Programación y desarrollo tensores de Tensorflow
- Diferenciación Automática. - Python, Anaconda
- Diferenciación automática: tf.Gradient-
- Optimización: Gradiente estocástico - Jupyterlab: IPython
- Github: nbviewer Tape
descendiente
- Binder
- Modelamiento Matemático - Tensorflow Programación en Keras
- Elementos de modelamiento matemático - Keras: tf.keras - Perceptron Multicapa
- Aproximación de funciones - Modelo Secuencial
- Teorema de aproximación universal de - API funcional
Desarrollo en la nube - Primera red neuronal con tf.keras
redes neuronales - Google Colaboratory
- Servicios Amazon: AWS
Estadística, Teoría de la Decisión Módulo III
y Teoría de la Información Programación en Python Introducción al Aprendizaje de Máquinas 20:
- Probabilidad, probabilidad conjunta - Lógica de programación horas
- Distribuciones de Probabilidad - Objetos en Python
- Muestreo: muestras representativas - Tipos de variables Introducción a Inteligencia Artificial
- Esperanza matemática - Estructuras de control - Conceptos básicos de IA
- Entropía - Funciones - Reseña histórica y estado actual
- Funciones de Pérdida - Clases y objetos - Máquinas de aprendizaje
- Entropía Cruzada - Métodos y propiedades - Aprendizaje supervisado, no supervisa-
- Error Cuadrático Medio - Herencia
- Clases abstractas, jerarquías do y por refuerzo.
- Precisión y exactitud
Aprendizaje no supervisado Módulo IV Módulo VI
- Conjuntos de datos: features Introducción a las Redes Neuronales: 4 Horas Autocodificadores: 4 horas
- Concepto de dimensión - Capas de Entrada
- Reducción de dimensión: métodos - Capas de Salida Autocodificadores generales
lineales y no lineales - Capas Ocultas - Codificadores
- Introducción a sklearn - Perceptron Multicapa - Decodificadores
- Búsqueda de patrones - Implementación en Keras - Representación Latente
- Clasificación automática (cluste- - Modelo Secuencial de Keras - Coloración de Imágenes
ring): kmeans, vecinos cercanos. - API funcional de Keras - Reducción de Ruido
- Arboles aleatorios de clasificación - Subclassing en Keras - Limpieza de Imágenes
- Maquinas de soporte vectorial - Diseño de redes neuronales
(SVM) - Regularización: L1, L2, Dropout Autocodificadores variacionales
- Métodos de visualización: Mapas - Grafos de las redes: Tensorboard - Modelos Generativos
auto-organizados (SOM), t-SNE - Preparación de datos de entrenamientos, - Representación Latente
prueba y validación - Clasificación Automática de Textos
Aprendizaje supervisado - Optimizadores, métricas. - Modelos de Teoría de Respuesta al Ítem
- Datos entrenamiento, de prueba y - Compilación.
de validación - Modo entrenamiento.
- Regresión lineal - Modo inferencia: validación, predicción. Modulo VII
- Regresión no lineal: regresión logís- Aprendizaje Profundo I: 16 horas
tica Módulo V Redes Convolucionales:
- Regresión multi-logit. Función soft- Redes Recurrentes (8 Horas) - Convoluciones
max - Introducción - Pooling
- Clasificación - Datos Secuenciales
- Arboles aleatorios de regresión - Padding
- Redes con Memoria - Aplanamiento (Flattening)
- Sobre-ajuste - Redes LSTM, GRU, Bidireccionales
- Regularización: L1, L2. - Clasificación y predicción
- Ejemplo Dummy de series de tiempo
- Convergencia: error cuadrático
- Series de tiempo Univariadas: Predicción Redes Profundas
medio(ECM), entropía cruzada
del precio de acciones Redes Residuales
- Implementaciones en Tensorflow 2.
- Series de tiempo Multivariadas: Predicción - Modelo ResNet
del clima - Modelo DenseNet
- Bandas de confianza: Bootstrap - InceptionV3
- Series de tiempo muy largas
Tratamiento de Imágenes Modulo VIII Modulo IX: 2 horas
- Conceptos de filtros clásicos Aprendizaje Profundo II: 10 horas Introducción a Scraping
- Etiquetado automático: métodos no Procesamiento de Lenguaje Natural - Conceptos básicos
supervisados - Introducción al tratamiento superficial - xpath
- Datos aumentados de datos - spyders
- Pre-procesamiento: Open CV - Generación de texto usando caracteres - selenium
- Ejemplos completos aplicados - Html crash core
y redes recurrentes
- Aprendizaje Profundo para datos
Tratamiento de Audios
textuales: word2vec
- Pre-procesamiento: Librosa
- Estado del arte en clasificación de Modulo X: 6 horas
- Transformada de Fourier Discusiones
- Trasformación de audios a imágenes documentos(2020)
- Análisis de sentimiento-Tweets - Inteligencia Artificial, Sociedad y Estado
- Ejemplos completos aplicados - Inteligencia Artificial en la Educación
- Análisis de sentimiento-Comentario de
- Inteligencia Artificial en Medicina
Tratamiento de Videos películas - Inteligencia Artifical, Cienica y Arte
- Pre-procesamiento con Open CV - Modelo seq2seq. - Presentación de Proyectos del Diplomado
- Reducción de frames - Construcción de traductores
- Reducción a blanco y negro - Generación automática de texto-Sone-
- Ejemplos aplicados a análisis de senti- tos Shakespeare Tecnologías
miento - Google Colab
Transformers - Python 3.X - Google Drive
Redes Generativas Adversarias - Transformers paso a paso - Tensorflow 2.X - Amazon AWS
- Redes Adversarias - Traductor Inglés-Español - Keras: tf.Keras - Open CV
- Falsificadores - Introducción a chatbots - Jupyter Lab - Librosa
- Discriminadores - Binder - Nltk
- Fake Objects - Github -Spacy

También podría gustarte