Está en la página 1de 3

CC58 Tópicos en Ciencias de la Computación

UPC
2021-1
MSc. Pedro Shiguihara

TB1: Fundamentos de Modelos de Grafos


Probabilísticos

Instrucciones:
1. El proyecto debe codificarse en Python y debe ser desarrollado en grupo hasta de 3
integrantes como máximo.

2. El grupo debe presentar un notebook Google Colab para el procesamiento de datos.


El código fuente para ambos entregables debe ser completamente funcional y sin
errores para poder ser calificado.

3. El envío debe realizarse a través de Blackboard en: Unidad 1 ->TB1: Fundamentos


de Modelos de Grafos Probabilísticos

4. La fecha de entrega debe ser como máximo antes del inicio de la sesión a las 7pm
del jueves 22 de Abril del 2021 hora UTC/GMT -5 horas. En caso contrario,
el trabajo no será evaluado.

5. La exposición es el día 22 de Abril a las 7pm.

1. Respecto al Notebook
Las siguientes secciones deben estar presentes en el Notebook:
General: Lista de integrantes con nombres y código UPC de estudiante.
Dado un dataset, se debe estimar los conteos y distribuciones de probabilidades
de todas las posibles combinaciones entre variables.
El programa debe ser capaz de aceptar cualquier consulta sobre la función
conteo.

Mostrar tablas de conteo: las tablas de conteo deben mostrarse en formato tabla
del notebook
por cada combinación de variables, se produce una nueva tabla
las tablas de conteo deben aparecer de manera interactiva con ipywidgets usan-
do tabs

Mostrar factores: los factores deben mostrarse en formato tabla del notebook
por cada combinación de variables, se produce un nuevo factor
los factores deben aparecer de manera interactiva con ipywidgets usando tabs
los tipos de factores son:
TB1: Fundamentos de Modelos de Grafos Probabilísticos MSc. Pedro Shiguihara

• factor de distribución marginal


• factor de distribución conjunta
la selección de factores debe realizarse de manera interactiva con ipywidgets

Visualizar tablas de conteo: al ingresar a una pestaña de una tabla de conteo,


es posible:
• seleccionar una variable de la tabla de conteo para graficar su histogra-
ma correspondiente de frecuencias para cada uno de los valores de dicha
variable.

Algoritmo Johnson-Trotter: usar el algoritmo para mostrar las combinaciones posi-


bles de las probabilidades condicionales que pueden ser estimadas del tipo P (A |
B, . . . , Z).

2. Respecto al Proyecto General


Cumplimiento del informe y proyecto en Python: el no cumplimiento de las con-
sideraciones del presente documento afectan a la calificación del proyecto. Por lo
tanto, el grupo debe estar comprometido a leer el enunciado del proyecto apropia-
damente.

3. Respecto al Trabajo Autodirigido


Cada grupo debe preparar un informe usando el siguiente template:
https://www.overleaf.com/latex/templates/ieee-conference-template/grfzhhncsfqn.
El trabajo debe cubrir los siguientes temas:

Integrantes: mencionan los nombres completos y códigos UPC de los alumnos pertene-
cientes al grupo.

Representación: describen cuál es la representación en términos de la teoría de la pro-


babilidad y teoría de grafos que permiten formar a una red bayesiana dinámica
(dynamic bayesian network - DBNs). Brindan al menos 3 ejemplos de representa-
ciones válidas de DBNs citando papers al respecto.

Aprendizaje: describen al menos 3 algoritmos para el aprendizaje de DBNs citando


papers al respecto.

Inferencia: describen al menos 3 algoritmos para la inferencia de DBNs citando papers


al respecto.

Referencias bibliográficas: lista de papers citados provenientes de Scopus (mínimo 3


papers).

4. Lecturas recomendadas para el trabajo autodirigido


A parte de los papers a considerar en el informe del trabajo autodirigido, pueden comple-
mentar con las siguientes lecturas:

2
TB1: Fundamentos de Modelos de Grafos Probabilísticos MSc. Pedro Shiguihara

Capítulo 6: Template-based representations (Koller y Friedman, 2009).

Capítulo 17: Markov and hidden markov models (Murphy, 2012).

Capítulo 9: Dynamic and temporal bayesian networks (Sucar, 2015).

5. Rúbrica
Ver rúbrica en:
https://upcedupe-my.sharepoint.com/:x:/g/personal/pcsipshi_upc_edu_pe/Eb5SYjzd8AtKncu7
_sX--ySg?e=iYBd6H

Figura 1: Usar este código QR para ver la rúbrica del Trabajo 1 (TB1) del curso CC58
Tópicos en Ciencias de la Computación 2021-1.

Referencias
Koller, D., y Friedman, N. (2009). Probabilistic graphical models: Principles and techniques
- adaptive computation and machine learning. The MIT Press.
Murphy, K. P. (2012). Machine learning: A probabilistic perspective. The MIT Press.
Sucar, L. E. (2015). Probabilistic graphical models: Principles and applications. Springer
Publishing Company, Incorporated.

También podría gustarte