Está en la página 1de 5

22.

506 · Modelaje y Optimización · PEC1


2022-23-Sem.2 · Grado en Ciencia de Datos Aplicada
Estudios de Informática, Multimedia y Telecomunicación

Presentación

En ciencia de datos fácilmente nos encontramos con tablas de datos con miles, incluso millones, de
columnas. Cada columna corresponde a una dimensión más. En los sistemas de recomendación, por
ejemplo, podemos encontrar modelos donde cada pelı́cula es una columna. Por tanto, los métodos
de análisis aplicados a estos datos se representan mediante espacios de miles, incluso millones, de
dimensiones. Las redes neuronales, ampliamente utilizadas en el aprendizaje automático, muy a
menudo tienen cientos de miles de parámetros, los cuales se deben ajustar a través de un problema
de optimización. Estos problemas de optimización también se representan mediante espacios de
grandes dimensiones.

De aquı́ aparece la necesidad de trabajar con espacios multidimensionales. La primera herramienta


a desarrollar es entonces el cálculo diferencial con diversas variables. En este reto, revisaremos
conocimientos de cálculo bajo la perspectiva de diversas dimensiones. Haremos una introducción
al cálculo de diversas variables incluyendo conceptos como el gradiente y la matriz Hessiana.

Competencias

En esta práctica se trabajan las siguientes competencias del Grado en Ciencia de Datos Aplicada:

• Que los estudiantes hayan demostrado poseer y comprender conocimientos en un área de


estudio que parte de la base de la educación secundaria general, y se suele encontrar a un
nivel que, si bien se apoya en libros de texto avanzados, incluye también algunos aspectos
que implican conocimientos procedentes de la vanguardia de su campo de estudio.
• Que los estudiantes hayan desarrollado aquellas habilidades de aprendizaje necesarias para
emprender estudios posteriores con un alto grado de autonomı́a.
• Uso y aplicación de las TIC en el ámbito académico y profesional.

Objetivos

Los objetivos concretos de esta PEC son:

• Poder trabajar simbólicamente con varias variables y funciones convexas.

1
22.506 · Modelaje y Optimización · PEC1
2022-23-Sem.2 · Grado en Ciencia de Datos Aplicada
Estudios de Informática, Multimedia y Telecomunicación

• Extender las nociones de primera y segunda derivada al gradiente y la matriz Hessiana.


• Adquirir agilidad en el cálculo con diversas variables, en particular la regla de la cadena.

Descripción de la PEC a realizar

Esta actividad constará de una serie de ejercicios que nos permitirán sumergirnos y coger práctica
en la derivación con varias variables, a la vez que entendemos en qué contexto se aplica y por qué
es necesaria. Estos ejercicios nos permitirán:

• Adquirir agilidad en la derivación y la regla de la cadena.


• Explicar por qué el gradiente marca la dirección de máxima pendiente.
• Entender las aproximaciones de Taylor programando y dibujando algunas aproximaciones de
orden 1 y 2.
• Aplicar la regla de la cadena a una red neuronal sencilla para entender el “backpropagation”.

Recursos

Recursos Básicos
• Documento ”Modelaje y Optimización. Introducción a la Asignatura”
• Documento ”Guia de estudio cálculo en diversas variables”
• Referencia ”Boyd & Vandenberghe, Convex Optimization, Sección 3.1, pp. 67-78”

Recursos Complementarios
• Documento ”Hands-On Programming with R”
• Curso ”Introduction to R”
• Curso ”Intermediate R”

2
22.506 · Modelaje y Optimización · PEC1
2022-23-Sem.2 · Grado en Ciencia de Datos Aplicada
Estudios de Informática, Multimedia y Telecomunicación

Criterios de valoración
• La práctica se debe resolver de manera individual.

• Es necesario justificar todos los pasos realizados en la resolución de la práctica.

Tened en cuenta que esta actividad representa un 10% sobre el total de la nota de las PEC. Para
más información sobre el modelo de evaluación de la asignatura, consultad el plan docente.

Formato y fecha de entrega

Es necesario entregar un único documento PDF con las respuestas de todos los ejercicios. Hay
que realizar la PEC con un procesador de textos, no se aceptarán soluciones entregadas a mano y
escaneadas.

El nombre del fichero debe ser PEC1Apellido1Apellido2Nombre.pdf. Este documento se debe en-
tregar en el espacio de Entrega y Registro EC del aula antes de las 23:59 del dı́a 20/03/2023.
Recordad que la PEC es individual. La detección de falta de originalidad será penalizada de
acuerdo con la normativa vigente de la UOC. Además, al hacer la entrega, aseguraos de compro-
bar que el archivo colgado es el correcto; pues es responsabilidad del alumnado hacer la entrega
correctamente. No se aceptarán entregas fuera de plazo.

3
22.506 · Modelaje y Optimización · PEC1
2022-23-Sem.2 · Grado en Ciencia de Datos Aplicada
Estudios de Informática, Multimedia y Telecomunicación

Responded las siguientes preguntas de forma razonada:

1. [2p] Utilizando la regla de la cadena, calculad la derivada respecto a x de la función:


f (x) = 2 sin (3x + tan (x2 ))
2p
2. [2p] Calculad la derivada direccional ∇v f (p) de la función eaz 1 + xy 2 en el punto p =
(2, 2, 0) a lo largo del vector v = (1, 1, −2), donde a es un parámetro fijo. Podéis encontrar
la descripción de la derivada direccional en el apartado con el mismo nombre de la guı́a de
estudio. No hace falta normalizar el vector direccional.

3. [2p] Dada la función f (x) = xe2x determinad los polinomios de Taylor de orden 1 y 2, aproxi-
mando la función centrada en el punto 1. A partir de los polinomios de orden 1 y 2, calculad
una aproximación al valor de f (1.1) y comparadla con el valor real de f (1.1). Representad
gráficamente la función y los polinomios de orden 1 y 2 obtenidos utilizando R.

4. [4p] Tal y como veremos más adelante, una red neuronal es una función fw (x) de x que
depende de unos parámetros w. x serán los datos que queramos predecir y w son unos
parámetros que nos permiten ajustar la red a los datos. Para poder encontrar una red
neuronal que se ajuste bien a los datos, necesitamos calcular ∂w fw (x) (observad que la
derivada parcial es respecto a w y no respecto a x). El algoritmo que se nutre de las derivadas
parciales para ajustar los pesos se denomina backpropagation.
La red de la Figura 2 es una versión simplificada de lo que se llama red neuronal recurrente.
Dada la función de activación

1
h(t) = ,
1 + e−t
y las funciones

z1 = ωx1 + τ x2
s1 = h(z1 )
z2 = s1 + ωx3 + δx4
s2 = h(z2 )
y = (s1 s2 )2
calcula las derivadas parciales ∂y/∂δ y ∂y/∂ω. Podéis encontrar la descripción de la regla
de la cadena en el apartado con el mismo nombre en la guı́a de estudio.

4
22.506 · Modelaje y Optimización · PEC1
2022-23-Sem.2 · Grado en Ciencia de Datos Aplicada
Estudios de Informática, Multimedia y Telecomunicación

s1

x1 x2 s2 y

x3 x4

Figura 1: Arquitectura de la red neuronal

También podría gustarte