Está en la página 1de 5

1.

Halle el valor de los nodos de la capa oculta y salida de la siguiente red,


para las siguientes entradas: [3,5], [1,-1], [0,0] y [8,4].

Para [3,5]
Nodo Entrada Suma ReLU Rpta
s Ponderada

N0 (Capa Entrada) 3 No Aplica No Aplica 3

N1 (Capa Entrada) 5 No Aplica No Aplica 5

N2 (Capa oculta) 3,5 3*2+5*4=26 ReLU(26)=26 26

N3 (Capa oculta) 3,5 3*4 + 5*-5=-13 ReLU(-13)=0 0

N4 (Salida) 26,0 26*2 + 0*7=52 ReLU(52)=52 52

Para [1,-1]
Nodo Entrada Suma ReLU Rpta
s Ponderada

N0 (Capa Entrada) 1 No Aplica No Aplica 1

N1 (Capa Entrada) -1 No Aplica No Aplica -1

N2 (Capa oculta) 1,-1 1*2+-1*4=-2 ReLU(-2)=0 0

N3 (Capa oculta) 1,-1 1*4 + -1*-5=9 ReLU(9)=9 9

N4 (Salida) 0,9 0*2 + 9*7=63 ReLU(63)=63 63

Para [0,0]
Nodo Entrada Suma Ponderada ReLU Rpta
s

N0 (Capa Entrada) 0 No Aplica No Aplica 1

N1 (Capa Entrada) 0 No Aplica No Aplica -1

N2 (Capa oculta) 0,0 0*2 + 0*4= 0 ReLU(0)= 0


0

N3 (Capa oculta) 0,0 0*4 + 0*-5= 0 ReLU(0)= 0


0

N4 (Salida) 0,0 0*2 + 0*7= 0 ReLU(0)= 0


0

Para [8,4]
Nodo Entradas Suma ReLU Rpta
Ponderada

N0 (Capa 8 No Aplica No Aplica 1


Entrada)

N1 (Capa 4 No Aplica No Aplica -1


Entrada)

N2 (Capa oculta) 8,4 8*2 + 4*4= 32 ReLU(32)=32 32

N3 (Capa oculta) 8,4 8*4 + 4*-5= 12 ReLU(12)=12 12

N4 (Salida) 32,12 32*2 + 12*7= 148 ReLU(148)= 148 148

2. Halle el valor de cada uno de los nodos de la capa oculta y salida de la


siguiente red, para las siguientes entradas: [3,5] y [5,3]. Use la función de
activación ReLU.

Para [3,5]
Nodo Entradas Suma ReLU Rpta
Ponderada

N0 (Capa 3 No Aplica No Aplica 3


Entrada)

N1 (Capa 5 No Aplica No Aplica 5


Entrada)

N2 (Capa oculta) 3,5 3*2 + 5*4= 26 ReLU(26)=26 26

N3 (Capa oculta) 3,5 3*4 + 5*-5=-13 ReLU(-13)=0 0

N4 (Capa oculta) 26,0 26*-1 + 0*1= -26 ReLU(-26)=0 0

N5 (Capa oculta) 26,0 26*2 + 0*2= 52 ReLU(26)=26 26

N6 (Salida) 0,52 0*-3 + 52*7= 364 ReLU(364)= 364 364

Para [5,3]
Nodo Entradas Suma ReLU Rpta
Ponderada

N0 (Capa 5 No Aplica No Aplica 5


Entrada)

N1 (Capa 3 No Aplica No Aplica 3


Entrada)

N2 (Capa oculta) 5,3 5*2 + 3*4= 22 ReLU(22)=22 22

N3 (Capa oculta) 5,3 5*4 + 3*-5= 5 ReLU(5)=5 5


N4 (Capa oculta) 22,5 22*-1 + 5*1= -17 ReLU(-17)=0 0

N5 (Capa oculta) 22,5 22*2 + 5*2= 54 ReLU(54)=54 54

N6 (Salida) 0,54 0*-3 + 54*7= 182 ReLU(378)=378 378

3. Halle el valor de cada uno de los nodos de la capa oculta y salida de la


siguiente red, para las siguientes entradas: [1,1] y [3,2].
Para [1,1]
Nodo Entradas Suma Identidad Rpta
Ponderada

N0 (Capa 1 No Aplica No Aplica 1


Entrada)

N1 (Capa 1 No Aplica No Aplica 1


Entrada)

N2 (Capa oculta) 1,1 1*2 + 1*4= 6 Identidad(6)=6 6

N3 (Capa oculta) 1,1 1*4 + 1*-5= -1 Identidad (-1)=-1 -1

N4 (Capa oculta) 6,-1 6*0 + -1*1= -1 Identidad (-1)=-1 -1

N5 (Capa oculta) 6,-1 6*1 + -1*1= 5 Identidad (5)=5 5

N6 (Salida) -1,5 -1*5 + 5*1= 0 Identidad (0)=0 0

Para [3,2]
Nodo Entrada Suma Ponderada Identidad Rpta
s

N0 (Capa Entrada) 3 No Aplica No Aplica 3

N1 (Capa Entrada) 2 No Aplica No Aplica 2

N2 (Capa oculta) 3,2 3*2 + 2*4= 14 Identidad(14)=14 14

N3 (Capa oculta) 3,2 3*4 + 2*-5= 2 Identidad (2)=2 2

N4 (Capa oculta) 14,2 14*0 + 2*1= 2 Identidad (2)=2 2

N5 (Capa oculta) 14,2 14*1 + 2*1= 16 Identidad 16


(16)=16

N6 (Salida) 2,16 2*5 + 16*1= 26 Identidad 26


(26)=26

4. Dada la siguiente red y los valores de los nodos de la capa oculta y


salida luego de aplicar la función de activación identidad.
¿La salida es la esperada?
Es 13
¿Cuál es la diferencia entre la salida y la esperada?
Es 4
¿Cuál debería ser el valor de los pesos del nodo de salida para que esta sea la
esperada?
El primer peso de salida debería ser 3, y el segundo seria -2. Por lo tanto seria 5*2 +
1*-2 = 13.

5. Dada la siguiente red, y la muestra del dataset: X=[3,2], Y=[7].

Para [3,2]
Nodo Entrada Suma ReLU Rpta
s Ponderada

N0 (Capa Entrada) 3 No Aplica No Aplica 3

N1 (Capa Entrada) 2 No Aplica No Aplica 2

N2 (Capa oculta) 3,2 3*2 + 2*1= 8 ReLU(8)=8 8

N3 (Capa oculta) 3,2 3*0 + 2*0= 0 ReLU(0)=0 0

N4 (Salida) 8,0 8*2 + 0*2= 16 ReLU(16)=16 7

¿Cuál es el error de la predicción que realizó la red si aplicó la función de


activación ReLU?.
Haciendo el procedimiento se obtuvo 16, pero el modelo predijo 7 por lo tanto habría
un error de 9.
Si se incrementa el valor del primer peso de la salida en 2.01, ¿la predicción es
más precisa, menos precisa o es la misma?
Es menos precisa, por que inicialmente el peso es 2 y la salida obtenida es 16 ahora si
se quiere aumentar en un 2.01 al peso, la salida seria 32.08.

6. Dada la siguiente red, y la muestra del dataset: X=[0,3], Y=[3].


Para [0,3]
Nodo Entrada Suma Identidad Rpta
s Ponderada

N0 (Capa Entrada) 0 No Aplica No Aplica 0

N1 (Capa Entrada) 3 No Aplica No Aplica 3

N2 (Capa oculta) 0,3 0*2 + 3*1= 3 Identidad (3)=3 3


N3 (Capa oculta) 0,3 0*1 + 3*2= 6 Identidad (6)=6 6

N4 (Salida) 3,6 3*1 + 6*1= 9 Identidad (9)=9 9

Cuál es el error de la predicción que realizó la red si aplicó la función de


activación identidad?.

Haciendo el procedimiento se obtuvo 9, pero el modelo predijo 3 por lo tanto habría un


error de 6.
¿Qué peso cambiaría (sólo uno) para que la predicción sea correcta, cuál es el
valor de este peso?

Cambiaria el primer peso del nodo de salida, es decir el 1 por un -1, Por tanto quería
que 3*-1 + 6*1 = 3. Con ello haríamos que la predicción sea correcta.

También podría gustarte