Está en la página 1de 11

Solución propuesta por @arganor . V1.

26/01/2021

1) Como disponemos de un conjunto pequeño de ejemplos en este caso, el sistema más


ajustado sería el de "Validación cruzada", dado que divide los ejemplos en grupos de parecido
tamaño y va obteniendo el error en cada iteración. Un dato que suele utilizarse es con un
número parecido a 10. Como sistema opuesto se utiliza el de Dejar uno fuera, que es muy
costoso y requiere n ejecuciones y n ejemplos de entrada. En el caso de entrenamiento y test,
el sesgo puede aparecer con mayor probabilidad si el número de ejemplos es pequeño.

Por todo ello la que quedaría fuera sería el “entrenamiento y test” al requerir mayor número
de ejemplos para poder disponer de un menor sesgo.

2) S = {}

G ={(S ? ? ? ? ?), (? N ? ? ? ?) (? ? S ? ? ? ) (? ? ? N ? ?) (? ? ? ? S ?) (? ? ? ? ? S)}

Al procesar el ejemplo positivo (S N S S N S) debemos especializar G, por lo que observamos si


es consistente con el ejemplo mostrado. En este caso de G debemos descartar aquellos que no
sean consistentes, que no cubran al ejemplo indicado como positivo.

De todos ellos (? ? ? N ? ?), (? ? ? ? S ?) no son consistentes y se eliminarían de G.

G1 ={(S ? ? ? ? ?) (? N ? ? ? ?) (? ? S ? ? ? ) (? ? ? ? ? S)}
Posteriormente debemos generalizar S, de esta manera, como S no cubre al ejemplo positivo,
se elimina y se contruye con ejemplo el tratado.

S1 = {( S N S S N S)}

3) LEF (cobertura 1, NP = 2)

Inicialmente E=L=vacío

Comenzamos realizando la búsqueda interna mirando los ejemplos positivos de la muestra,


calculando la estrella de acuerdo a las especificaciones presentadas en el LEF. Cobertura
implica que solo es necesario 1 hipótesis y el número de premisas es que se admiten 2
complejos en la conjunción de la misma.
d1 = ( B B N) que es + positivo, moroso.

Por lo tanto creamos los complejos para verificar si entran dentro del conjunto Estrella (E)

C1: I1=B -> hay 2 ejemplos positivos y 1 negativo. Debemos especializar más.

C2: I2=B -> Hay 1 ejemplo negativo => especializar.

C3: I3=N -> 2 ejemplos positivos. Se añade a E.

Por lo tanto E={C3}

L'={C1, C2}

L= L'

Siguiente iteración. Como se permiten hasta 2 premisas realizamos la combinación de los


complejos.

C12: I1=B ^ I2= B ->

C13 y C23: queda descartado por incluir a C3. Descartamos todos aquellos donde se repitan o
ya han sido incluidos en la estrella.

C12 no se puede añadir la Estrella dado que tiene ejemplos negativos que cubran esa
hipótesis.

E= {C3}

L'={C12}

Finalización del bucle de búsqueda interna al cumplir el NP = 2.

Ahora debemos ver cuál hay que añadir al recubrimiento.

Al recubrimiento R el C3: I3=B.

R={I3=B}
4) FOIL: Conectado(X,Y) -> c(X,Y) y alcanzable (A,B) -> a(A,B).

Un nodo X está conectado a un nodo Y si existe un arco que va desde X a Y.

Un nodo Y es alcanzable desde un nodo Y o X alcanza a Y siempre que exista un camino desde
el nodo X al Y que los una.

Hechos del grafo:

c(X,Y) ={(1,2) (1,3) (3,4) (3,5) }

a(X,Y) ={ (1,2) (1,3) (1,4) (1,5) (3,4) (3,5) }

Del concepto a aprender Alcanzable(A,B) tenemos los siguientes positivos:

E+ = {(1,2) (1,3)(1,4) (1,5) (3,4) (3,5)}

Cardinalidad Card(E+) = 6.

Aplicando el mundo cerrado, los negativos serían:

E- = {(1,1) (2,1) (2,2) (2,3) (2,4) (2,5) (3,1) (3,2) (3,3) (4,1) (4,2) (4,3) (4,4) (4,5)
(5,1)(5,2)(5,3)(5,4)(5,5) }
Card(E-) )= 19.

Debemos extender la regla al literal pedido, que en este caso es C(B,A).

a(A,B) :- c(A,B)

Para calcular los ejemplos positivos debemos ver la tupla donde B y A estén conectados y
desde la que A alcance a B.

E(L, +) = {(1,2) (1,3) (3,4) (3,5) }

Card (E (L+)) = 4.

Que son los ejemplos positivos que son consistentes con el literal extendido.

Si c(1,2) => a(1,2) no está en los negativos. No hay negativos.

E(L, -) = { }

Card(E(L, -) = 0.

5) Para calcular la ganancia debemos ver los ejemplos para cada atributo y calculamos la
entropía de cada atributo según sus valores.

E(A1=Sí) = -1/1 log2 (1/1) - 0/1 log2(0/1) = 0

E(A1=No) = -1/4 log2 (1/4) - 3/4 log2(3/4) = 0,5 + 0,315 = 0,815


I(A1) = 1/5 * E(A1=Sí) + 4/5 * E(A1=No) = 0,652

E(A2=No) = -2/2 log 2/2 - 0/2 log 2/2 = 0

E(A2=Sí) = - 0/3 log 0/3 - 3/3 log 3/3 = 0.

I(A2) = 0.

E(A3=Sí) = -2/3 log 2/3 - 1/3 log 1/3 = 0.38 + 0.52 = 0.90

E(A3=No) = -0/2 log 0/2 - 2/2 log 2/2 = 0.

I(A3) = 3/5 0.9 + 0 = 0.54

En este caso se elegiría el nodo de A2 como raíz ya que a menor entropía mayor ganancia.

6) Calculamos la media, la desviación típica y el error ponderado por cada atributo

u(A1=Bajo) = (500 + 700 + 1000) / 3 = 733,33.

u(A1=Alto) = (4100+3100+4000)/3 = 3733,33

Var(A1=Alto) = SQRT((366,67)^2+(633.33)^2+266,67^2)/3) = SQRT(202,22)=449,69


Var(A1=Bajo) = SQRT((233.33^2) + (33,33^2)+ (266,67^2)/3) = 205,48

Error(A1) = 3/6 * 449,69 + 3/6 * 205,48= 224,84 +102,74 = 327,58

u(A2=No) = ((500 + 4000) / 2) = 2250

u(A2=Sí) = ((4100 + 3100 + 700 + 1000)/4) = 2225

var(A2=No) = sqrt((500-2250)^2 + (4000-2250)^2)/2))=sqrt((1750^2)+(1750^2))/2 = 1750

var(A2=Sí) = sqrt((1875^2) + 875^2 + 1525^2 + 1225^2))/4) = 1423,68

Error(A2) = 2/6* 1750 + 4/6 * 1423,68 = 583,33 + 949,12 = 1532,45

u(A3=No) = ((500+3100+700)/3) =1433,33

u(A3=Si) = ((4100 + 4000 + 1000)/3) = 3033,33

var(A3=No) = sqrt((933,33^2 + 1667,67^2 + 733,33^2)/3) = 1181,80

var(A3=Sí) = sqrt((1066,67^2 + 966,67^2 + 2033,33^2) / 3) = 1438,36

Error(A3) = 3/6 * 1181,80 + 3/6*1438,36 = 590,9 + 719,18 = 1310,08

Se elige el atributo que menor error tenga, en este caso es A1, que figurará como el nodo raíz.

7) K-NN
Para clasificar el ejemplo e0 debemos calcular la similitud de los ejemplos ya catalogados
realizando para eso la distancia euclídea y posterioremente eligiendo el de mayor similitud

E(e0,e1) = sqrt(3-0)^2 + (5-3)^2) = 3,60

E(e0,e2) = sqrt(3-5)^2 + (5-3)^2) =2,82

E(e0,e3) = sqrt(3-2)^2 + (5-5)^2) = 1

E(e0,e4) = sqrt(3-3)^2 + (5-1)^2) = 4

E(e0,e5) = sqrt(3-3)^2 + (5-10)^2) = 5

La similitud es

S(e0,e1) = 1/ 1+E(e0,e1) = 0,217

s(e0,e2) = 0.2617

S(e0,e3) = 0.5

s(e0,e4) = 0.2

s(e0,e5) = 0.166

Como K=3, se escogen los 3 de mayor similitud y se calcula la mayoría

Los 3 de mayor similitud son e3(+),e2(-) y e1(-).

Ponderando sería

Valor(+) = 0,5

Valor(-) = 0,2617 + 0,217 = 0,4787

Saldría valor +
8)Naive Bayes

Calculamos las probabilidades

P(+) = 2/6

P(-) = 4/6

Probabilidades condicionadas de los atributos discretos

P(A2=No/+)= 0,5

P(A2=Si/+)= 0,5

P(A2=No/-)= 1/4

P(A2=Si/-)= 3/4
Se eligen primero los centroides e1 y e3 y se calculan las distancias euclídeas

e1=c1=(1,1)

e3=c2=(2,1)

No contamos a e1 ni e3 por ser los centroides.

d(e2,c1) = sqrt(0^2 + 1^2) = 1

d(e2,c2) = sqrt(1+1)= 1,41

d(e4,c1) = sqrt(9 + 1) = 3,16

d(e4,c2) = sqrt(4 + 1) = 2,236

d(e5,c1) = sqrt(16 + 1) = 4,12

d(e5,c2) = sqrt(9 + 1) = 3,16

d(e6,c1) = sqrt(9 + 4) = 3,60

d(e6,c2) =sqrt(4 + 4) = 2,83

Los grupos quedarían (e1,e2) (e3,e4,e5,e6)

Recalculamos los centroides.

c1= (2/2, 3/2) = (1, 1,5)

c2= (15/4 , 8/4) = (3,75, 2)


10) Alpha(t)=ln(t-Beta) no sería válida ya que aunque permite decrementar el valor de la tasa
de aprendizaje

Alpha en una cantidad Beta tras cada ciclo, en cuanto Beta supera a t queda en Ln (x) con x<0 y
eso daría error.

En cambio en Alpha(t)= exp(Beta-t) a medida que t crece el exponente se va reduciendo, y se


cumple el esquema de reducir desde valores muy altos a más pequeños. en cada ciclo de
iteración de aprendizaje.

También podría gustarte