Está en la página 1de 2

Inteligencia Artificial. Primer taller.

1. i. Se tienen los siguientes ejemplos de entrenamiento para un problema de re-


gresión lineal:
     
0 −1 1
< , 0 >, < , 1/2 >, < , 1/2 >
0  0 0
0 1
< , 1 >, < , 3/2 >
1 1  
0
Si el vector de pesos es  1  aplique el algoritmo de Descenso Gradiente
1
Estocástico para modificar el vector de pesos. Calcule la reducción en la
funcion LossTrain al hacer un ciclo.

ii. Considere los mismos ejemplos de entrenamiento pero para un problema de


clasificación:
     
0 −1 1
< , 1 >, < , −1 >, < ,1 >
0 0  0
0 1
< , −1 >, < ,1 >
1 1  
0
Para el mismo vector de pesos 1  aplique el algoritmo de Descenso Gra-

1
diente Estocástico para modificarlo.

2. En tanto que objeto y sistema, el cerebro humano es especial: su conectividad,


su dinámica, su forma de funcionamiento, su relación con el cuerpo y con el
mundo, no se parece a nada que la ciencia conozca. Su carácter único hace que
el ofrecer una imagen del cerebro se convierta en un reto extraordinario. Aunque
todavía estamos lejos de poseer una imagen completa, una imagen parcial siempre
es mejor que nada, especialmente si nos da suficiente información como para
generar una teoría satisfactoria de la conciencia.
El cerebro humano adulto, con poco más de un kilo de peso, contiene unas cien
mil millones de células nerviosas o neuronas. La capa ondulada más exterior o
corteza cerebral, que es la parte del cerebro de evolución más reciente, contiene
alrededor de 30 mil millones de neuronas y un billón de conexiones o sinapsis.
Si contáramos una sinapsis cada segundo, tardaríamos 32 millones de años en
acabar el recuento. Si consideramos el número posible de circuitos neuronales,
tenemos que habérnoslas con cifras hiperastrónomicas: 10 seguido de al menos un
millón de ceros. En comparación, el número de partículas del universo conocido
asciende a "tan solo" 10 seguido de 79 ceros.

1
Inteligencia Artificial. Primer taller.

Las siguientes son palabras (con sus similares) clave: cerebro, ciencia, com-
putación, conciencia, evolución, genética, humano, imagen, medicina, neurona,
razón y sinapsis.

i. Escriba el vector de frecuencias v para el anterior texto.

ii. Se tienen los siguientes patrones clasificados

{([5, 2, 0, 0, 3, 2, 1, 0, 0, 3, 0, 3], A), [3, 1, 0, 1, 0, 2, 0, 1, 0, 4, 1, 2], A)


[0, 2, 3, 0, 0, 0, 2, 3, 2, 0, 1, 0], B)[3, 1, 4, 0, 0, 0, 3, 2, 3, 2, 0, 4], B)
[0, 3, 4, 0, 0, 0, 3, 2, 0, 0, 2, 0], B)[3, 2, 3, 0, 0, 2, 2, 0, 0, 3, 0, 4], A)}

Use el algoritmo de clasificación k−NN con k = 3 para determinar a qué clase


pertenecería el vector de frecuencias del texto. Use la métrica del coseno.

3. El siguiente algoritmo, llamado WINNOW, es una alternativa para el problema


de optimización en problemas de clasificación binaria. Los vectores son binarios
(tienen componentes 0 y 1) y las clases tienen como etiquetas 0 y 1. El clasificador
se define como:
1 Si w · e > θ
n
fw (e) =
0 En otro caso
θ es llamado un valor umbral. En este caso no se le agrega 1 a los vectores de
entrenamiento.
Algoritmo WINNOW.

i. Inicialize los pesos en wi = 1.

ii. Haga el umbral θ = n − 0.1, donde n es el número de atributos y haga α = 2.

iii. Presente un ejemplo de entrenamiento < e, y > y calcule ŷ = fw (e)

iv. Si y 6= ŷ, actualice los pesos de cada atributo cuyo valor sea xi = 1:

wi = wi · αy−ŷ

v. Si y = ŷ para todos los ejemplos de entrenamiento, parar; si no, volver al


paso iii)
Aplique el anterior algoritmo a los datos de la tabla.

También podría gustarte