Está en la página 1de 17

 

GUÍA Y FORMATO DE LABORATORIO UNIFICADO 


 
CLASIFICACIÓN POR K-NN 
(No 1) 
 
PROGRAMA DE BIOINGENIERÍA 
CURSO INTERSEMESTRAL DE PIB 
PROFESOR: ARMANDO QUIÑONES QUIÑONES 
 
 

 
PRESENTADO POR: 
Juan Felipe Romero Diaz 
Cindy Hurtado Verdugo 
Nicolas Cuartas Verjel 
 
NOMBRE DE LA PRÁCTICA 
Clasificación no paramétrica por k vecinos más cercanos 
 
OBJETIVO  
Desarrollar y validar un clasificador por k vecinos más cercanos 
 
RESULTADOS ESPERADOS 
 
● Algoritmo  que  clasifique  datos  de  entrada  de  la  base  de 
datos wine. 
 
● Algoritmo que mida el rendimiento de dicho clasificador 
 
METODOLOGÍA 
   
A  partir  de  las  siguientes  características  de  la  base  de  datos 
wine: 
Alcohol 
Ácido málico 
ceniza 
Magnesio 
Fenoles totales 
Flavonoides 
Fenoles no flavonoides 
Proantocianidinas 
Intensidad del color 
 
1. Seleccione  las  características  más  apropiadas  (mayor 
separabilidad) para entrenar el clasificador, grafíquelas. 
 
SIN NORMALIZACIÓN 
Alcohol 

 
 
Ácido málico  

 
 
Ceniza 

 
Magnesio 

 
 
Fenoles totales 

 
Flavonoides 

 
 
Fenoles no flavonoides 

 
 
Proantocianidinas 

 
 
Intensidad del color 

 
 
NORMALIZACIÓN DE CARACTERÍSTICAS  
Alcohol 

 
 
Ácido málico 

 
Ceniza 

 
 
Magnesio 

 
 
Fenoles totales 

 
 
Flavonoides 

 
 
Fenoles no flavonoides 

 
 
Proantocianidinas 

 
Intensidad del color 

 
 
Luego  de  realizar  las  gráficas  de  las  características  con  y  sin 
normalización,  se  analiza  de  manera  cualitativa  que  la 
característica  que  contiene  los  Flavonoides  es  la  que  presenta 
mejor  separabilidad  frente  a  las  demás  características,  es  por 
ello  que  de  acuerdo  a  la  separabilidad  obtenida en las gráficas 
se  selecciona  de  manera  cualitativa  las  mejores  características, 
quedando  seleccionados  los  siguientes  conjuntos  de 
características: 
 
Flavonoides-Alcohol. 
Flavonoides-Ceniza. 
Flavonoides-Fenoles totales.  
Flavonoides-Intensidad de color.  
 
 
 
 
 
 
2. Cargar los datos de entrenamiento y validación del archivo 
wine. mat  
 
Con  ayuda  del  comando  load  se  cargó  el  archivo 
wine,posteriormente  se  descomprimió  en  las  diferentes  variables 
correspondientes.  
 
3. Normalizar los datos 
Para  la  normalización  de  los  datos  se  implementó  el  algoritmo 
que se describe en el siguiente diagrama de flujo:  
 

 
4. Implementar  el  algoritmo  k-vecinos  con  el  set  de 
entrenamientos, crear función: ​class=kvecinos (x, y, knn) 
 

 
 
5. Implementar un algoritmo que calcule el desempeño de su 
clasificador. 
Para  el  algoritmo  de  desempeño  del  clasificador  se 
implementaron  tres  parámetros,  error,  precisión  y  exactitud,  el 
algoritmo utilizado se resume en el siguiente diagrama de flujo:   
 

 
 
 
 
 
 
 
6. Variar el K y analizar los resultados de rendimiento. 
 
Flavonoides-Alcohol 

  Precisión  Error  Exactitud 

k=3  0.4391  0.3561  0.6439 

k=11  0.3468  0.3939  0.6061 

k=30  0.3042  0.3864  0.6136 


 
Flavonoides-Ceniza 

  Precisión  Error  Exactitud 

k=3  0.4775  0.3333  0.6667 

k=11  0.4083  0.3788  0.6212 

k=30  0.3528  0.4242  0.5758 


 
Flavonoides-Fenoles totales 

  Precisión  Error  Exactitud 

k=3  0.3109  0.4242  0.5758 

k=11  0.3670  0.3561  0.6439 

k=30  0.3507  0.3712  0.6288 


 
Flavonoides-Intensidad de color 

  Precisión  Error  Exactitud 

k=3  0.3894  0.3636  0.6364 

k=11  0.3776  0.3712  0.6288 

k=30  0.3762  0.3788  0.6212 


 
Para  evaluar  el  algoritmo  de  k  vecinos  se  analizó  las 
función  con  Kvecinos=[3,11,30]  con  los  datos 
normalizados.Al  analizar  los  resultados  obtenidos  en  las 
tablas  del  punto  6  podemos  observar  que  usando  una  k=3 
se  obtuvo  el  mejor  rendimiento  en  cuanto  precisión,error  y 
exactitud.Sin  embargo esto no quiere decir que para todas 
las  posibles  combinaciones  K=3  de  el  mejor 
rendimiento,como  lo  es  al  usar  la  combinacion  de 
caracteristicas  Flavonoides-Fenoles  totales  ,ya  que  para 
este  caso  el  algoritmo  tuvo  el  mejor  rendimiento  con 
k=11,esto  se  debe  a  que  posiblemente  la  separabilidad 
entre  características  no  es  lo  suficientemente  grande 
como  para  asignar  una  única  clase.  Esto  nos  da  a 
entender  que  el  rendimiento  de  nuestro  algoritmo  de  k 
vecinos  depende  del  comportamiento  entre  los  datos  del 
conjunto  de  características,es  decir  si  dichas 
características  tienen  poca  separabilidad  necesitarán  un 
mayor  número  de  vecinos  para  hacer  una  mejor 
clasificación. 
 
De  igual  manera  al  observar  los  resultados  del  punto  6 
podemos  ver  que  el  rendimiento  no  es  tan  bueno  en 
comparación  a  otros  métodos  de  clasificación como el de 
mínimas  distancias,esto  puede  ser  debido  a  que  la 
complejidad  para  hacer  un  algoritmo  de  k  vecinos  es 
mayor  en  comparación  a  el  algoritmo  de  mínimas 
distancias. 
 
7. Concluir. 
 
Se  concluyó  que la separabilidad entre datos puede ser un 
factor  a  tener  en  cuenta  para  escoger  un  valor  de  k  con 
un  rendimiento  óptimo,  si  los  datos  presentan  poca 
separabilidad es recomendable usar un k con un valor alto. 
 
Se  obtuvo  que  el  algoritmo  de  k  vecinos  a  pesar  de  tener 
una  exactitud  de  aproximadamente  0,6  ,sigue  siendo  bajo 
en  comparación  a  la  exactitud  de  otros  clasificadores 
como lo son el clasificador de mínimas distancias.  
 
 
Nota: Insertar resultados en cada ítem 
Observaciones(​Profesor​) 
 
 
 
 
 
 
 
CONCLUSIONES 
Observaciones (​Profesor​) 
 

 
 
RÚBRICA/PONDERACIÓN 
 
RÚBRICA/PONDERACIÓN 
CURSO: ADS 
PROF: ARMANDO QUIÑONES 
LAB: GENERACIÓN ELECTRÓNICA DE SEÑALES PARA ELECTROTERAPIA 
 
CRITERIOS  PONDERACIÓN  RESULTADO 
Algoritmo de K-NN  2.5   
Análisis de variación del K  1.5   
Conclusiones  1  
OBSERVACIONES(PROFESOR):

También podría gustarte