Está en la página 1de 2

 

Lista de los errores más comunes cometidos en los ejercicios de examen 
de Feb‐2020 
Respuesta a preguntas de teoría 

1. El  mero  hecho  de  contestar  la  pregunta  no  presupone  que  se  tenga  que  puntuar 
mínimamente. La respuesta correcta a este tipo de preguntas se puede consultar en el 
texto base y, por tanto, esta es la fuente que tendréis que utilizar como referencia a la 
hora de autoevaluar vuestras respuestas. 

Algoritmo Eliminación de Candidatos (Espacio de Versiones) 

1. Al manejar un ejemplo negativo, e‐, se falla al actualizar G en todos o algunos de los 
siguientes pasos: 
‐ Para cada hipótesis g∈G que sea inconsistente con e‐: 
‐ Eliminar g de G. 
‐ Añadir a G todas las especializaciones minimales hi de g tales que cada hi sea 
consistente  con  e‐  y  algún  miembro  de  S  sea  más  o  igual  de  específico  que 
dicha hi. 
‐ Eliminar de G cualquier hipótesis que sea menos general que otra hipótesis de G. 
‐ Obviamente, las hipótesis g∈G que son consistentes con e‐ siguen permaneciendo 
en G, es decir, no se eliminan. 

Algoritmo FOIL 

1. El  criterio  para  finalizar  el  aprendizaje  de  una  regla  es  que,  dicha  regla,  no  cumpla 
ningún  ejemplo  negativo.  Si,  adicionalmente,  dicha  regla  no  cubriera  todos  los 
ejemplos  positivos,  se  debería  iniciar  una  nueva  iteración  (aprendizaje  de  una  nueva 
regla) teniendo en cuenta los ejemplos positivos no cubiertos. 
 

Algoritmo AQ 

1. La  función  elegir‐complejo()  (ver  Fig.  3.10  del  texto  base)  elige  siempre  el  mejor 
complejo (de acuerdo a la función LEF) de todos los obtenidos en la iteración completa 
asociada  al  tratamiento  de  una  semilla  y  es  éste  el  único  que  pasa  al  recubrimiento. 
Por tanto, cada iteración asociada al tratamiento de una semilla sólo añade un único 
complejo al recubrimiento. 
 
2. El  nuevo  conjunto  resultante  de  especificar  aquellos  complejos  que  cubren  ejemplos 
negativos no debe albergar complejos que contengan a complejos ya pertenecientes a 
la estrella actual. 

 
 
 

Algoritmo Naive‐Bayes 

1. Respecto al cálculo de probabilidades asociadas a los atributos discretos, hay una regla 
de  oro  que  se  debería  chequear  siempre:  dada  la  clase,  la  suma  de  probabilidades 
obtenidas  para cada valor del atributo  tiene que ser siempre igual a 1.  En otro caso, 
esto debería alertar de la existencia de algún error. 
 
2. Si  uno  de  los  posibles  valores  de  un  determinado  discreto  atributo  no  aparece  al 
considerar una clase determinada, no se puede asignar un valor cero a la probabilidad 
condicionada  para  dicho  valor  conocida  dicha  clase  (¡esto  es  un  error  grave!).  En  el 
texto base y en el ejercicio resuelto del curso virtual se muestran diferentes opciones 
para solucionar este problema.  
 
3. En el cálculo de la fórmula de la desviación estándar, σ, hay que tener en cuenta, en el 
denominador,  el  número  de  ejemplos  que  intervienen  en  dicho  cálculo:  n‐1  si  se 
quiere calcular σn‐1 o n si se calcula σn. 
 
4. A  la  hora  de  evaluar  el  modelo  aprendido  en  una  instancia  de  clasificación 
desconocida, hay que tener en cuenta que, en el cálculo de la pseudo‐probabilidad de 
cada  clase  interviene,  entre  otras  probabilidades,  la  probabilidad  a  priori  de  dicha 
clase. 
 
5. Las  probabilidades  que  intervienen  en  el  cálculo  de  la  pseudo‐probabilidad  de  cada 
clase se combinan mediante un producto y nunca mediante una suma. 
 
6. A la hora de utilizar el modelo para etiquetar un ejemplo de clasificación desconocida, 
la pseudo‐probabilidad de cada clase, conocido el ejemplo, nunca puede ser mayor de 
1 (¡error muy grave!). En otro caso, revelaría que se ha cometido un error en el cálculo 
de dicha pseudo‐probabilidad. 
 
7. ¡Ojo!  al  utilizar  la  fórmula  de  la  distribución  normal:  a  veces  se  cometen  errores  al 
expresar dicha fórmula. 

Algoritmo k‐medias 

1. Ahorra un tiempo precioso el calcular la pertenencia a cada cluster utilizando sólo la 
distancia  (dado  que  la  similitud  es  inversamente  proporcional  a  la  distancia). 
Evidentemente, el usar la similitud finalmente, en lugar de la distancia, no penaliza. 
 
2. El  algoritmo  k‐medias  converge  sólo  cuando  en  dos  iteraciones  consecutivas  se 
obtiene la misma agrupación de ejemplos. En otro caso, hay que seguir iterando hasta 
que esto ocurra actualizando convenientemente los centroides en cada iteración. Por 
tanto,  el  realizar  una  única  iteración  es  un  error  muy  grave,  dado  que  demuestra  no 
conocer la dinámica de este algoritmo. 

También podría gustarte