Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Lista de los errores más comunes cometidos en los ejercicios de examen
de Feb‐2020
Respuesta a preguntas de teoría
1. El mero hecho de contestar la pregunta no presupone que se tenga que puntuar
mínimamente. La respuesta correcta a este tipo de preguntas se puede consultar en el
texto base y, por tanto, esta es la fuente que tendréis que utilizar como referencia a la
hora de autoevaluar vuestras respuestas.
Algoritmo Eliminación de Candidatos (Espacio de Versiones)
1. Al manejar un ejemplo negativo, e‐, se falla al actualizar G en todos o algunos de los
siguientes pasos:
‐ Para cada hipótesis g∈G que sea inconsistente con e‐:
‐ Eliminar g de G.
‐ Añadir a G todas las especializaciones minimales hi de g tales que cada hi sea
consistente con e‐ y algún miembro de S sea más o igual de específico que
dicha hi.
‐ Eliminar de G cualquier hipótesis que sea menos general que otra hipótesis de G.
‐ Obviamente, las hipótesis g∈G que son consistentes con e‐ siguen permaneciendo
en G, es decir, no se eliminan.
Algoritmo FOIL
1. El criterio para finalizar el aprendizaje de una regla es que, dicha regla, no cumpla
ningún ejemplo negativo. Si, adicionalmente, dicha regla no cubriera todos los
ejemplos positivos, se debería iniciar una nueva iteración (aprendizaje de una nueva
regla) teniendo en cuenta los ejemplos positivos no cubiertos.
Algoritmo AQ
1. La función elegir‐complejo() (ver Fig. 3.10 del texto base) elige siempre el mejor
complejo (de acuerdo a la función LEF) de todos los obtenidos en la iteración completa
asociada al tratamiento de una semilla y es éste el único que pasa al recubrimiento.
Por tanto, cada iteración asociada al tratamiento de una semilla sólo añade un único
complejo al recubrimiento.
2. El nuevo conjunto resultante de especificar aquellos complejos que cubren ejemplos
negativos no debe albergar complejos que contengan a complejos ya pertenecientes a
la estrella actual.
Algoritmo Naive‐Bayes
1. Respecto al cálculo de probabilidades asociadas a los atributos discretos, hay una regla
de oro que se debería chequear siempre: dada la clase, la suma de probabilidades
obtenidas para cada valor del atributo tiene que ser siempre igual a 1. En otro caso,
esto debería alertar de la existencia de algún error.
2. Si uno de los posibles valores de un determinado discreto atributo no aparece al
considerar una clase determinada, no se puede asignar un valor cero a la probabilidad
condicionada para dicho valor conocida dicha clase (¡esto es un error grave!). En el
texto base y en el ejercicio resuelto del curso virtual se muestran diferentes opciones
para solucionar este problema.
3. En el cálculo de la fórmula de la desviación estándar, σ, hay que tener en cuenta, en el
denominador, el número de ejemplos que intervienen en dicho cálculo: n‐1 si se
quiere calcular σn‐1 o n si se calcula σn.
4. A la hora de evaluar el modelo aprendido en una instancia de clasificación
desconocida, hay que tener en cuenta que, en el cálculo de la pseudo‐probabilidad de
cada clase interviene, entre otras probabilidades, la probabilidad a priori de dicha
clase.
5. Las probabilidades que intervienen en el cálculo de la pseudo‐probabilidad de cada
clase se combinan mediante un producto y nunca mediante una suma.
6. A la hora de utilizar el modelo para etiquetar un ejemplo de clasificación desconocida,
la pseudo‐probabilidad de cada clase, conocido el ejemplo, nunca puede ser mayor de
1 (¡error muy grave!). En otro caso, revelaría que se ha cometido un error en el cálculo
de dicha pseudo‐probabilidad.
7. ¡Ojo! al utilizar la fórmula de la distribución normal: a veces se cometen errores al
expresar dicha fórmula.
Algoritmo k‐medias
1. Ahorra un tiempo precioso el calcular la pertenencia a cada cluster utilizando sólo la
distancia (dado que la similitud es inversamente proporcional a la distancia).
Evidentemente, el usar la similitud finalmente, en lugar de la distancia, no penaliza.
2. El algoritmo k‐medias converge sólo cuando en dos iteraciones consecutivas se
obtiene la misma agrupación de ejemplos. En otro caso, hay que seguir iterando hasta
que esto ocurra actualizando convenientemente los centroides en cada iteración. Por
tanto, el realizar una única iteración es un error muy grave, dado que demuestra no
conocer la dinámica de este algoritmo.