Está en la página 1de 28

Webconferencia: Machine Learning

Aprendizaje supervisado

PhD. Jhoan Sebastián Báez


Especialización en ciencia de datos y analítica

2024
1. Bienvenida y saludo
Elementos del aprendizaje de un concepto

• Concepto (clase): conjunto de objetos, símbolos o eventos agrupados porque comparten ciertas
características y que pueden ser referenciados por un nombre en particular o un símbolo
• Instancia: ilustración específica de un objeto, símbolo, evento, proceso o procedimiento (Merrill,
1994)
• Ejemplo: instancia miembro del concepto en consideración
• No-ejemplo: instancia no-miembro del concepto en consideración
• Datos de entrenamiento: conjunto de instancias que forman parte de la experiencia que utiliza el
sistema para aprender la tarea
• Atributos: características de las instancias.
Ejemplo

Aprender a detectar transacciones fraudulentas de tarjetas de crédito

• Concepto (o clase): Conjunto de transacciones fraudulentas


• Ejemplo: Una transacción fraudulenta
• No-ejemplo: Una transacción legal
• Instancia: Una transacción (fraudulenta o legal)
• Datos de entrenamiento: Base de datos de transacciones, incluyendo las transacciones
fraudulentas (ejemplos) y las transacciones legales (no-ejemplos), que sirven para aprender a
detectar transacciones fraudulentas
Aprendizaje de conceptos

Se aprende un concepto cuando, dado un objeto, se


puede identificar correctamente el concepto o clase a la
que pertenece ese objeto, pudiéndose generalizar la
aplicación del nombre de la clase a todos los miembros de
la misma y discriminando a los miembros que pertenecen
a otra clase.

Términos en aprendizaje automático:

• Clasificación

• Generalización

• Discriminación
Tareas que resuelve el aprendizaje:
Descripción de conceptos:
• En base a los atributos de ejemplos bien conocidos de una clase se aprender el concepto
(esa clase)
Formación de nuevos conceptos:
• En base a unos ejemplos se quiere aprender un nuevo concepto desconocido que los
describa.

Tipos de aprendizaje:
Aprendizaje supervisado
• Técnica para la descripción de conceptos
• Pretende caracterizar un concepto a partir de instancias del mismo
Aprendizaje no-supervisado
• Técnica para la formación de nuevos conceptos
• Pretende caracterizar un concepto desconocido a partir de instancias
del mismo.
Aprendizaje supervisado
Etapas del aprendizaje de un concepto
Modelos a estudiar en esta fase:

• Regresión lineal.
• Regresión logística.
• Arboles de decisión.
• Vecinos más cercanos KNN.
Regresión lineal

• Genera una línea de datos


que mejor se ajusta a los
datos originales. Recurso tecnológico
• 𝜔! es el intercepto y 𝜔" es
la pendiente.
Pasos de un algoritmo

Un algoritmo de ML siempre pasa


por un loop:

1. Se ajusta el modelo.
2. Se comparan resultados con los
reales.
3. Se ajustan pesos en el modelo.
4. Regreso a paso inicial si no se
converge.
A tener en cuenta

Función de pérdida: método


de mínimos cuadrados.

Algoritmo de optimización: el
más común es el de descenso
del gradiente.
Regresión logística

Es un algoritmo supervisado que


pertenece a los algoritmos de
clasificación. Este no busca entregarnos
un valor continuo si no que buscar
entregar valores de 0 o 1.
Recurso tecnológico

Es importante la desambiguación porque


es cierto que en regresión lineal
buscamos predecir valores continuos. La
regresión logística en su corazón se vale
de la función sigmoide, que va desde 0 a
1, un intervalo probabilístico para
nuestras observaciones.
Podemos hacer una gráfica de Probabilidad de
Aprobar vs Horas de estudio, y graficar algunos
puntos de datos de estudiantes que practican
desde 0 a n horas, cada punto de datos se
puede mapear a la función sigmoide para
mapear una probabilidad tal que:

• Si está entre [0.5-1] el estudiante tiene


mejores chances de éxito.
• Si está entre [0-0.5) el estudiante tiene
menos chances de ganar.

Manejado los intervalos de probabilidad


podemos realizar clasificaciones binarias de sí y
no.
► Ventajas
• Fácil de implementar.
• Coeficientes interpretables.
• Inferencia de la importancia de cada característica.
• Clasificación en porcentajes.
• Excelentes resultados con datasets linealmente separables.
• Extendido a clasificación múltiple.

► Desventajas
• Asume linealidad entre las variables dependientes.
• Overfitting sobre datasets de alta dimensionalidad.
• Le afecta la multicolinealidad de variables.
• Mejores resultados con datasets grandes.
Regresión lineal vs Regresión logística
Rep. del conocimiento mediante árboles de decisión
Árbol de decisión: representación de la función objetivo como una serie de condiciones consecutivas.

• Nodos: atributos (ej. Ambiente, Humedad, Viento).


• Arcos: valores de los atributos (ej. soleado, nublado o lluvioso para el atributo Ambiente).
• Hojas: clases (ej. Sí o No).
• Rama: condiciones desde la raíz a la hoja unidas a través de conjunciones (AND) y entre ramas a través de
disyunciones (OR).
Clasificación con el árbol de decisión:
Comparar los valores de los atributos de una instancia cuya clase es desconocida con las ramas
del árbol de decisión.
► ¿Cuándo son adecuados?
• Instancias representadas por pares atributos-valores.
• Atributos de entrada con valores nominales o numéricos.
• Valores de salida de la función objetivo discretos (nominales).
• Existen errores o valores de atributos desconocidos en datos de
entrenamiento.

► Árboles de Clasificación
• Variable dependiente categórica.
• Valores de nodos se reducen a la moda de las observaciones en esa
región.

► Árboles de Regresión
• Variable dependiente continua.
• Valores de nodos se reducen a la media de las observaciones en esa
región.
► Ventajas
• Fáciles de comprender y mapear a reglas.
• Trabajan con conjuntos de datos tanto numéricos como nominales.
• Trabajan con datos multidimensionales.
• No requieren conocimiento en un dominio dado ni establecer
parámetros.
• Útiles para exploración de datos: identifica variables importantes.
• Método no paramétrico: sin suposiciones.

► Desventajas
• Los atributos de salida deben ser categorías: pérdida de información al
categorizar variables continuas.
• Sobreajuste.
• No se permiten múltiples atributos de salida.
• Si los datos son numéricos, los árboles pueden resultar muy complejos.
• Inestables: pequeños cambios en los datos pueden cambiar el árbol
notablemente.
Vecinos más cercanos KNN

El algoritmo de k vecinos más cercanos,


también conocido como KNN o k-NN, es
un clasificador de aprendizaje supervisado
no paramétrico, que utiliza la proximidad
para hacer clasificaciones o predicciones
sobre la agrupación de un punto de datos
individual.
Para determinar qué puntos de datos están más cerca de un punto de consulta
determinado, será necesario calcular la distancia entre el punto de consulta y los
otros puntos de datos. Estas métricas de distancia ayudan a formar límites de
decisión, que dividen los puntos de consulta en diferentes regiones.
Actividades de la Fase 2
¡GRACIAS!

También podría gustarte