Está en la página 1de 50

Slide #3

En el módulo anterior del curso, exploró las opciones de aprendizaje automático


disponibles en Google Cloud. Ahora, enfoquémonos en el flujo de trabajo de aprendizaje
automático con Vertex AI.
Slide #4
Vertex AI, la plataforma de IA de Google, brinda a los desarrolladores y científicos de
datos un entorno unificado para compilar modelos de AA personalizados. En este
módulo, explorará las tres etapas principales del flujo de trabajo del AA: la preparación
de datos, el entrenamiento del modelo y la implementación del modelo. El proceso no es
muy diferente de las acciones que se llevan a cabo para servir comida en un restaurante,
que comienzan por la preparación de ingredientes crudos, hasta servir los platos en la
mesa.

Luego de eso, obtendrá experiencia práctica para compilar un modelo de aprendizaje


automático de extremo a extremo con AutoML, la solución sin código de Vertex AI.
Slide #5
Pero antes de entrar en detalles, veamos las diferencias básicas entre el aprendizaje
automático y la programación tradicional.

En pocas palabras, para la programación tradicional uno más uno equivale a dos (1 + 1 =
2). Los datos más las reglas (que también se conocen como algoritmos) conducen a las
respuestas. Además, con la programación tradicional, una computadora solo puede
seguir los algoritmos que configura una persona.

Pero ¿qué sucede si nos cuesta deducir los algoritmos? ¿O si estos son muy complejos
de descifrar? Aquí es donde entra el aprendizaje automático. Con el aprendizaje
automático, alimentamos una máquina con una gran cantidad de datos, junto con las
respuestas que esperaríamos que un modelo concluyera a partir de esos datos. Luego,
le mostramos a la máquina un método de aprendizaje mediante la selección de un
modelo de aprendizaje automático. En ese punto, esperamos que la máquina aprenda de
los datos y ejemplos proporcionados para resolver la incógnita por su cuenta. Así que,
en lugar de decirle a la máquina cómo hacer la suma, le brindamos pares de números y
las respuestas. Por ejemplo, 1, 1 y 2, y 2, 3 y 5. Luego se le pide descifrar cómo hacer la
suma por su cuenta.
Slide #6
Pero ¿cómo es posible que una máquina pueda aprender a resolver acertijos? Para que
el aprendizaje automático funcione, se necesita mucha capacidad de almacenamiento,
como la que está disponible con Cloud Storage, así como la capacidad de realizar
cálculos rápidos, como sucede con la computación en la nube.
Slide #7
Existen muchos ejemplos prácticos de esta capacidad. Por ejemplo, si se agregan
muchas imágenes con etiquetas (suponiendo que las etiquetas son respuestas
asociadas con datos) a Google Fotos, podemos enseñarle al software a asociar y, luego,
a agregar de forma automática etiquetas a las imágenes nuevas (reglas de resultado).
Luego, estas etiquetas se pueden usar para la función de búsqueda o a fin de crear
álbumes de fotos de forma automática.
Slide #8
¿Es posible imaginar otros ejemplos para aplicar a las capacidades del aprendizaje
automático (datos + respuestas → reglas)? Tómese un momento para pensarlo.
Slide #9
Existen tres etapas clave para este proceso de aprendizaje.
Slide #10
La primera etapa es la preparación de los datos, que incluye dos pasos: la carga de
datos y la ingeniería de atributos.

Un modelo necesita aprender de una gran cantidad de datos. Los datos que se usan en
el aprendizaje automático pueden ser una transmisión de datos en tiempo real o datos
por lotes, y pueden ser de forma estructurada, es decir, números y texto que
generalmente se guardan en tablas, o datos no estructurados, que son datos que no se
pueden almacenar en tablas, como las imágenes y los videos.
Slide #11
La segunda etapa es el entrenamiento del modelo. Un modelo necesita una gran cantidad
de entrenamiento iterativo. Es decir, cuando el entrenamiento y la evaluación forman un
ciclo para entrenar el modelo, luego, evaluarlo y, posteriormente, entrenar los datos un
poco más.
Slide #12
La tercera y última etapa es la entrega del modelo. Es necesario utilizar un modelo para
poder predecir resultados. En esta etapa, el modelo de aprendizaje automático se
implementa, supervisa y administra. Si no pone en ejecución un modelo de AA, se
conserva como un modelo teórico y no tiene un uso real.
Slide #13
Al inicio mencionamos que el flujo de trabajo del aprendizaje automático con Vertex AI
no es muy diferente del proceso para servir comida en un restaurante. Así que si
compara estos pasos con el trabajo en un restaurante, el equivalente sería el siguiente:
La preparación de los datos correspondería a la preparación de los ingredientes crudos.
El entrenamiento del modelo correspondería a la experimentación con diferentes recetas.
La entrega del modelo correspondería a la finalización del menú para luego servir la
comida a los clientes hambrientos.

Es importante tener en cuenta que un flujo de trabajo de AA no es lineal, sino iterativo.


Por ejemplo, durante el entrenamiento del modelo, es posible que deba volver a
profundizar en los datos sin procesar y generar más atributos útiles que le permitan
alimentar el modelo. Cuando supervise el modelo durante la entrega, es posible que
encuentre datos desviados o descubra que la precisión de su predicción podría caer
repentinamente. Le recomendamos verificar las fuentes de datos y ajustar los
parámetros del modelo. Afortunadamente, se pueden automatizar estos pasos mediante
operaciones de aprendizaje automático o MLOps. Pronto analizaremos esta información
en mayor detalle.
Slide #14
¿Cómo admite Vertex AI este flujo de trabajo? Recuerde que Vertex AI proporciona dos
opciones para crear modelos de aprendizaje automático: AutoML, que es una solución
sin código, y el entrenamiento personalizado, que es una solución basada en código.
Slide #15
Vertex AI brinda muchos atributos compatibles con el flujo de trabajo de AA, y a todos se
puede acceder mediante AutoML o Vertex AI Workbench. Los ejemplos incluyen:
Feature Store, que proporciona un repositorio centralizado para la organización, el
almacenamiento y la entrega de atributos que permiten alimentar los modelos de
entrenamiento;
Vizier, que le permite ajustar los hiperparámetros en modelos complejos de aprendizaje
automático;
Explainable AI, que lo ayuda con situaciones, como la interpretación del rendimiento del
entrenamiento; y
Pipelines, que lo ayuda a supervisar la línea de producción del AA. Específicamente:
Le permiten automatizar, supervisar y administrar su flujo de trabajo del AA sin
servidores.
El flujo de trabajo del AA comienza con la preparación de los datos, pasa por el
entrenamiento y la evaluación del modelo de AA y, finalmente, termina en la
implementación y supervisión del modelo de AA.
Además, lo ayudan a almacenar los artefactos de su flujo de trabajo con
Vertex ML Metadata.
Si almacena los artefactos del flujo de trabajo del AA en Vertex ML Metadata, puede
analizar el linaje de los artefactos del flujo de trabajo. Por ejemplo, el linaje de un modelo
de AA puede incluir los datos de entrenamiento, los hiperparámetros y el código que se
usaron para crear el modelo.
Slide #17
Ahora veamos en detalle un flujo de trabajo de AutoML. La primera etapa del flujo de
trabajo de AutoML es la preparación de los datos. Durante esta etapa, debe subir datos y
prepararlos para el entrenamiento del modelo con la ingeniería de atributos.
Slide #18
Cuando suba un conjunto de datos a la interfaz de usuario de Vertex AI, deberá
asignarles un nombre significativo a los datos y, luego, seleccionar el tipo de datos y el
objetivo. AutoML admite cuatro tipos de datos: de imagen, tabulares, de texto y de video.

Para seleccionar el tipo de datos y el objetivo correctos, realice las siguientes acciones:

Comience por revisar los requisitos de los datos. Incluimos un vínculo a estos requisitos
en la sección de recursos de este curso.
Luego, deberá agregar etiquetas a los datos, si aún no lo ha hecho.
El paso final es subir los datos. Los datos se pueden subir desde un origen local,
BigQuery o Cloud Storage. Tendrá la oportunidad de practicar estos pasos en el lab.
Slide #19
Una etiqueta es un objetivo de entrenamiento. Así que, si quiere que un modelo distinga
a un gato de un perro, primero debe brindar imágenes de muestra con etiquetas que
indiquen "gato" o "perro". La etiqueta se puede agregar de forma manual o mediante el
servicio pagado de etiquetado de Google a través de la consola de Vertex. Estos
etiquetadores generarán de forma manual etiquetas exactas por usted.
Slide #20
Luego de subir los datos a AutoML, el siguiente paso es prepararlos para el
entrenamiento del modelo mediante la ingeniería de atributos. Como ya lo vimos en el
módulo de BigQuery, un atributo se refiere a un factor que contribuye a la predicción. Es
una variable independiente en estadísticas o una columna en una tabla.

Imagine que está en la cocina preparando una comida. Sus datos son como los
ingredientes, como zanahorias, cebollas y tomates. Antes de comenzar a cocinar, deberá
pelar las zanahorias, picar las cebollas y lavar los tomates. De esto se trata la ingeniería
de atributos: los datos se deben procesar antes de que el modelo comience a entrenarse.
Slide #21
Preparar atributos puede ser desafiante y aburrido. A fin de ayudar, Vertex AI cuenta con
una función llamada Feature Store.

Feature Store es un repositorio centralizado para organizar, almacenar y entregar


atributos de aprendizaje automático. Agrega todos los distintos atributos de fuentes
diferentes y los actualiza para que estén disponibles desde un repositorio central. Luego,
cuando los ingenieros deben crear un modelo, pueden usar los atributos disponibles en
el diccionario de Feature Store para crear un conjunto de datos.

Vertex AI automatiza el agregado de atributos para escalar el proceso.

¿Cuáles son los beneficios de Feature Store de Vertex AI?

En primer lugar, los atributos se pueden compartir para tareas de entrenamiento o


entrega. Los atributos se administran y entregan desde un repositorio central, lo que
permite mantener la coherencia en toda su organización.
En segundo lugar, son reutilizables, lo que permite ahorrar tiempo y disminuir los
esfuerzos repetitivos, en especial para los atributos de alto valor.
En tercer lugar, son escalables. Los atributos se escalan automáticamente de modo que
pueda brindar una entrega de latencia baja a fin de enfocarse en desarrollar la lógica
para crear los atributos sin preocuparse por la implementación.
Y, finalmente, son fáciles de utilizar. Feature Store se creó con una interfaz de usuario
fácil de navegar.
Slide #23
Ahora que los datos están listos (que, si volvemos a la analogía de la cocina, son
nuestros ingredientes), es momento de entrenar el modelo. Este proceso se parece a
experimentar con algunas recetas y tiene dos pasos: el entrenamiento del modelo, que
sería cocinar según la receta, y la evaluación del modelo, que sería probar si la comida
tiene buen sabor. Es posible que este proceso sea iterativo.
Slide #24
Antes de entrar en más detalles sobre esta etapa, aclaremos dos términos: inteligencia
artificial y aprendizaje automático.

La inteligencia artificial (o IA) es un término general que incluye todo lo que se relaciona
con los procesos de imitación de la inteligencia humana por parte de las computadoras.
Por ejemplo, en un procesador de palabras en línea, los robots realizan todo el proceso
de las acciones humanas, hasta corregir la ortografía.
El aprendizaje automático es un subconjunto de la IA que se refiere, principalmente, al
aprendizaje supervisado y no supervisado.
Es posible que también escuche los términos aprendizaje profundo o red neuronal
profunda. Esto es un subconjunto del aprendizaje automático que agrega capas entre los
datos de entrada y los resultados de salida para lograr que una máquina aprenda con
más profundidad.
Slide #25
Entonces, ¿cuál es la diferencia entre el aprendizaje supervisado y el no supervisado?

El aprendizaje supervisado se centra en las tareas y además identifica un objetivo.


Por otro lado, el aprendizaje no supervisado se centra en los datos y además identifica
un patrón.

Una forma sencilla de distinguirlos es que el aprendizaje supervisado le proporciona a


cada dato una etiqueta, o una respuesta, mientras que el no supervisado no lo hace.

Por ejemplo, si obtenemos los datos de un minorista en línea, podríamos usar el


aprendizaje supervisado para predecir las tendencias de ventas del próximo par de
meses, y el no supervisado a fin de agrupar a los clientes por características en común.

Existen dos tipos principales de aprendizaje supervisado:

El primero es la clasificación, que predice una variable categórica, como utilizar una
imagen a fin de indicar la diferencia entre un perro y un gato.
El segundo es un modelo de regresión, que predice un número continuo, por ejemplo,
usar las ventas anteriores de un artículo para predecir una tendencia futura.

Y existen tres tipos principales de aprendizaje no supervisado:

El primero es el agrupamiento en clústeres, que agrupa datos con características


similares y los asigna a “clústeres”, por ejemplo, usar datos demográficos de clientes
para determinar su segmentación.
El segundo es la asociación, que identifica relaciones subyacentes, por ejemplo, una
correlación entre dos productos a fin de ubicarlos más cerca en un supermercado para
destacar una promoción.
Y el tercero es la reducción de dimensiones, que disminuye la cantidad de dimensiones
(o atributos) de un conjunto de datos para mejorar la eficiencia de un modelo. Por
ejemplo, combinar características de los clientes, como la edad, el historial de
infracciones de conducción o el tipo de vehículo, para crear una cotización de seguro. Si
se incluyen muchas dimensiones, se pueden consumir muchos recursos de
procesamiento, lo que puede hacer que el modelo sea ineficiente.
Slide #26
Aunque Google Cloud proporciona cuatro opciones de aprendizaje automático, con
AutoML y las API precompiladas no necesita especificar un modelo de aprendizaje
automático. En su lugar, debe definir objetivos, como la traducción de textos o la
detección de imágenes. Luego, en el backend, Google seleccionará el mejor modelo que
cumpla con sus objetivos empresariales.

Con las otras dos opciones (BigQuery ML y el entrenamiento personalizado), deberá


especificar con qué modelo desea entrenar sus datos y asignar hiperparámetros.
Considere los hiperparámetros como controles definidos por usuarios en una máquina
que permite orientar el proceso de aprendizaje automático. Por ejemplo, un parámetro es
una tasa de aprendizaje, que es la velocidad con la que desea que su máquina aprenda.

Con AutoML, no debe preocuparse de ajustar estos controles de hiperparámetros, ya


que el ajuste ocurre automáticamente en el backend. Esto lo realiza, principalmente, una
búsqueda de diseño neuronal, que encuentra el modelo que mejor se ajusta mediante
una comparación del rendimiento en función de miles de otros modelos.
Slide #28
Mientras experimentamos con una receta, debemos probar la comida constantemente
para asegurarnos de que cumpla nuestras expectativas. Esta es la parte de la evaluación
del modelo que pertenece a la etapa de entrenamiento del modelo.
Slide #29
Vertex AI proporciona métricas de evaluación extensas para ayudar a determinar el
rendimiento de un modelo. Entre estas métricas, existen dos conjuntos de medidas.
La primera medida es la matriz de confusión, por ejemplo, recuperación y precisión.
La segunda se basa en la importancia de los atributos, que exploraremos más tarde en
esta sección del módulo.
Slide #30
Una matriz de confusión es una medida de rendimiento específica para los problemas de
clasificación del aprendizaje automático. Es una tabla con combinaciones de valores
predecidos y reales. Para que sea sencillo, vamos a suponer que la salida incluye solo
dos clases.

Exploremos un ejemplo de una matriz de confusión.

La primera es una combinación verdadero positivo, que se puede interpretar como “El
modelo predijo un resultado positivo, y es cierto”. El modelo predijo que esta es la
imagen de un gato y realmente lo es.
Lo opuesto es una combinación verdadero negativo, que se puede interpretar como “El
modelo predijo un resultado negativo, y es cierto”. El modelo predijo que un perro no es
un gato y realmente no lo es.
Luego, está la combinación falso positivo, también conocida como error de tipo 1, que se
puede interpretar como “El modelo predijo un resultado positivo, pero eso es falso”. El
modelo predijo que un perro es un gato, pero no lo es.
Por último, está la combinación falso negativo, también conocida como error de tipo 2,
que se puede interpretar como “El modelo predijo un resultado negativo, pero es falso”.
El modelo predijo que un gato no es un gato, pero sí lo es.
Slide #31
Una matriz de confusión es la base de muchas otras métricas que se usan para evaluar
el rendimiento de un modelo de aprendizaje automático. Analicemos las dos métricas
populares (recuperación y precisión) con las que se encontrará en el lab.

La recuperación se refiere a todos los casos positivos y analiza cuántos se predijeron de


manera correcta. Esto significa que la recuperación equivale a los verdaderos positivos,
divididos por la suma de los verdaderos positivos y los falsos negativos.
La precisión se refiere a todos los casos cuyas predicciones fueron positivas y cuántas
fueron realmente positivas. Esto significa que la precisión equivale a los verdaderos
positivos, divididos por la suma de los verdaderos positivos y los falsos positivos.
Slide #32
Imagine que está pescando con una red. Con una red ancha, atrapó tanto peces como
rocas: 80 de los 100 peces del lago, más 80 rocas.
La recuperación en este caso es del 80%, que se calcula con la cantidad de peces
atrapados (80) divididos entre la cantidad total de peces del lago (100).
La precisión es del 50%, que se calcula tomando la cantidad de peces atrapados (80) y se
divide entre la cantidad de peces y rocas recolectados (160).
Slide #33
Supongamos que desea mejorar la precisión, por lo que prefiere utilizar una red más
pequeña. Esta vez atrapó 20 peces y 0 rocas.
La recuperación se convierte en un 20% (20 de 100 peces recolectados) y
la precisión en un 100% (20 de un total de 20 peces y rocas recolectados).
Slide #34
La recuperación y la precisión a menudo son un equilibrio. Según el caso de uso, es
posible que deba realizar optimizaciones para una de las dos.

Considere un modelo de clasificación en el que Gmail divide correos electrónicos en dos


categorías: spam y no spam. Si el objetivo es captar tantos correos electrónicos spam
como sea posible, quizás Gmail desee priorizar la recuperación. Por el contrario, si el
objetivo es solo captar los mensajes que definitivamente son spam sin bloquear los
otros correos electrónicos, es posible que Gmail desee priorizar la precisión.
Slide #35
En Vertex AI, la plataforma visualiza la curva de precisión y recuperación, por lo que
estas se pueden ajustar según el problema que se deba resolver. Tendrá la oportunidad
de practicar el ajuste de precisión y recuperación en el lab de AutoML.
Slide #36
Además de la matriz de confusión y las métricas generadas para medir la eficacia del
modelo, como la recuperación y la precisión, la otra medida útil es la importancia de los
atributos. En Vertex AI, la importancia de los atributos se muestra mediante un gráfico de
barras para ilustrar el modo en que cada atributo colabora con una predicción. Mientras
más alta sea la barra o el valor numérico asociado con un atributo, más importante será.
Esta información permite decidir qué atributos se incluyen en un modelo de aprendizaje
automático para predecir el objetivo. En el lab, también podrá observar el gráfico de
importancia de los atributos.

La importancia de los atributos es un ejemplo de la funcionalidad de aprendizaje


automático integral de Vertex AI, llamada Explainable AI. Explainable AI es un conjunto
de herramientas y frameworks que le permiten interpretar y comprender las predicciones
de sus modelos de aprendizaje automático.
Slide #38
Las recetas están listas y ya llegó el momento de servir la comida. Esta es la última etapa
del flujo de trabajo del aprendizaje automático: la entrega del modelo.

La entrega del modelo consta de dos pasos:

Primero, la implementación del modelo, que podemos comparar con servir la comida a
un cliente con hambre.
Segundo, la supervisión del modelo, que podemos comparar con supervisar a los
camareros para asegurarse de que el restaurante está funcionando de forma eficiente.

Es importante que tenga en cuenta que la administración del modelo existe en todo este
flujo de trabajo para administrar la infraestructura del aprendizaje automático
subyacente. Esto permite que los científicos de datos se enfoquen en qué hacer en lugar
de cómo hacerlo.
Slide #39
Las operaciones de aprendizaje automático (MLOps) tienen un rol importante. Las
MLOps combinan el desarrollo de aprendizaje automático con las operaciones y aplican
principios similares a los de DevOps (la forma abreviada de desarrollo y operaciones, en
inglés) a los modelos de aprendizaje automático.

El objetivo de las MLOps es superar desafíos de producción relacionados con el


aprendizaje automático. En este caso, se refiere a crear un sistema de aprendizaje
automático integrado y operarlo en producción. La comunidad de profesionales del AA
considera que estos son algunos de los mayores problemas, ya que tanto los datos
como el código evolucionan constantemente en el aprendizaje automático.
Slide #40
Practicar MLOps significa abogar por la automatización y supervisar cada paso de la
construcción del sistema de AA. Esto quiere decir adoptar un proceso para permitir
la integración continua,
el entrenamiento continuo y
la entrega continua
Slide #41
¿Qué tienen que ver las MLOps con la entrega de modelos? Comencemos con la
implementación del modelo, que es el momento emocionante en el que un modelo se
implementa. En nuestra analogía del restaurante, esta etapa es cuando se coloca la
comida en la mesa para que el cliente coma. Las MLOps brindan un conjunto de
prácticas recomendadas en el backend para automatizar este proceso.
Slide #42
Existen tres opciones para implementar un modelo de aprendizaje automático.
La primera consiste en implementar un extremo. Esta opción funciona mejor cuando se
necesitan resultados inmediatos con latencia baja, por ejemplo, realizar
recomendaciones instantáneas según los hábitos de navegación de un usuario cuando
está en línea. A fin de que un modelo se pueda usar para entregar predicciones en
tiempo real, primero se lo debe implementar en un extremo.
La segunda opción es implementar con la predicción por lotes. Esta opción funciona
mejor cuando no se necesita una respuesta inmediata, y los datos acumulados se deben
procesar con una solicitud única. Por ejemplo, enviar anuncios nuevos semana por
medio según el comportamiento de compras reciente del usuario y lo que es popular en
el mercado actualmente.
Y la última opción es implementar con la predicción sin conexión. Esta opción funciona
mejor cuando el modelo se debe implementar en un entorno específico fuera de la nube.
En el lab, practicará realizar predicciones con un extremo.
Slide #43
Ahora, enfoquémonos en la supervisión del modelo. La base de las MLOps en Vertex AI
es una herramienta llamada Vertex AI Pipelines. Automatiza, supervisa y administra
sistemas de aprendizaje automático mediante la organización del flujo de trabajo sin
servidores.
Slide #44
Imagine que se encuentra en una sala de control de producción y Vertex AI Pipelines
está mostrando los datos de producción en una pantalla. Si algo sale mal,
automáticamente activa advertencias según un umbral definido con anterioridad.
Slide #45
Con Vertex AI Workbench, puede definir su propia canalización. Puede hacerlo con
componentes de canalización precompilados, es decir, deberá especificar,
principalmente, cómo se creó la canalización con componentes como piezas
fundamentales.

Con estos dos pasos finales (la implementación y la supervisión del modelo)
completamos la exploración del flujo de trabajo del aprendizaje automático. El
restaurante está abierto y opera sin problemas. ¡Buen provecho!
Slide #47
Practiquemos lo que aprendió con este lab práctico.

En este lab, usará AutoML, una herramienta sin código, para crear un modelo de
aprendizaje automático a fin de predecir el riesgo de los préstamos. El conjunto de datos
que se usa en el lab se relaciona con los préstamos de una institución financiera y
cuenta con 2,050 datos. AutoML necesita al menos 1,000 datos en un conjunto de datos.
Slide #48
El objetivo es practicar el trabajo en las tres fases del flujo de trabajo del aprendizaje
automático: la preparación de los datos, el entrenamiento del modelo y la entrega del
modelo.

Comencemos.
Slide #50
Felicitaciones por completar el lab de AutoML. Tuvo la oportunidad de usar Vertex AI
para crear un modelo de aprendizaje automático sin escribir líneas de código.

Tomémonos un momento para revisar los resultados del lab. Comencemos con la matriz
de confusión. Pero antes, deténgase y considere usted mismo los resultados de la
matriz.

Los verdaderos positivos fueron un 100%. Esto representa el porcentaje de las personas
que el modelo predijo que pagarían el préstamo y que, efectivamente, lo hicieron.
Los verdaderos negativos fueron un 87%. Esto representa el porcentaje de personas que
el modelo predijo que no pagarían el préstamo y que, efectivamente, no lo hicieron.
Los falsos negativos fueron un 0%. Esto representa el porcentaje de las personas que el
modelo predijo que no pagarían el préstamo, pero sí lo hicieron.
Y, por último, los falsos positivos fueron un 13%. Esto representa el porcentaje de las
personas que el modelo predijo que pagarían el préstamo, pero que no lo hicieron.

Como principio general, es bueno tener verdaderos positivos y verdaderos negativos


altos, y falsos positivos y falsos negativos bajos. Sin embargo, cuán altos o bajos deben
ser depende de los objetivos comerciales que desea lograr. Existen distintas formas de
mejorar el rendimiento de un modelo, que podrían incluir usar una fuente de datos más
exacta, usar un conjunto de datos más grande, elegir un tipo de modelo de AA diferente
o ajustar los hiperparámetros.
Slide #51
También revisemos la curva de precisión-recuperación del lab de AutoML.

El umbral de confianza determina cómo un modelo de aprendizaje automático cuenta los


casos positivos.
Un umbral más alto aumenta la precisión, pero disminuye la recuperación.
Uno más bajo disminuye la precisión, pero aumenta la recuperación.

Si mueve el umbral a cero, se produce la recuperación más alta del 100% y la precisión
más baja del 50%. ¿Qué significa esto?

Significa que el modelo predice que el 100% de los postulantes al crédito podrán pagar el
préstamo que soliciten. Sin embargo, en realidad, solo el 50% de ellos pudieron pagarlo.
En este ejemplo, puede ser riesgoso usar este umbral para identificar los casos
predeterminados, ya que quiere decir que es probable que solo le devuelvan la mitad de
la inversión del préstamo.
Slide #52
Ahora, movamos el umbral a 1 para avanzar al otro extremo. Esto producirá la precisión
más alta del 100% con la recuperación más baja del 1%.

¿Qué significa esto?

Significa que, de todas las personas que se predijo que pagarían el préstamo, el 100% de
ellas realmente lo hizo. Sin embargo, rechazó al 99% de los postulantes al préstamo, ya
que solo lo ofreció al 1% de ellos. Eso implica una gran pérdida comercial para su
empresa.

Estos dos ejemplos son extremos, pero es importante que siempre configure un umbral
apropiado para su modelo.
Slide #54
Antes de terminar este módulo del curso, repasemos rápido las tres etapas del flujo de
trabajo del aprendizaje automático con la ayuda de nuestra analogía del restaurante.
Slide #55
En la primera etapa, la preparación de los datos, subimos los datos y aplicamos la
ingeniería de atributos, que era el equivalente a reunir los ingredientes, cortarlos y
prepararlos en la cocina.
En la segunda etapa, el entrenamiento del modelo, entrenamos y evaluamos el modelo.
De esta forma, experimentamos con las recetas y probamos la comida para asegurarnos
de que el resultado fuera el que esperábamos.
Y, en la etapa final, la entrega del modelo, este se implementó y supervisó, lo que
equivale a servir la comida a los clientes que la esperaban y ajustar el menú a medida
que más personas prueban el plato.
Slide #56
DIGA LO SIGUIENTE: Repasemos con un último cuestionario. Utilizaremos Kahoot!, por
lo que deberá sacar un dispositivo móvil (si tiene uno) o abrir una pestaña nueva en su
navegador web y dirigirse a kahoot.it. En un minuto, le dictaré un código para que lo
ingrese.
Recuerde que aparecerán preguntas de opción múltiple y deberá elegir la respuesta
correcta de una lista. La persona que responda todas las preguntas correctamente en el
menor tiempo ganará la mayor cantidad de puntos.
HAGA LO SIGUIENTE: Haga clic en el vínculo de la diapositiva (o aquí) para iniciar el
cuestionario de Kahoot! Seleccione la opción Continuar como invitado y, luego, Modo
clásico. Los alumnos deberán seguir las instrucciones que aparecen en la pantalla. Haga
clic aquí para ver una descripción general del funcionamiento de Kahoot!

También podría gustarte