Está en la página 1de 43

1

Nombre del espacioApedagógogo


INTRODUCCIÓN LA INFORMÁTICA

Universidad Nacional Autónoma De Honduras


Facultad de Ciencias Económicas, Administrativas y Contables

Departamento De Informática

Msc. Carmen Gonzalez

II Periodo Virtual
Sección: 08:00

Machine Learning

Equipo E

Integrantes:
N° Nombre Completo No. de Cuenta
1 Iris Yasmin Paz Espinal 20211031759
2 Ana Cristina Hernandez Giménez 20221003079
3 Gabriel Alexander Rodriguez 20211002468
4 Gexy Abigail López Vásquez 20181030222

21 de octubre del 2022


Ciudad Universitaria

Machine Learning
2

CONTENIDO

¿QUÉ ES MACHINE LEARNING (ML)?....................................................................3

¿Cómo funciona?.....................................................................................................3

¿Por qué es importante?........................................................................................5

¿Para qué sirve el machine learning?..............................................................10

¿QUÉ ES UN ALGORITMO INFORMÁTICO?.......................................................11

¿QUÉ ES EL APRENDIZAJE SUPERVISADO?...................................................12

Clasificación del aprendizaje supervisado......................................................13

Regresión en el aprendizaje supervisado.......................................................13

ALGORITMOS DE APRENDIZAJE POR REFUERZO.........................................18

APRENDIZAJE NO SUPERVISADO........................................................................23

APRENDIZAJE PROFUNDO.....................................................................................27

Cómo funciona el aprendizaje profundo..........................................................28

APLICACIONES DEL MACHINE LEARNING........................................................34

VENTAJAS DE APLICAR MACHINE LEARNING EN LA EMPRESA..............35

BIBLIOGRAFÍA............................................................................................................37

CONCLUSIONES.........................................................................................................38

ANEXOS........................................................................................................................39

Machine Learning
3

¿QUÉ ES MACHINE LEARNING (ML)?


Machine Learning es una disciplina científica del ámbito de la
Inteligencia Artificial que crea sistemas que aprenden automáticamente.
Aprender en este contexto quiere decir identificar patrones complejos en
millones de datos. La máquina que realmente aprende es un algoritmo que
revisa los datos y es capaz de predecir comportamientos futuros.
Automáticamente, también en este contexto, implica que estos sistemas se
mejoran de forma autónoma con el tiempo, sin intervención humana.

¿Cómo funciona?
Big Data y Machine Learning aplicado a la empresa
Una empresa de telefonía quiere saber qué clientes están en “peligro” de
darse de baja de sus servicios para hacer acciones comerciales que eviten que
se vayan a la competencia. ¿Cómo puede hacerlo? La empresa tiene muchos
datos de los clientes, muchísimos: antigüedad, planes contratados, consumo
diario, llamadas mensuales al servicio de atención al cliente, últimos cambios
de planes contratados… pero seguramente los usa solo para facturar y para
hacer estadísticas. ¿Qué más puede hacer con esos datos? Se pueden usar
para predecir cuándo un cliente se va a dar de baja y gestionar la mejor acción
que lo evite. En pocas palabras, con Machine Learning se puede pasar de ser
reactivos a ser proactivos. Los datos históricos del conjunto de los clientes,
debidamente organizados y tratados en bloque, generan una base de datos
que se puede explotar para predecir futuros comportamientos, favorecer
aquellos que mejoran los objetivos de negocio y evitar aquellos que son
perjudiciales.
Esa cantidad ingente de datos son imposibles de analizar por una
persona para sacar conclusiones y menos todavía para hacer predicciones. Los
algoritmos en cambio sí pueden detectar patrones de comportamiento
contando con las variables que le proporcionamos y descubrir cuáles son las
que han llevado, en este caso, a darse de baja como cliente. La siguiente
imagen es un ejemplo de una predicción simplificada basada en datos de una
compañía de telefonía ficticia, pero usando una herramienta de Machine
Learning real:

Machine Learning
4

La visualización en árbol (en esta imagen está simplificado, la predicción


real tiene muchos más nodos) permite ver los patrones que han seguido ciertos
clientes que se han dado de baja. En este caso está resaltada una de las
ramas centrales, que indican un patrón en el que el cliente:
• Tiene más de 3 llamadas al servicio de atención al cliente.
• Llama menos de 171,95 minutos al día.
• Las llamadas en horario nocturno son inferiores a 189,02 minutos.

Este es un análisis de los datos históricos, pero… ¿dónde está la


predicción? Vamos a ello: si los clientes que tienen estas características ya se
han dado de baja de la compañía, es previsible que los que todavía son
clientes y tienen este mismo comportamiento estén en riesgo de irse. Según
este modelo predictivo, es bastante probable que esto suceda (se dice que la
predicción tiene una confianza, en este caso, de 91,97%). Si el departamento
de marketing tuviera esta información, podría proponerles proactivamente un

Machine Learning
5

cambio de plan de tarificación o podría revisar por qué han llamado al servicio
de atención al cliente para intentar mantenerlos.
El árbol de predicción completo sería el siguiente. En este caso hemos
resaltado una predicción falsa (es decir, no se daría de baja) con una confianza
del 90,59%.

¿Por qué es importante?


La cantidad de datos que se generan actualmente en las empresas se
está incrementado de forma exponencial. Extraer información valiosa de ellos
supone una ventaja competitiva que no se puede menospreciar. En CleverData
pensamos que es una oportunidad a la que se le debe prestar especial
atención. La gran ventaja es que actualmente no hace falta ser un gurú de los
datos para poder aprovechar este tipo de tecnologías. Existen en el mercado
herramientas de uso muy sencillo (incluso para profanos en análisis de datos) y
asequibles económicamente para cualquier tamaño de empresa que permiten
hacer predicciones como las descritas en el apartado anterior.
Los datos se han simplificado enormemente. El Machine Learning de
hoy no es como antes. Esto quiere decir que con datos de calidad, tecnologías
adecuadas y análisis propicios es posible actualmente crear modelos de
comportamiento para analizar datos de gran volumen y complejidad. Además,
los sistemas proporcionan resultados rápidos y precisos sin intervención
humana, incluso a gran escala. El resultado: predicciones de alto valor para
tomar mejores decisiones y desarrollar mejores acciones de negocio.
Sin embargo, no debe distraer nuestra atención el volumen de datos. No
es necesario tener tantos datos como Facebook o como un gran banco para
hacer modelos que ayuden al negocio. Es mejor tener datos de calidad (fiables
y útiles) que tener miles de millones de datos de los que no se puede extraer
valor. Para avanzar en este tema, puedes revisar nuestros 5 consejos para
empezar con Machine Learning: empieza por algo sencillo, utiliza Machine
Learning supervisado, no te empeñes en usar Big Data, utiliza Machine
Learning en la nube y sobre todo, empieza ya.
Ámbitos de aplicación del Machine Learning
Muchas actividades actualmente ya se están aprovechando del Machine
Learning. Sectores como el de las compras online – ¿no te has preguntado

Machine Learning
6

alguna vez cómo se decide instantáneamente los productos recomendados


para cada cliente al final de un proceso de compra? –, el online advertising –
dónde poner un anuncio para que tenga más visibilidad en función del usuario
que visita la web – o los filtros anti-spam llevan tiempo sacando partido a estas
tecnologías.
El campo de aplicación práctica depende de la imaginación y de los
datos que estén disponibles en la empresa. Estos son algunos ejemplos más:
• Detectar fraude en transacciones.
• Predecir de fallos en equipos tecnológicos.
• Prever qué empleados serán más rentables el año que viene (el
sector de los Recursos Humanos está apostando seriamente por el Machine
Learning).
• Seleccionar clientes potenciales basándose en comportamientos
en las redes sociales, interacciones en la web…
• Predecir el tráfico urbano.
• Saber cuál es el mejor momento para publicar tuits,
actualizaciones de Facebook o enviar las newsletter.
• Hacer prediagnósticos médicos basados en síntomas del
paciente.
• Cambiar el comportamiento de una app móvil para adaptarse a
las costumbres y necesidades de cada usuario.
• Detectar intrusiones en una red de comunicaciones de datos.
• Decidir cuál es la mejor hora para llamar a un cliente.

La tecnología está ahí. Los datos también. ¿Por qué esperar a probar
algo que puede suponer una puerta abierta a nuevas formas de tomar
decisiones basadas en datos? Seguro que has oído que los datos son el
petróleo del futuro. Ahora ya puedes empezar a bombearlo. (González, 2022)
¿De dónde surge Machine Lear Ning?
Los orígenes del Machine Learning
Mucho se ha hablado sobre ‘Machine Learning’ (Aprendizaje
Automático), pero no de su origen. ¿Sabes cuándo se originó realmente? o
¿por qué actualmente estamos viviendo un auténtico boom del Machine
Learning?

Machine Learning
7

Por moderno que pueda parecer este campo, nos debemos remontar al
año 1950 cuando el gran Alan Turing creó el “Test de Turing”. De forma que
para pasar el test, una máquina debía engañar a un humano haciéndole creer
que se encontraba delante de un humano en vez de un ordenador.
No debemos dejar de lado tampoco el año 1952, en el que Arthur
Samuel escribe el primer algoritmo que es capaz de aprender; consistiendo
este en un programa que jugaba a las damas y mejoraba tras cada partida su
juego. Posteriormente, en el seno de una conferencia nacerá el término
‘Artificial Intelligence’ (Inteligencia Artificial) para nombrar el nuevo campo que
estudiaban en el verano de 1956.
Winter is coming
Durante la década de los 70, el campo pasó por momentos difíciles
debido a las altas expectativas de los inversores y los pocos avances
conseguidos. A pesar de ello, en 1967 se desarrolla el algoritmo ‘Nearest
Neighbor’ que es considerado el nacimiento de los algoritmos de
reconocimiento de patrones.
Más adelante, en los años 80, nacen los sistemas expertos basados en
reglas; lo que vuelve a generar un gran interés por el Machine Learning. Pero el
segundo invierno de la Inteligencia Artificial y más prolongado que el anterior,
llegará a finales de la década de los 80 y no se recuperará completamente
hasta bien entrados los 2000.
Aparece un nuevo protagonista
Estamos en los inicios del 2000, el Machine Learning todavía está
recuperándose del largo invierno que ha sufrido y un joven protagonista está a
punto de aparecer en escena.
Comienza a forjarse en el año 2003 cuando se publica un estudio sobre
un sistema de ficheros distribuidos, llamado ‘Google File System’ (GFS). Y
terminará definiéndose en 2004 cuando Google presente un nuevo paradigma
de procesamiento distribuido al que llamará ‘Map & Reduce’.
Mientras nuestro protagonista crece a pasos agigantados, su padre
Google no deja de apoyarle en su progreso y crea el ‘Cloud Bigtable’ que es el
servicio de bases de datos de Big Data NoSQL. Es el año 2006, ingenieros de
Apache llevan a la culminación los paradigmas de Google en la primera
plataforma Big Data Open Source, a la que llaman Hadoop.

Machine Learning
8

Sin apenas darnos cuenta, la potencia de cálculo ha aumentado de


manera exponencial y existe una gran abundancia de datos disponibles.
Nuestro protagonista principal, el Machine Learning, ha sabido aprovechar muy
bien la situación consiguiendo desarrollarse de una forma espectacular gracias
al Big Data.
El camino que recorrerá hasta la actualidad, estará cargado de éxitos y
cambiará su orientación por completo. De manera que pasará de estar
enfocado al conocimiento (‘knowledge-driven’) hacia el dato (‘data-driven’).

Ilustración 1Linea Temporal del MACHINE LEARNIMG

Tercera explosión
Actualmente, nos encontramos inmersos en la tercera explosión del
Machine Learning, en la que gracias a los avances en el sector no paran de
encontrarse aplicaciones en mundo economico. Llegando hasta el punto de
crear completos mercados y produciendo cambios significativos en las
estrategias tanto de pequeñas como de grandes empresas.
Cada vez son más los sectores empresariales que se están beneficiando
del Machine Learning, desde el sector asegurador hasta el marketing pasando
por los call centers.
Machine Learning e Inteligencia Artificial
Ya conocemos el origen de nuestro protagonista, pero ¿sabemos
exactamente qué es el Machine Learning? Habitualmente se suele usar como
sinónimo de la Inteligencia Artificial, sobre todo cuando hablamos de Big Data.
Vamos a dejar claros ambos conceptos antes de profundizar más en el tema en
siguientes artículos.

Machine Learning
9

La Inteligencia Artificial es un concepto más amplio que el Machine


Learning, que aborda el uso de la computación para imitar las funciones
cognitivas de los humanos. Cuando las máquinas realizan tareas basadas en
algoritmos de una manera «inteligente», eso es Inteligencia Artificial.
Sin embargo, el Machine Learning es un subconjunto de la Inteligencia
Artificial y se centra en la capacidad de las máquinas para recibir un conjunto
de datos y aprender por sí m ismos, adaptando los algoritmos a medida que
aprenden más sobre la información que procesan.

Ilustración 2Inteligencia Artificial vs Machine Learning

Machine Learning en Future Space


Aprovechando esta potencia del Machine Learning han sido múltiples los
proyectos en los que se han utilizado estas técnicas de aprendizaje automático
en su desarrollo y con ello permitirnos alcanzar los diferentes objetivos de
nuestros clientes.
Algunos de los proyectos que hemos podido desarrollar en Future Space
con la ayuda del Machine Learning han sido:
• Detección del fraude en los seguros de automóvil.
• Conocimiento de la personalidad a partir de la huella digital.

Machine Learning
10

• Gestión del blanqueo de capitales (AML) con las entidades


bancarias
• Ayuda en la gestión de incidencias
• Predecir la fuga de clientes
• Gestionar las reclamaciones o incluso predecir el absentismo
laboral, como veremos en próximos artículos.

¿Para qué sirve el machine learning?


Entre muchas otras funcionalidades, el machine learning sirve para:
• Análisis predictivos: la herramienta de machine learning se
encarga de analizar los datos históricos sobre fenómenos que ya ocurrieron,
encuentra y analiza patrones o características repetitivas en todos esos
fenómenos, y con base en esa información la herramienta muestra una
proyección sobre el posible resultado futuro de algo que está en curso. Por
ejemplo, teniendo en cuenta esta funcionalidad en el legaltech, el machine
learning sirve para responder de forma más acertada a preguntas como: ¿Bajo
qué circunstancias se puede ganar o perder determinado juicio?
• Análisis causal: el software de machine learning establece
relación entre los datos para reconocer la influencia que tiene un determinado
hecho sobre otro ocurrido. En este sentido, el machine learning sirve para
descubrir cómo pueden influir los antecedentes del caso en su sentencia final.
• Análisis de contenidos: el programa de aprendizaje automático
puede analizar una gran cantidad de documentos de cualquier tipo. Por ello, en
el sector legal, el machine learning sirve para ayudar a los abogados a
clasificar y analizar los contratos legales, permitiendo la detección y corrección
de errores en tiempo real y de forma masiva.
Ejemplos del machine learning en el sector legal

Actualmente, son muchas las empresas que, además de reconocer qué


es el machine learning, han decidido implementarlo en sus sistemas para
optimizar, agilizar y automatizar sus procesos.
Dentro de este panorama, podemos identificar los siguientes ejemplos
de machine learning:

Machine Learning
11

• Luminancia: es un sistema de legaltech que utiliza el machine


learning para comprender y revisar la documentación legal de una firma,
independientemente de su idioma o jurisdicción. Este sistema permite
segmentar la información clave, ahorrando tiempo en la gestión de proyectos
jurídicos hasta en un 80%.
• VLex Analytics: es una plataforma que permite analizar y procesar
miles de documentos jurídicos y sentencias legales, con la finalidad de
conseguir estadísticas que sirvan como apoyo para la planificación de los
litigios de los abogados. VLex está diseñado para emitir estadísticas por
juzgado, realizar análisis de probabilidad de éxito del recurso, análisis por tipo
de casos, entre otros.
• COIN (Contract Intelligence): la empresa financiera J.P. Morgan
entendió qué es el machine learning y el potencial que tiene en el sector legal,
por lo cual desarrolló el programa COIN. Con esta herramienta fue posible
analizar numerosos acuerdos de préstamos comerciales en pocos segundos,
una tarea que sus abogados solo podían realizar invirtiendo 360.000 horas de
trabajo anual. Además, gracias al machine learning, no solo se agilizó el
proceso, sino que los márgenes de error se redujeron notablemente.
En conclusión, el machine learning es una oportunidad de crecimiento
para las firmas, ya que les permite automatizar procesos, disminuir la
incertidumbre en las decisiones legales y ofrecer un mejor servicio.
Sin embargo, no siempre es necesario invertir en tecnologías tan
avanzadas como el machine learning. En el mercado existen otros tipos de
herramientas mucho más accesibles que también tienen la suficiente potencia
para realizar análisis de inteligencia de negocio en el sector legal.
Por ejemplo, TimeBillingX es herramienta de legaltech que hace análisis
inteligentes sobre los procesos de la firma para ayudarte a identificar el nivel de
rendimiento de los abogados y los índices de rentabilidad por cada cliente, para
así saber cuáles son los abogados más productivos y cuáles son los clientes
más rentables para la firma. (Sierra, 2022)

Machine Learning
12

¿QUÉ ES UN ALGORITMO INFORMÁTICO?


Un algoritmo informático es un conjunto de instrucciones definidas,
ordenadas y acotadas para resolver un problema, realizar un cálculo o
desarrollar una tarea. Es decir, un algoritmo es un procedimiento paso a paso
para conseguir un fin. A partir de un estado e información iniciales, se siguen
una serie de pasos ordenados para llegar a la solución de una situación.
En programación, un algoritmo supone el paso previo a ponerse a
escribir el código. Primero debemos encontrar la forma de obtener la solución
al problema (definir el algoritmo informático), para luego, a través del código,
poder indicarle a la máquina qué acciones queremos que lleve a cabo. De este
modo, un programa informático no sería más que un conjunto de algoritmos
ordenados y codificados en un lenguaje de programación para poder ser
ejecutados en un ordenador.

¿QUÉ ES EL APRENDIZAJE SUPERVISADO?


El aprendizaje supervisado es una rama de Machine Learning , un
método de análisis de datos que utiliza algoritmos que aprenden iterativamente
de los datos para permitir que los ordenadores encuentren información
escondida sin tener que programar de manera explícita dónde buscar. El
aprendizaje supervisado es uno de los tres métodos de la forma en que las
máquinas "aprenden": supervisado, no supervisado y optimización.
El aprendizaje supervisado resuelve problemas conocidos y utiliza un
conjunto de datos etiquetados para entrenar un algoritmo para realizar tareas
específicas. Utiliza modelos para predecir resultados conocidos como "¿Cuál
es el color de la imagen?" "¿Cuántas personas hay en la imagen?" "¿Cuáles
son los factores determinantes para el fraude o los defectos del producto?" etc.
Por ejemplo, un proceso de aprendizaje supervisado podría consistir en
clasificar vehículos de dos y cuatro ruedas a partir de sus imágenes. Los datos
de entrenamiento tendrían que estar correctamente etiquetados para identificar
si un vehículo es de dos o cuatro ruedas. El aprendizaje supervisado permite
que los algoritmos 'aprendan' de datos históricos/de entrenamiento y los
apliquen a entradas desconocidas para obtener la salida correcta. Para

Machine Learning
13

funcionar, el aprendizaje supervisado utiliza árboles de decisión, bosques


aleatorios y Gradient Boosting Machine.
Por el contrario, el aprendizaje no supervisado es un tipo de Machine
Learning que se utiliza para identificar nuevos patrones y detectar anomalías.
Los datos que se introducen en los algoritmos de aprendizaje no supervisados
no están etiquetados. El algoritmo (o modelos) intentan dar sentido a los datos
por sí mismos mediante la búsqueda de características y patrones. Una
pregunta de muestra que Machine Learning sin supervisión podría responder
es "¿Están surgiendo nuevos clústeres de fraude o patrones de compra o
modos de falla?" El aprendizaje no supervisado utiliza el agrupamiento, los
componentes principales, las redes neuronales y las máquinas de vectores de
soporte.
La optimización, el tercer tipo de Machine Learning, encuentra la mejor
solución incluso cuando existen restricciones complejas. Por ejemplo, la
optimización podría responder a la pregunta "¿Cuál es la ruta óptima a seguir o
la asignación de recursos o el programa de mantenimiento del equipo?" La
optimización utiliza algoritmos genéticos, que se basan en la teoría de la
evolución de Darwin.

Clasificación del aprendizaje supervisado


Existen dos tipos principales de aprendizaje supervisado; clasificación y
regresión. La clasificación es el lugar donde se entrena a un algoritmo para
clasificar los datos de entrada en variables discretas. Durante el entrenamiento,
los algoritmos reciben datos de entrada de entrenamiento con una etiqueta de
'clasificación'. Por ejemplo, los datos de entrenamiento pueden consistir en las
últimas facturas de tarjetas de crédito de un conjunto de clientes, con la
etiqueta de si realizaron una compra futura o no fue así. Cuando el saldo de la
tarjeta de un nuevo cliente se presenta al algoritmo, este clasificará al cliente
en el grupo de "comprará" o "no comprará".
Regresión en el aprendizaje supervisado
A diferencia de la clasificación, la regresión es un método de aprendizaje
supervisado en el que se entrena a un algoritmo para predecir una salida a
partir de un rango continuo de valores posibles. Por ejemplo, los datos de

Machine Learning
14

entrenamiento inmobiliario tomarán nota de la ubicación, el área y otros


parámetros relevantes, la salida será el precio de un inmueble específico.
En la regresión, un algoritmo necesita identificar una relación funcional
entre los parámetros de entrada y salida. El valor de salida no es discreto como
en la clasificación, sino que es una función de los parámetros de entrada. La
exactitud de un algoritmo de regresión se calcula en función de la desviación
entre la salida precisa y la salida prevista.

Aplicaciones prácticas de la clasificación


Clasificación binaria
Este algoritmo clasifica los datos de entrada en uno de dos grupos
posibles. A menudo, una de las clases indica un estado "normal/deseado" y la
otra indica un estado "anormal/no deseado". Las aplicaciones prácticas de la
clasificación binaria incluyen:
Detección de spam
El algoritmo recibe ejemplos de correos electrónicos que están
etiquetados como "spam" o "no spam" durante la fase de aprendizaje
supervisado. Posteriormente, cuando el algoritmo recibe una nueva entrada de
correo electrónico, predice si el correo corresponde a un "spam" o "no spam".
Predicción de migración de clientes
El algoritmo utiliza un conjunto de datos de entrenamiento de clientes
que previamente cancelaron la suscripción de un servicio. Según el
entrenamiento, el algoritmo predice si un nuevo cliente finalizará la suscripción
o no en función de los parámetros de entrada.
Predicción de conversión
El algoritmo se entrena con los datos del comprador y si compró el
artículo o no. Luego, basándose en esta capacitación, el algoritmo predice si un
nuevo cliente realizará una compra o no.
Los principales algoritmos utilizados para la clasificación binaria incluyen
la regresión logística y las máquinas de vectores de soporte.

Clasificación multiclase
En la clasificación multiclase, el conjunto de datos de entrenamiento se
etiqueta con una de las múltiples clases posibles. A diferencia de la

Machine Learning
15

clasificación binaria, un algoritmo multiclase se entrena con datos que se


pueden clasificar en una de las muchas clases posibles. Las aplicaciones para
la clasificación multiclase incluyen:
• Clasificación de rostros: según los datos de entrenamiento, un
modelo categoriza una foto y la asigna a una persona específica. Un detalle a
tener en cuenta aquí es que podría haber una gran cantidad de etiquetas de
clase. En este caso, miles de personas.
• Clasificación de correo electrónico: la clasificación multiclase se
utiliza para segregar los correos electrónicos en varias categorías: social,
educación, trabajo y familia.
• Los principales algoritmos utilizados para la clasificación
multiclase son Bosques Aleatorios, Naive Bayes, árbol de decisiones, K-
vecinos más cercanos y Gradient Boosting.
Clasificación de etiquetas múltiples
A diferencia de la clasificación binaria y multiclase donde el resultado
tiene solo una clase posible, la salida de etiquetas múltiples pertenece a una o
más clases, lo cual significa que los mismos datos de entrada podrían
clasificarse en diferentes compartimentos. Las aplicaciones de la clasificación
de etiquetas múltiples incluyen:
• Detección de fotos: en los casos en que las fotos tienen varios
objetos, como un vehículo, un animal y personas, la foto podría caer en varias
etiquetas.
• Clasificación de audio/video: las canciones y los videos pueden
encajar en varios géneros y estados de ánimo. Se puede utilizar la clasificación
de etiquetas múltiples para asignar estas etiquetas múltiples.
• Clasificación de documentos: es posible clasificar artículos en
función de su contenido.
Clasificación con datos desbalanceados
Este es un caso especial de clasificación binaria, donde existe un
desbalance de clases en el conjunto de datos de entrenamiento. La mayoría de
los ejemplos de los datos de entrenamiento pertenecen a un conjunto y una
pequeña parte pertenece al segundo conjunto. Desafortunadamente, la
mayoría de los algoritmos de Machine Learning funcionan mejor cuando existe
una distribución equitativa entre las clases. Por ejemplo, en sus datos de

Machine Learning
16

entrenamiento, usted tiene 10.000 transacciones de clientes genuinos y solo


100 son fraudulentas. Para igualar la precisión, se necesitan técnicas
especializadas debido al desbalance en los datos. Las aplicaciones de la
clasificación con datos desbalanceados podrían ser:
• Detección de fraude: en el conjunto de datos etiquetados que se
utilizan para el entrenamiento, solo una pequeña cantidad de entradas se
etiquetan como fraude.
• Diagnósticos médicos: en una gran cantidad de muestras, las que
tienen un caso positivo de una enfermedad podrían ser mucho menos.
Se utilizan técnicas especializadas como enfoques basados en costos y
enfoques basados en muestreo para ayudar a lidiar con casos de clasificación
con datos desbalanceados.
Aplicaciones prácticas de la regresión
Regresión lineal
La regresión lineal en el aprendizaje supervisado entrena a un algoritmo
para encontrar una relación lineal entre los datos de entrada y salida. Es el
modelo más simple utilizado donde las salidas representan una combinación
linealmente ponderada de las salidas. La regresión lineal se puede utilizar para
predecir valores dentro de un rango continuo (por ejemplo, ventas, pronóstico
de precios) o clasificarlos en categorías (por ejemplo, gato, perro - regresión
logística). En los datos de entrenamiento para la regresión lineal, se
proporcionan una variable de entrada (independiente) y una respectiva variable
de salida (la variable dependiente). A partir de los datos proporcionados de
entrada que son etiquetados, el algoritmo de regresión calcula la intersección y
el coeficiente x en la función lineal. Las aplicaciones de la regresión lineal
pueden incluir:
Pronóstico: una de las aplicaciones más importantes de la regresión
lineal es el pronóstico. El pronóstico puede ser de diferentes naturalezas. Las
empresas utilizan la regresión lineal para pronosticar las ventas o los
comportamientos de compra de sus clientes. También se utiliza para predecir el
crecimiento económico, las ventas de bienes raíces y los precios de productos
básicos como el petróleo. La regresión lineal también se utiliza para estimar el
salario óptimo para un nuevo empleado, basándose en los datos históricos de
los salarios.

Machine Learning
17

Regresión logística
Se utiliza para determinar la probabilidad de que ocurra un evento. Los
datos de entrenamiento tendrán una variable independiente, y el resultado
deseado será un valor entre 0 y 1. Una vez que el algoritmo se entrena con la
regresión logística, podrá predecir el valor de una variable dependiente (entre 0
y 1) en función del valor de la variable independiente (entrada). La regresión
logística utiliza la función sigmoidea clásica en forma de S. En la regresión
logística en el contexto de aprendizaje supervisado, un algoritmo calcula los
valores del coeficiente beta b0 y b1 a partir de los datos de entrenamiento
proporcionados.
probabilidad = e^(b0 + b1 * X)
Las aplicaciones de la regresión logística incluyen:
• Determinación de la probabilidad: Una de las principales
aplicaciones de la regresión logística es determinar la probabilidad de un
evento. La probabilidad de cualquier evento se encuentra entre 0 y 1, y ese es
el resultado de una función logística. Los algoritmos de regresión logística en
Machine Learning se pueden utilizar para predecir los resultados de las
elecciones, las probabilidades de un desastre natural y otros eventos similares.
• Clasificación: aunque la regresión logística utiliza una función
continua, algunas de sus aplicaciones están en la clasificación. Se puede
utilizar para la segregación de imágenes y problemas de clasificación
relacionados.
Regresión polinomial
La regresión polinomial se utiliza para un conjunto de datos más
complejo que no encajaría perfectamente en una regresión lineal. Un algoritmo
se entrena con un conjunto de datos complejos y etiquetados que podrían no
encajar adecuadamente en una regresión en línea recta. Si dichos datos de
entrenamiento se utilizan con regresión lineal, podría causar un ajuste
insuficiente, donde el algoritmo no capturará las tendencias verdaderas de los
datos. Las regresiones polinomiales permiten una mayor curvatura en la línea
de regresión y, por lo tanto, una mejor aproximación de la relación entre la
variable dependiente y la independiente.
El sesgo y la desviación son dos términos principales asociados con la
regresión polinomial. El sesgo es el error en el modelado que se produce al

Machine Learning
18

simplificar la función de ajuste. La desviación también se refiere a un error


causado por el uso de una función demasiado compleja para ajustar los datos.
Pasos básicos del aprendizaje supervisado
Para ejecutar y resolver un problema mediante Machine Learning
supervisado, se deberá:
• Seleccionar el tipo de datos de entrenamiento: el primer paso en
el aprendizaje supervisado es determinar cuál es la naturaleza de los datos que
se utilizarán para el entrenamiento. Por ejemplo, en el caso del análisis de
escritura a mano, esto podría ser una sola letra, una palabra o una oración.
• Recopilar y limpiar los datos de entrenamiento: en este paso, los
datos de entrenamiento se recopilan de varias fuentes y se someten a una
limpieza rigurosa de datos.
• Elegir un modelo utilizando un algoritmo de aprendizaje
supervisado: según la naturaleza de los datos de entrada y el uso deseado,
elija un algoritmo de clasificación o de regresión. Pueden ser árboles de
decisión, SVM, Naïve Bayes o bosques aleatorios. La consideración principal al
seleccionar un algoritmo es la velocidad de entrenamiento, el uso de la
memoria, la precisión de la predicción de nuevos datos y la
transparencia/interpretación del algoritmo.
• Entrenar el modelo: la función de ajuste se perfecciona a través
de múltiples iteraciones de datos de entrenamiento para mejorar la precisión y
la velocidad de predicción.
• Realizar predicciones y evaluar el modelo: una vez que la función
de ajuste sea satisfactoria, se podrán proporcionar nuevos conjuntos de datos
al algoritmo para realizar nuevas predicciones.
Optimizar y volver a entrenar el modelo: la degradación de datos es una
parte natural de Machine Learning. Por lo tanto, los modelos se deberán volver
a entrenar periódicamente con datos actualizados para garantizar la precisión.
(TIBC, s.f.)

Machine Learning
19

ALGORITMOS DE APRENDIZAJE POR REFUERZO


El aprendizaje por refuerzo, o Reinforcement Learning, es otro tipo de
algoritmos de Machine Learning en el que el objetivo es el desarrollo de un
sistema -que recibe el nombre de agente- que se desea que mejore su
eficiencia realizando cierta tarea basándose en la interacción con su entorno.
Para ello, el agente recibe recompensas (rewards en inglés) que le permiten
adaptar su comportamiento.
Desde cierto punto de vista este tipo de algoritmos puede considerarse
una forma de algoritmos supervisados -al fin y al cabo, el agente va a recibir
una "etiqueta" (la recompensa)-. Sin embargo, esta etiqueta no es la "verdad
fundamental" (ground truth) asociada a su comportamiento, solo es un
indicador de cuan bien o mal ha realizado su acción. Por poner un ejemplo, si
entrenamos un algoritmo para que juegue de forma eficiente al ajedrez, el
hecho de que el algoritmo gane una partida y reciba una recompensa positiva
no indica que los movimientos de piezas realizados sean "los correctos"
(afirmado de modo absoluto). Simplemente indica que éstos fueron adecuados
en el entorno específico en el que se produjeron.
A medida que recibe recompensas, el agente debe desarrollar la
estrategia correcta -llamada política (policy)- que lo lleve a obtener
recompensas positivas en todas las situaciones posibles.
El modelo básico de aprendizaje por refuerzo consiste en:
1. Un conjunto de estados de entorno ;
2. Un conjunto de acciones ;
3. Reglas de la transición entre los estados;
4. Reglas que determinan la recompensa inmediata escalar de una
transición;
5. Reglas que describen lo que observa el agente.
Las reglas son a menudo estocásticas. La observación implica
típicamente la recompensa inmediata al escalar asociado con la última
transición. En escenarios, el agente también supone que observa el estado
actual del medio ambiente, en cuyo caso se habla de plena observabilidad,
mientras que en el caso contrario se habla de observabilidad parcial. A veces,
el conjunto de acciones disponibles para el agente está restringido; por
ejemplo, no se puede gastar más dinero del que se posee.El objetivo de un

Machine Learning
20

agente de aprendizaje por refuerzo es recoger tanta recompensa como sea


posible. El agente puede elegir cualquier acción en función de la historia e
incluso puede aleatorizar su selección de acciones. Cuando el rendimiento del
agente se compara al de un agente que actúa de manera óptima desde el
principio, la diferencia entre estos da lugar a la noción de arrepentimiento.
Nótese que para poder actuar cerca de manera óptima, el agente debe razonar
sobre las consecuencias a largo plazo de sus acciones: «con el fin de
maximizar mis ingresos futuros sería mejor ir a la escuela ahora, a pesar de
que la recompensa monetaria inmediata asociada a esto podría ser negativa».
Por lo tanto, el aprendizaje por refuerzo es especialmente adecuado para los
problemas que incluyen un razonamiento a largo plazo frente a uno a corto
plazo. Se ha aplicado con éxito a diversos problemas, entre ellos, el control de
robots, telecomunicaciones, backgammon y damas. Dos componentes hacen
aprendizaje por refuerzo de gran alcance: el uso de muestras para optimizar el
rendimiento y el uso de la función de aproximación para hacer frente a entornos
de gran tamaño. Gracias a estos dos componentes clave, el aprendizaje por
refuerzo se puede utilizar en entornos de un tamaño considerable en cualquiera
de las situaciones siguientes:
• Un modelo del entorno es conocido, pero una solución analítica
no está disponible;
• Solamente un modelo de simulación del medio ambiente se da (el
tema de la optimización basada en la simulación);
• La única manera de recopilar información sobre el medio
ambiente es mediante la interacción con él.
Los dos primeros de estos problemas podrían ser considerados
problemas de planificación (desde alguna forma si el modelo está disponible),
mientras que el último podría ser considerado como un problema de
aprendizaje clásico. Sin embargo, bajo una metodología de aprendizaje por
refuerzo, los problemas de planificación se convierten en problemas de
aprendizaje automático.
Exploración
El problema del aprendizaje de refuerzo, como se ha descrito, requiere
mecanismos de exploración inteligente. Seleccionar al azar acciones, sin hacer
referencia a una distribución de probabilidad estimada que se conoce, da lugar

Machine Learning
21

a un rendimiento muy pobre. El caso de (pequeños) MDP finitos está


relativamente bien entendido por ahora. Sin embargo, debido a la falta de
algoritmos que escalen bien con el número de estados, en la práctica, la gente
recurre a métodos de exploración simples. Uno de tales métodos es -greedy,
cuando el agente elige la acción que se cree tiene el mejor efecto a largo plazo,
con una probabilidad , y, de lo contrario, se elige una acción uniformemente al
azar. Aquí, es un parámetro de ajuste, que a veces se cambia, ya sea de
acuerdo con un horario fijo (por lo que el agente explorar menos como pasa el
tiempo), ya de forma adaptativa basada en algunas heurísticas (Tokic y Palma,
2011).
Algoritmos para el control de aprendizaje
Aunque el tema de la exploración se tiene en cuenta, e incluso si el
estado era observable (que asumimos a partir de ahora), el problema sigue
siendo saber qué acciones son buenas basadas en la experiencia pasada.
Criterio de optimalidad
Para simplificar, supongamos por un momento que el problema
estudiado es episódico, un episodio que termina cuando se alcanza un estado
terminal. Supongamos, además, que no importa el curso de las acciones que
toma el agente, la terminación es inevitable. Bajo ciertas condiciones de
regularidad adicional está entonces bien definida la expectativa de la
recompensa total para cualquier política y cualquier distribución inicial sobre los
estados Aunque esto parece bastante inocente, el descuento es de hecho un
problema si uno se preocupa por el rendimiento en línea. Esto se debe a que el
descuento hace que el tiempo inicial de los pasos más importantes. Puesto que
un agente de aprendizaje es probable que cometa errores durante los primeros
pasos después de sus inicios "vida", ningún algoritmo de aprendizaje
desinformado puede lograr un rendimiento casi óptimo en el descuento, incluso
si la clase de entornos está restringida a la de PDM finitos. (Esto no significa
sin embargo que, dado el tiempo suficiente, un agente de aprendizaje no puede
entender cómo actuar casi de forma óptima, si el tiempo se ha reiniciado.) El
problema entonces es especificar un algoritmo que puede ser usado para
encontrar una póliza con el máximo rendimiento esperado. De la teoría de la
PDM se sabe que, sin pérdida de generalidad, la búsqueda puede ser
restringida al conjunto de las llamadas políticas estacionarias. Una política se

Machine Learning
22

llama estacionaria si la acción de distribución que devuelve solo depende del


último estado visitado (que es parte de la historia de la observación del agente,
por nuestro supuesto simplificador). De hecho, la búsqueda se puede restringir
aún más a las políticas estacionarias deterministas. Una política estacionaria
determinista es aquella que selecciona de manera determinista acciones
basadas en el estado actual. Desde cualquiera de estas políticas puede ser
identificadas con una correspondencia entre el conjunto de estados en el
conjunto de acciones, estas políticas se pueden identificar con este tipo de
asignaciones, sin pérdida de generalidad.
Fuerza bruta
El enfoque por fuerza bruta implica las dos etapas siguientes:
1. Para cada política posible, muestrear resultados.
2. Elija la política con el mayor retorno esperado.
Un problema con esto es que el número de políticas puede ser
extremadamente grande, o incluso infinito. Otra es que la varianza de los
rendimientos podría ser grande, en cuyo caso se requiere un gran número de
muestras para estimar con precisión el retorno de cada política. Estos
problemas se pueden aliviar utilizamos alguna estructura y permitir que las
muestras sean generadas a partir de una política para influir en las
estimaciones realizadas por otro. Los dos enfoques principales para
conseguirlo son función de la estimación del valor y la búsqueda de políticas
directas.
Método de Montecarlo
Los Método de Montecarlo más simples se pueden usar en un algoritmo
que imita políticas de iteración. La política de iteración consta de dos etapas: la
evaluación y mejora. Los Método de Montecarlo se utilizan en la etapa de
evaluación. En este paso, dado, la política determinista estacionaria , el
objetivo es calcular los valores de la función (O una buena aproximación a
ellas) para todos los pares estado-acción . Supongamos (por simplicidad) que
el MDP es finito y que hay una tabla de acciones por estados en la memoria.
Además, se supone que el problema es episódico y después de cada episodio
uno nuevo comienza a partir de un estado inicial aleatorio. Entonces, la
estimación del valor de un par estado-acción determinada se puede calcular
simplemente el promedio de los rendimientos de la muestra que se originaron a

Machine Learning
23

partir de Dado el tiempo suficiente, este procedimiento puede así construir una
estimación precisa de la función de la acción-valor . Aquí termina la
descripción de la etapa de evaluación de políticas. En la etapa de mejora de las
políticas, como se hace en el algoritmo de iteración, la siguiente política se
obtiene mediante el cálculo de una política greedy con respecto a : Dado un
estado , la nueva política devuelve una acción que maximiza . En la práctica a
menudo se evita el cómputo y el almacenamiento de la nueva política, pero
utiliza la evaluación perezosa para aplazar el cómputo de las acciones que
maximizan cuando realmente sea necesario. Este procedimiento puede
acarrear algunos problemas como los siguientes:
• Se puede perder mucho tiempo en la evaluación de una política
subóptima;
• Utilizar muestras de manera ineficiente
• Cuando las trayectorias tienen una alta varianza, la convergencia
será lenta;
• Funciona solo en los problemas episódicos;
• Actúa en solo MDPs pequeños y finitos.

Teoría
La teoría de las pequeñas MDP, finitos es bastante madura. Tanto el
comportamiento asintótico como el de muestra finita de la mayoría de los
algoritmos es bien entendido. Como se mencionó previamente, se conocen
algoritmos con demostrablemente buen desempeño en línea. La teoría de la
gran MDP necesita más trabajo. Exploración eficiente es en gran parte intacta
(salvo para el caso de problemas de bandidos). Aunque los límites de
rendimiento en tiempo finito aparecieron muchos algoritmos en los últimos
años, se espera que estos límites mejores ya que son bastante vagos y por lo
tanto se necesita más trabajo para comprender mejor las ventajas relativas, así
como las limitaciones de estos algoritmos. Para algoritmos incrementales se
han resuelto problemas de convergencia asintótica. Recientemente, nuevos
algoritmos incrementales temporales basados en diferencias han aparecido
que convergen en un conjunto mucho más amplio de condiciones de lo que era
posible anteriormente.
(Interactive Chaos , s.f.)

Machine Learning
24

APRENDIZAJE NO SUPERVISADO
Los algoritmos de Aprendizaje no Supervisados infieren patrones de un
conjunto de datos sin referencia a resultados conocidos o etiquetados. A
diferencia del Aprendizaje Supervisado, los métodos de Aprendizaje no
Supervisado no se pueden aplicar directamente a un problema de regresión o
clasificación porque no tiene idea de cuáles pueden ser los valores de los datos
de salida, lo que hace imposible que entrene el algoritmo de la forma en que lo
haría normalmente. En cambio, el aprendizaje sin supervisión puede utilizarse
para descubrir la estructura subyacente de los datos.
Los algoritmos de Aprendizaje no Supervisados te permiten realizar
tareas de procesamiento más complejas en comparación con el Aprendizaje
Supervisado. Sin embargo, el aprendizaje sin supervisión puede ser más
impredecible en comparación con otros métodos de aprendizaje naturales.
Los algoritmos de Aprendizaje no Supervisados se utilizan para agrupar
los datos no estructurados según sus similitudes y patrones distintos en el
conjunto de datos. El término “no supervisado” se refiere al hecho de que el
algoritmo no está guiado como el algoritmo de Aprendizaje Supervisado.
La manera más fácil de entender esto es con un ejemplo, tenemos un
bebe y su perro. Ella conoce e identifica a su perro. Unas semanas más tarde,
un amigo de la familia trae un perro y trata de jugar con la bebé. La bebé no ha
visto a este perro antes, pero reconoce muchos rasgos de él, 2 orejas, 2 ojos,
caminar sobre 4 patas, son como su mascota. Ella identifica al nuevo animal
con un perro. Este ejemplo se trata de un aprendizaje sin supervisión, en el que
no se le enseña, sino que se aprende a partir de los datos, en este caso, los
datos sobre un perro.
¿Por qué es importante el Aprendizaje no Supervisado?
El Aprendizaje no Supervisado pretende descubrir patrones previamente
desconocidos en los datos, pero la mayoría de las veces estos patrones son
aproximaciones deficientes de lo que el Aprendizaje Supervisado puede lograr.
Además, dado que no sabe cuáles deberían ser los resultados, no hay forma

Machine Learning
25

de determinar cuán precisos son, lo que hace que el Aprendizaje Supervisado


sea más aplicable a los problemas del mundo real.
El mejor momento para utilizar el Aprendizaje no Supervisado es cuando
no se dispone de datos sobre los resultados deseados, como la determinación
de un mercado objetivo para un producto completamente nuevo que tu
empresa nunca ha vendido antes. Sin embargo, si estás tratando de obtener
una mejor comprensión de tu base de consumidores existente, el Aprendizaje
Supervisado es la técnica óptima.
Estás son algunas de las razones principales para usar Aprendizaje no
Supervisado:
• El Aprendizaje no Supervisado encuentra todo tipo de patrones
desconocidos en los datos.
• Los métodos no supervisados te ayudan a encontrar
características que pueden ser útiles para la categorización.
• Es más fácil obtener datos no etiquetados que los datos
etiquetados.
¿Cómo funciona el Aprendizaje no Supervisado?
Los algoritmos de Aprendizaje no Supervisado manejan datos sin
entrenamiento previo, es una función que hace su trabajo con los datos a su
disposición. En cierto modo, se deja a su suerte para que resuelva las cosas a
su antojo.
Los algoritmos no supervisados funcionan con datos no etiquetados. Su
propósito es la exploración. Si el Aprendizaje Supervisado funciona bajo reglas
claramente definidas, el Aprendizaje no Supervisado funciona bajo condiciones
en las que los resultados son desconocidos y, por lo tanto, es necesario
definirlos en el proceso.
Los algoritmos de Aprendizaje no Supervisado están acostumbrados:
• Explorar la estructura de la información y detectar patrones
distintos,
• extraer ideas valiosas,
• aplicarla en su funcionamiento con el fin de aumentar la eficacia
del proceso de toma de decisiones.
En otras palabras, describe la información, pasa por el grueso de la
misma e identifica lo que realmente es.

Machine Learning
26

Tipos de Aprendizaje no Supervisado


Los problemas de Aprendizaje no Supervisados se agrupan en
problemas de agrupación y asociación.
Agrupamiento
El agrupamiento es un concepto importante cuando se trata de
Aprendizaje no Supervisado. Se trata principalmente de encontrar una
estructura o patrón en una colección de datos no categorizados. Los algoritmos
de agrupamiento o clústeres, como se le conoce en inglés, procesarán los
datos y encontrarán grupos o clústeres naturales si existen en los datos.
También se puede modificar cuántos grupos deben identificar sus algoritmos.
Permite ajustar la granularidad de estos grupos.
Existen diferentes tipos de agrupamiento que se puede utilizar:
Exclusivo (partición): en este método de agrupación, los datos se
agrupan de tal manera que un dato solo puede pertenecer a un clúster o grupo.
Ejemplo: K Means.
Aglomerativo: en esta técnica de agrupación de agrupamiento, cada
dato es un clúster. Las uniones iterativas entre los dos clústeres más cercanos
reducen el número de clústeres. Ejemplo: agrupación jerárquica.
Solapamiento: en esta técnica, se utilizan conjuntos difusos para
agrupar datos. Cada punto puede pertenecer a dos o más grupos con distintos
grados de afiliación. Aquí los datos se asociarán con un valor de membresía
apropiado. Ejemplo: Fuzzy C-Means.
Probabilístico: esta técnica utiliza la distribución de probabilidad para
crear los clústeres.
Asociación
Las reglas de asociación te permiten establecer asociaciones entre
objetos de datos dentro de grandes bases de datos. Esta técnica no
supervisada trata de descubrir relaciones interesantes entre variables en
grandes bases de datos. Por ejemplo, las personas que compran una casa
nueva tienen más probabilidades de comprar muebles nuevos.
Desafíos en la implementación del Aprendizaje no Supervisado
Además de los problemas habituales de encontrar los algoritmos y el
hardware adecuados, el Aprendizaje no Supervisado presenta un desafío
único: es difícil saber si se está haciendo el trabajo o no.

Machine Learning
27

En el Aprendizaje Supervisado, definimos métricas que impulsan la toma


de decisiones en torno al ajuste de modelos. Medidas como la precisión y
exactitud dan una idea de lo preciso que es el modelo, y los parámetros de ese
modelo se ajustan para aumentar las puntuaciones de precisión. Las bajas
puntuaciones de precisión significan que necesitar mejorar, y así
sucesivamente.
Dado que no hay etiquetas en el Aprendizaje no Supervisado, es casi
imposible obtener una medida razonablemente objetiva de la precisión de su
algoritmo. En la agrupación, por ejemplo, ¿cómo puedes saber si el algoritmo
encontró los grupos correctos? ¿estás usando el número correcto de clústeres
en primer lugar? En el Aprendizaje Supervisado podemos buscar una
puntuación de precisión, aquí necesitas ser un poco más creativo.
Una gran parte de la pregunta, funcionará al Aprendizaje no Supervisado
para el proyecto, depende totalmente del contexto del mismo. Una de las
mejores, pero más arriesgadas, maneras de probar el modelo de Aprendizaje
no Supervisado es implementarlo en el mundo real y ver lo que sucede.
Diseñar una prueba A/B, con y sin los clústeres que el algoritmo ha emitido,
puede ser una forma efectiva de ver si es información útil o totalmente
incorrecta. (Aprendeia, 2022)

APRENDIZAJE PROFUNDO
El aprendizaje profundo (Deep Learning) es un tipo de aprendizaje
automático (machine learning, ML) e inteligencia artificial (IA) que imita la forma
en que los humanos obtienen ciertos tipos de conocimiento.
El aprendizaje profundo es un elemento importante de la ciencia de
datos, que incluye estadísticas y modelos predictivos. Es extremadamente
beneficioso para los científicos de datos que tienen la tarea de recopilar,
analizar e interpretar grandes cantidades de datos; el aprendizaje profundo
hace que este proceso sea más rápido y sencillo.
En su forma más simple, el aprendizaje profundo se puede considerar
como una forma de automatizar el análisis predictivo. Si bien los algoritmos de
aprendizaje automático tradicionales son lineales, los algoritmos de aprendizaje

Machine Learning
28

profundo se apilan en una jerarquía de complejidad y abstracción cada vez


mayores.
Para comprender el aprendizaje profundo, imagine a un niño pequeño
cuya primera palabra es perro. El niño pequeño aprende qué es —y qué no es
— un perro señalando objetos y diciendo la palabra perro. El padre dice: "Sí,
ese es un perro" o "No, ese no es un perro". A medida que el niño pequeño
continúa señalando objetos, se vuelve más consciente de las características
que poseen todos los perros. Lo que hace el niño, sin saberlo, es aclarar una
abstracción compleja —el concepto de perro— mediante la construcción de
una jerarquía en la que cada nivel de abstracción se crea con el conocimiento
obtenido de la capa anterior de la jerarquía.

Cómo funciona el aprendizaje profundo


Los programas informáticos que utilizan el aprendizaje profundo pasan
por el mismo proceso que el niño pequeño que aprende a identificar al perro.
Cada algoritmo de la jerarquía aplica una transformación no lineal a su entrada
y usa lo que aprende para crear un modelo estadístico como salida. Las
iteraciones continúan hasta que la salida alcanza un nivel aceptable de
precisión. La cantidad de capas de procesamiento a través de las cuales deben
pasar los datos es lo que inspiró la etiqueta profundo.
En el aprendizaje automático tradicional, el proceso de aprendizaje está
supervisado y el programador tiene que ser extremadamente específico al
decirle a la computadora qué tipo de cosas debe buscar para decidir si una
imagen contiene un perro o no. Este es un proceso laborioso llamado
extracción de características, y la tasa de éxito de la computadora depende
completamente de la capacidad del programador para definir con precisión un
conjunto de características para perro. La ventaja del aprendizaje profundo es
que el programa crea el conjunto de funciones por sí mismo sin supervisión. El
aprendizaje no supervisado no solo es más rápido, sino que suele ser más
preciso.
Inicialmente, el programa informático podría contar con datos de
entrenamiento — un conjunto de imágenes para las que un humano ha
etiquetado cada imagen como perro o no perro con metaetiquetas. El programa
utiliza la información que recibe de los datos de entrenamiento para crear un

Machine Learning
29

conjunto de características para perro y construir un modelo predictivo. En este


caso, el modelo que crea primero la computadora podría predecir que cualquier
cosa en una imagen que tenga cuatro patas y una cola debería etiquetarse
como perro. Por supuesto, el programa no conoce las etiquetas de cuatro patas
o cola. Simplemente buscará patrones de píxeles en los datos digitales. Con
cada iteración, el modelo predictivo se vuelve más complejo y preciso.
A diferencia del niño pequeño, que tardará semanas o incluso meses en
comprender el concepto de perro, a un programa informático que utiliza
algoritmos de aprendizaje profundo se le puede mostrar un conjunto de
entrenamiento y clasificar millones de imágenes, identificando con precisión
qué imágenes tienen perros en unos pocos minutos.
Para lograr un nivel aceptable de precisión, los programas de
aprendizaje profundo requieren acceso a inmensas cantidades de datos de
entrenamiento y potencia de procesamiento, ninguno de los cuales estaba
fácilmente disponible para los programadores hasta la era del big data y la
computación en la nube. Debido a que la programación de aprendizaje
profundo puede crear modelos estadísticos complejos directamente a partir de
su propia salida iterativa, puede crear modelos predictivos precisos a partir de
grandes cantidades de datos no estructurados y sin etiquetar. Esto es
importante ya que el internet de las cosas (IoT) continúa volviéndose más
omnipresente porque la mayoría de los datos que crean los humanos y las
máquinas no están estructurados y no están etiquetados.
Métodos de aprendizaje profundo
Se pueden utilizar varios métodos para crear modelos sólidos de
aprendizaje profundo. Estas técnicas incluyen la disminución de la tasa de
aprendizaje, el aprendizaje por transferencia, la formación desde cero y la
deserción.
Decadencia de la tasa de aprendizaje. La tasa de aprendizaje es un
hiperparámetro —un factor que define el sistema o establece las condiciones
para su funcionamiento antes del proceso de aprendizaje— que controla
cuánto cambio experimenta el modelo en respuesta al error estimado cada vez
que se modifican los pesos del modelo. Las tasas de aprendizaje que son
demasiado altas pueden resultar en procesos de entrenamiento inestables o en
el aprendizaje de un conjunto de pesos subóptimo. Las tasas de aprendizaje

Machine Learning
30

que son demasiado pequeñas pueden producir un proceso de capacitación


prolongado que tiene el potencial de atascarse.
El método de disminución de la tasa de aprendizaje —también llamado
recocido de la tasa de aprendizaje o tasas de aprendizaje adaptativas— es el
proceso de adaptar la tasa de aprendizaje para aumentar el rendimiento y
reducir el tiempo de capacitación. Las adaptaciones más fáciles y comunes de
la tasa de aprendizaje durante el entrenamiento incluyen técnicas para reducir
la tasa de aprendizaje con el tiempo.
Transferir aprendizaje. Este proceso implica perfeccionar un modelo
previamente entrenado; requiere una interfaz para el interior de una red
preexistente. Primero, los usuarios alimentan la red existente con nuevos datos
que contienen clasificaciones previamente desconocidas. Una vez que se
realizan los ajustes a la red, se pueden realizar nuevas tareas con capacidades
de categorización más específicas. Este método tiene la ventaja de requerir
muchos menos datos que otros, reduciendo así el tiempo de cálculo a minutos
u horas.
Entrenar desde cero. Este método requiere que un desarrollador
recopile un gran conjunto de datos etiquetados y configure una arquitectura de
red que pueda aprender las características y el modelo. Esta técnica es
especialmente útil para aplicaciones nuevas, así como para aplicaciones con
una gran cantidad de categorías de salida. Sin embargo, en general, es un
enfoque menos común, ya que requiere cantidades excesivas de datos, lo que
hace que la capacitación demore días o semanas.
Abandonar. Este método intenta resolver el problema del sobreajuste
en redes con grandes cantidades de parámetros al soltar aleatoriamente
unidades y sus conexiones de la red neuronal durante el entrenamiento. Se ha
comprobado que el método de abandono puede mejorar el rendimiento de las
redes neuronales en tareas de aprendizaje supervisado en áreas como
reconocimiento de voz, clasificación de documentos y biología computacional.
¿Redes neuronales de aprendizaje profundo?
Un tipo de algoritmo de aprendizaje automático avanzado, conocido
como red neuronal artificial, sustenta la mayoría de los modelos de aprendizaje
profundo. Como resultado, el aprendizaje profundo a veces puede denominarse
aprendizaje neuronal profundo o redes neuronales profundas.

Machine Learning
31

Las redes neuronales vienen en varias formas diferentes, incluidas las


redes neuronales recurrentes, las redes neuronales convolucionales, las redes
neuronales artificiales y las redes neuronales de retroalimentación, y cada una
tiene beneficios para casos de uso específicos. Sin embargo, todos funcionan
de manera algo similar —introduciendo datos y dejando que el modelo averigüe
por sí mismo si ha tomado la interpretación o decisión correcta sobre un
elemento de datos dado.
Las redes neuronales implican un proceso de prueba y error, por lo que
necesitan cantidades masivas de datos para entrenar. No es una coincidencia
que las redes neuronales se hicieran populares solo después de que la
mayoría de las empresas adoptaron el análisis de big data y acumularon
grandes cantidades de datos. Debido a que las primeras iteraciones del modelo
implican suposiciones un tanto fundamentadas sobre el contenido de una
imagen o partes del discurso, los datos utilizados durante la etapa de
entrenamiento deben etiquetarse para que el modelo pueda ver si su
suposición fue precisa. Esto significa que, aunque muchas empresas que
utilizan big data tienen grandes cantidades de datos, los datos no estructurados
son menos útiles. Los datos no estructurados solo pueden ser analizados por
un modelo de aprendizaje profundo una vez que han sido entrenados y
alcanzan un nivel aceptable de precisión, pero los modelos de aprendizaje
profundo no pueden entrenarse con datos no estructurados.
Ejemplos de aprendizaje profundo
Debido a que los modelos de aprendizaje profundo procesan la
información de manera similar al cerebro humano, se pueden aplicar a muchas
tareas que realizan las personas. El aprendizaje profundo se utiliza
actualmente en las herramientas de reconocimiento de imágenes más
comunes, el procesamiento del lenguaje natural (NLP) y el software de
reconocimiento de voz. Estas herramientas están empezando a aparecer en
aplicaciones tan diversas como los coches autónomos y los servicios de
traducción de idiomas.
Los casos de uso actuales para el aprendizaje profundo incluyen todo
tipo de aplicaciones de análisis de big data, especialmente aquellas enfocadas
en NLP, traducción de idiomas, diagnóstico médico, señales de negociación del
mercado de valores, seguridad de red y reconocimiento de imágenes.

Machine Learning
32

Los campos específicos en los que se utiliza actualmente el


aprendizaje profundo incluyen los siguientes:
• Experiencia del cliente. Los modelos de aprendizaje profundo ya
se están utilizando para chatbots. Y, a medida que continúa madurando, se
espera que se implemente el aprendizaje profundo en varias empresas para
mejorar la experiencia del cliente (CX) y aumentar la satisfacción del cliente.
• Generación de texto. A las máquinas se les enseña la gramática
y el estilo de un texto y luego utilizan este modelo para crear automáticamente
un texto completamente nuevo que coincida con la ortografía, la gramática y el
estilo correctos del texto original.
• Aeroespacial y militar. El aprendizaje profundo se está utilizando
para detectar objetos de satélites que identifican áreas de interés, así como
zonas seguras o inseguras para las tropas.
• Automatización industrial. El aprendizaje profundo está
mejorando la seguridad de los trabajadores en entornos como fábricas y
almacenes al proporcionar servicios que detectan automáticamente cuando un
trabajador u objeto se está acercando demasiado a una máquina.
• Añadir color. Se puede agregar color a fotos y videos en blanco y
negro utilizando modelos de aprendizaje profundo. En el pasado, este era un
proceso manual que consumía mucho tiempo.
• Investigación médica. Los investigadores del cáncer han
comenzado a implementar el aprendizaje profundo en su práctica como una
forma de detectar automáticamente las células cancerosas.
• Visión por computador. El aprendizaje profundo ha mejorado
enormemente la visión por computadora, proporcionando a las computadoras
una precisión extrema para la detección de objetos y la clasificación,
restauración y segmentación de imágenes.
Limitaciones y desafíos
La mayor limitación de los modelos de aprendizaje profundo es que
aprenden a través de observaciones. Esto significa que solo saben lo que
había en los datos sobre los que se entrenaron. Si un usuario tiene una
pequeña cantidad de datos o proviene de una fuente específica que no es
necesariamente representativa del área funcional más amplia, los modelos no
aprenderán de una manera generalizable.

Machine Learning
33

El tema de los sesgos también es un problema importante para los


modelos de aprendizaje profundo. Si un modelo se entrena con datos que
contienen sesgos, el modelo reproducirá esos sesgos en sus predicciones.
Este ha sido un problema molesto para los programadores de aprendizaje
profundo porque los modelos aprenden a diferenciar en función de variaciones
sutiles en los elementos de datos. A menudo, los factores que determina que
son importantes no se le aclaran explícitamente al programador. Esto significa,
por ejemplo, que un modelo de reconocimiento facial puede hacer
determinaciones sobre las características de las personas en función de
factores como la raza o el género sin que el programador se dé cuenta.
La tasa de aprendizaje también puede convertirse en un gran desafío
para los modelos de aprendizaje profundo. Si la tasa es demasiado alta,
entonces el modelo convergerá demasiado rápido, produciendo una solución
menos que óptima. Si la tasa es demasiado baja, el proceso puede atascarse y
será aún más difícil llegar a una solución.
Los requisitos de hardware para los modelos de aprendizaje profundo
también pueden crear limitaciones. Se requieren unidades de procesamiento
de gráficos (GPU) multinúcleo de alto rendimiento y otras unidades de
procesamiento similares para garantizar una mayor eficiencia y un menor
consumo de tiempo. Sin embargo, estas unidades son caras y consumen
grandes cantidades de energía. Otros requisitos de hardware incluyen memoria
de acceso aleatorio y una unidad de disco duro (HDD) o una unidad de estado
sólido (SSD) basada en RAM. (Burns, 2021)

Ejemplos:
Aprendizaje profundo
Por ejemplo, un modelo de aprendizaje profundo conocido como «redes
neuronales convolucionales», se puede entrenar como un gran número (de
millones) de imágenes; por ejemplo, las que contienen gatos. Este tipo de red
neuronal normalmente aprende de los píxeles que contienen las imágenes que
adquiere.

Aprendizaje por esfuerzo

Machine Learning
34

Se trata de una forma de optimización basada en datos. La máquina


aprende a partir de su propia experiencia, interaccionando con el entorno hasta
dar con el comportamiento ideal. A partir de la información disponible,
emprenderá acciones que repetirá y “reforzará” según las recompensas que
obtenga, que pueden ser positivas o negativas.
Aprendizaje supervisado:
Por ejemplo, un proceso de aprendizaje supervisado podría consistir en
clasificar vehículos de dos y cuatro ruedas a partir de sus imágenes. Los datos
de entrenamiento tendrían que estar correctamente etiquetados para identificar
si un vehículo es de dos o cuatro ruedas.

Aprendizaje no supervisado:
Las principales aplicaciones del aprendizaje no supervisado están
relacionadas en el agrupamiento o clustering de datos. Aquí, el objetivo es
encontrar subgrupos homogéneos dentro de los datos. Estos alogoritmos se
basan en la distancia entre observaciones.

APLICACIONES DEL MACHINE LEARNING


Podemos hablar de tantas aplicaciones y situaciones como queramos
imaginar, hay sectores donde puede resultar clave para la toma de decisiones
como puede ser en medicina, donde decidir si realizar una operación o no a un
paciente o en el mundo de los negocios conocer en qué fechas es mejor bajar
los precios o estimar ventas.
Más aplicaciones: motores de búsqueda, reconocimiento del habla, del
lenguaje o robótica. Más ejemplos que vemos o veremos en nuestro día a día
pueden ser:
• Detección de rostro. Lo vemos en nuestros móviles.
• Anti-spam. Mediante el uso de tags.
• Anti-virus. Detectando software malicioso.
• Genética. En la clasificación de secuencias de ADN.
• Forecast. De clima o tráfico.
• Comprensión de textos.
• Vehículos autónomos y robots.

Machine Learning
35

• Análisis de imágenes de alta calidad.


• Análisis de comportamiento de consumo y productividad. Para la
identificación de clientes potenciales y en general en sectores de telco, banca,
seguros.
El mundo del Machine Learning cubre un gran campo dentro del
universo Big Data y es cada vez más relevante. El número de técnicas y
algoritmos es muy extenso y sigue evolucionando. Las aplicaciones, son
inimaginables.
No obstante, no es un tema de futuro, la introducción de estas técnicas
de Machine Learning en la fase de toma de decisiones estratégicas son
prácticamente una obligación hoy en día. (Zaforas, 2020)

VENTAJAS DE APLICAR MACHINE LEARNING EN LA EMPRESA


Si quieres ser uno de esos profesionales que trabajan con Machine
Learning en la empresa tienes que conocer las ventajas que aporta esta
tecnología:
• Mejor servicio al cliente. El Machine Learning permite analizar las
preferencias de los clientes para ofrecer productos personalizados de forma
automática. De este modo, la percepción que tienen de la empresa mejora y se
potencia la fidelización.
• Disminución de errores. El aprendizaje automático de los sistemas
de gestión aplicados en la organización ayuda a que los errores cometidos no
se repitan. Cuanto más tiempo lleve integrado en el sistema, más sólido será.
• Acciones preventivas. En relación al punto anterior, las
herramientas de aprendizaje automático permiten prevenir errores. La IA
descarta por sí misma las acciones más arriesgadas y aquellas que pueden
poner en riesgo el desarrollo de nuestro producto o servicio.
• Ciberseguridad. Esta tecnología permite que las máquinas estén
al día en lo que a ciberataques se refiere. Teniendo en cuenta que la mayoría
de malwares utilizan código similar, el aprendizaje automático puede evitar
fácilmente que los ataques se repitan.

Machine Learning
36

• Detección de fraudes. La Inteligencia Artificial puede detectar


fácilmente qué transacciones son legítimas y cuáles no si le asignamos un
patrón a estos movimientos monetarios.
• Automatización de procesos. La automatización de rutinas o de
tareas mecánicas que no aportan valor añadido es un elemento recurrente en
los listados de beneficios relacionados con la Inteligencia Artificial. Gracias al
Machine Learning, la máquina sabrá qué procesos debe tratar y, con el tiempo,
los perfeccionará e incluso ampliará la cantidad de tareas a realizar.
Los norteamericanos son los que llevan más tiempo aplicando Machine
Learning en la empresa. Según el MIT, el 50% de las organizaciones de
Estados Unidos utiliza esta tecnología para facilitar el análisis de datos y
obtener más y mejores insights. El 46% se muestra interesado por las ventajas
competitivas que aporta Machine Learning, un 45% asegura que quiere
potenciar la velocidad de obtención de datos gracias a esta herramienta y el
44% desea impulsar el I+D para ofrecer productos y servicios innovadores.
Después de ver las ventajas de esta herramienta, podemos decir que la
inversión que supone contar con Machine Learning en la empresa puede ser
extremadamente rentable. Eso sí, hay que tener en cuenta las capacidades y el
presupuesto de la organización, puesto que se trata de una tecnología costosa
y compleja. (Zemsania, 2022)

Machine Learning
37

BIBLIOGRAFÍA

Aprendeia. (2022). ¿Qué es el Aprendizaje no Supervisado? Obtenido de


https://aprendeia.com/: https://aprendeia.com/aprendizaje-no-
supervisado-machine-learning/
Burns, E. (septiembre de 2021). Aprendizaje profundo (deep learning).
Obtenido de https://www.computerweekly.com/:
https://www.computerweekly.com/es/definicion/Aprendizaje-profundo-
deep-learning
Interactive Chaos . (s.f.). Algoritmos de aprendizaje por refuerzo. Obtenido de
Interactive Chaos : https://interactivechaos.com/es/manual/tutorial-de-
machine-learning/algoritmos-de-aprendizaje-por-refuerzo#:~:text=El
%20aprendizaje%20por%20refuerzo%2C%20o,la%20interacci
%C3%B3n%20con%20su%20entorno
Sierra, Y. (19 de 10 de 2022). blog.lemontech.com. Obtenido de Lemontech
Blog: https://blog.lemontech.com/que-es-el-machine-learning-y-para-
que-sirve-ejemplos/#Para_que_sirve_el_machine_learning
TIBC. (s.f.). ¿Qué es el aprendizaje supervisado? Obtenido de TIBC:
https://www.tibco.com/es/reference-center/what-is-supervised-learning
Zaforas, M. (11 de octubre de 2020). Machine Learning, la forma de hacer Big
Data inteligente. Obtenido de https://www.paradigmadigital.com/:
https://www.paradigmadigital.com/dev/machine-learning-la-forma-big-
data-inteligente/
Zemsania. (2022). Beneficios que aporta aplicar Machine learning en la
empresa. Obtenido de https://zemsaniaglobalgroup.com/:
https://zemsaniaglobalgroup.com/machine-learning-en-la-empresa/

Machine Learning
38

CONCLUSIONES

Machine Learning
39

Machine Learning
40

Machine Learning
41

Machine Learning
42

ANEXOS

Ilustración 3Linea Temporal del MACHINE LEARNIMG

Machine Learning
43

Ilustración 4Inteligencia Artificial vs Machine Learning

Machine Learning

También podría gustarte