Está en la página 1de 119

Machine Translated by Google

Activando la capacidad organizacional 225

arquitectos, analistas de inteligencia empresarial, arquitectos de datos e ingenieros de


visualización de datos. La mayoría de las organizaciones tienen roles similares a estos en sus
proyectos de TI diarios, por lo que no los cubrimos aquí.

Gestión del talento y contratación

Cuando se les pide que definan qué es un científico de IA, muchas empresas describen a una
persona que domina las habilidades de aprendizaje automático, tiene suficiente conocimiento
empresarial para comprender exactamente qué casos de uso son los mejores a seguir y posee
las habilidades de comunicación necesarias para motivar al equipo. , tiene el conocimiento de
ingeniería de datos para poder construir canales de datos sólidos, posee suficiente conocimiento
de DevOps para configurar y mantener la infraestructura, tiene el talento de un desarrollador
que puede crear prototipos de aplicaciones de usuario final y más.

Pero es poco probable que encuentres todas estas habilidades en una sola persona.
En cambio, las empresas deberían centrarse en formar equipos cuyos conjuntos de
habilidades se superpongan y cubran toda la amplitud. Los equipos con habilidades combinadas
aportan una variedad de perspectivas útiles. Contratar a un científico de IA que sea en parte
ingeniero de datos, un desarrollador que esté familiarizado con la ingeniería de datos o un
analista de datos con experiencia empresarial es más fácil de hacer, y las personas que poseen
múltiples conjuntos de habilidades a menudo trabajan juntas de manera más efectiva, ya que
su experiencia en más de un área los convierte en buenos colaboradores. Puede ser útil, por
ejemplo, si un científico de IA no sólo conoce la programación técnica y el modelado matemático,
sino que también tiene cierta comprensión del negocio en cuestión, de modo que pueda
articular las decisiones de modelado que toma como posibles compensaciones comerciales.

Si la organización no puede encontrar un científico en IA tan completo, existen otras


soluciones. Es posible que una empresa desee contratar a dos personas: una que pueda
abordar los algoritmos y otra que pueda abordar la estrategia empresarial, ya que no muchas
personas tienen experiencia en ambos. Pero cada uno necesitará algo de experiencia en el
otro. Otra alternativa es comprometerse a capacitar al nuevo científico de IA en estrategia
empresarial, un conjunto de habilidades que la organización ya tiene. Dada la creciente
demanda de científicos de IA, es posible que una empresa tenga que contratar uno sin mucho
Machine Translated by Google

226 CONSTRUYENDO LA CAPACIDAD DE IA DE SU EMPRESARIAL

experiencia del mundo real e incluso cierto grado de incomodidad al operar


en un entorno empresarial. Después de todo, son expertos en IA, no en
negocios, TI o implementación. Las escuelas de posgrado enseñan teoría y
ciencia de la IA, no cómo ponerlas en práctica en las empresas. Se debe
agradecer cualquier ayuda que el AI CoE o sus homólogos en las unidades
de negocio puedan brindarles. Es posible que las empresas también quieran
instruir al menos a algunos de sus ingenieros de datos existentes en el arte
de la IA. Muchos cursos universitarios y en línea conducen a la certificación
como profesional de IA, incluidos los de Microsoft, Coursera y muchas universidades.
Dicho esto, debemos reconocer que, como se señaló en el Capítulo 7,
los profesionales sofisticados de la IA son muy escasos. El número de
puestos vacantes es mucho mayor que el grupo de talentos disponible. Esta
escasez significa no sólo que los salarios sean altos sino que los científicos
de IA tengan muchas opciones entre las que elegir. La buena noticia es que
buscan las mismas cosas que la mayoría de las personas talentosas de alto
nivel. Quieren un trabajo significativo con una variedad de casos de uso en
los que puedan poner en práctica sus talentos y una variedad de problemas
que resolver. Quieren una oportunidad para realizar su propia investigación
y la capacidad de sugerir e implementar nuevos proyectos. Quieren un
entorno de trabajo que les proporcione lo que necesitan para tener éxito,
incluido el acceso a una gran cantidad de datos, y no quieren tener que
dedicar la mayor parte de su tiempo a limpiar los datos antes de poder
comenzar su trabajo. Necesitan acceso a una plataforma de IA de autoservicio
para poder operar de forma independiente y no tener que depender de los
departamentos de TI para configurar entornos o del personal de adquisiciones para obtener
Para contratar a alguien que cumpla con los criterios necesarios, las
organizaciones deben informar a los candidatos que trabajarán en un entorno
creativo y colaborativo con muchas otras personas inteligentes, que la
empresa se toma en serio su misión de crear un programa de IA y que hay
Habrá presupuestos adecuados para los proyectos, así como el pleno apoyo
de la alta dirección. Las empresas también deben tener claro en qué se
diferencian sus organizaciones de la competencia. Por ejemplo, si las
oportunidades dentro de la empresa no respaldan lo que la persona
encargada de la IA quiere hacer a continuación (como pasar a la investigación
aplicada o trabajar en un nuevo producto), es probable que la persona
busque en otra parte. Un buen científico de IA recibe muchas ofertas; las
empresas necesitan articular lo que las diferencia para poder cerrar el trato.
Machine Translated by Google

Activando la capacidad organizacional 227

Desafortunadamente, la escasez de científicos en IA no es el único problema


que enfrentan las organizaciones hoy en día. También se ha vuelto más difícil
contratar ingenieros de datos, aquellas personas responsables de proporcionar a los
científicos de IA y a otros miembros de una organización los datos limpios y
confiables que necesitan. Una búsqueda realizada en Glassdoor encontró que había
cuatro veces más puestos de trabajo de ingeniería de datos disponibles que ofertas
de trabajo para científicos de IA, y el salario inicial a menudo comenzaba en 125.000
dólares o más al año. Las empresas deben estar preparadas para un proceso de búsqueda activa

Barra lateral: Carreras en IA


Cada vez más colegios y universidades ofrecen especialidades en
inteligencia artificial. Están los sospechosos habituales, como Carnegie
Mellon, Stanford, MIT, Columbia y Harvard, pero escuelas públicas como
la Universidad Estatal de Colorado y la Universidad del Este de Michigan
también tienen programas bien considerados. Los profesionales capacitados
en IA pueden seguir carreras como ingenieros de aprendizaje automático,
científicos de datos, científicos investigadores, ingenieros de visión por
computadora y desarrolladores de inteligencia empresarial. Muchas
empresas ya han contratado a académicos de primer nivel para impulsar sus programas de IA
En 2013, Google contrató al científico informático Geoffrey Hinton para
dirigir su esfuerzo de investigación en IA. Facebook contrató a Yann LeCun,
que trabaja en las áreas de aprendizaje automático y visión por
computadora, para que sea su científico jefe en inteligencia artificial. En
2015, Uber se llevó a casi 50 investigadores y científicos del Centro
Nacional de Ingeniería Robótica de Carnegie Mellon, incluido el principal
especialista en robótica y automatización, David Stager, ahora ingeniero líder de sistemas.
liderando la iniciativa de Uber para construir vehículos autónomos. Yoshua
Ben­gio es profesor de la Universidad de Montreal y asesor de Microsoft;
Su Instituto de Algoritmos de Aprendizaje de Montreal (MILA) se asoció
con IBM. Hay muchos otros ejemplos. Aunque se espera que las
universidades matriculen a 400.000 graduados en ciencias de la
computación (no solo en IA) para 2020, se estima que habrá 1,4 millones
de puestos de trabajo por cubrir para ese momento.4
Machine Translated by Google

228 CONSTRUYENDO LA CAPACIDAD DE IA DE SU EMPRESARIAL

Alfabetización de datos, experimentación y


Decisiones basadas en datos

Debido a la probabilidad de que la IA crezca hasta convertirse en una parte aún


mayor de las empresas, una cultura de datos saludable es cada vez más
importante. Tener una capacidad de inteligencia artificial o análisis dentro de la
organización sin tener la cultura de datos adecuada para aprovecharla por
completo disminuye su poder. Los ejecutivos y el CoE de IA deben trabajar
juntos para planificar la transición hacia una toma de decisiones más basada
en datos dentro de la organización. En el período de transición actual, hay tres
aspectos de la cultura de datos que vale la pena señalar.
Conocimiento de datos: la información más completa y actualizada del
mundo no es valiosa para un empleado que no puede leerla ni utilizarla. Es
necesario que exista un plan y herramientas para capacitar a los empleados
para que puedan utilizar los datos que se convertirán en una parte más
omnipresente de sus trabajos. Una mayor alfabetización en datos también
cambia las inclinaciones culturales de quienes la adquieren. Además de la
capacitación, es necesario habilitar un mercado de datos consistente (consulte
el Capítulo 9) para los usuarios empresariales. Cuando los usuarios
empresariales, los científicos de IA y los ingenieros de TI utilizan el mismo
mercado y catálogo de datos, empiezan a hablar el mismo lenguaje de datos.
Otra forma de fomentar esto es simplemente promover la utilización de más
datos en reuniones periódicas. Ilustre a los asistentes las áreas en las que se
tomaron mejores decisiones porque se basaron en datos.
Experimentación: como se mencionó anteriormente, en la IA, la iteración
es un componente esencial del éxito. Un enfoque de prueba y aprendizaje
para los experimentos ayuda a encontrar los mejores casos de uso, conjuntos
de datos y modelos predictivos. La experimentación frecuente también fomenta
una cultura corporativa más centrada en los datos. Las empresas basadas en
datos más exitosas no temen cometer “errores”; están constantemente
probando ideas. Dirigir un equipo de IA se parece más a supervisar numerosos
experimentos que a simplemente proporcionar tareas sencillas donde se
conocen los resultados esperados. Pero los experimentos deben realizarse con
rigor. Experimentar no significa simplemente probar algo para ver si funciona o
no. Requiere diseños de experimentos bien pensados,
Machine Translated by Google

Activando la capacidad organizacional 229

y grupos de control y grupos de prueba establecidos para aprender de las


hipótesis. El principal impulsor para avanzar hacia una cultura de experimentación
es la creación de nuevos conocimientos. Cuantos más experimentos pueda
realizar una empresa, mayor será su cultura de aprendizaje. Y por “aprender” no
nos referimos a capacitarnos sobre el conocimiento existente; Nos referimos a
crear y utilizar nuevos conocimientos, a partir de experimentos.
El “fracaso” no es sólo una opción, sino que es necesario para aprender.
Un estudio reciente realizado por Robert Wilson, profesor asistente de psicología
y ciencias cognitivas de la Universidad de Arizona, y otros, encontró que las
computadoras aprendían tareas más rápido cuando acertaban el 85% de las
veces y fallaban el 15% de las veces. 5
Tener éxito en la experimentación requiere un cambio de mentalidad en la
forma en que se ven los experimentos. Puede que no sean necesarios 9.999
intentos para lograr el éxito, pero es dudoso que un primer intento encuentre la
solución óptima; Los empleados deben acostumbrarse a esto. Un experimento
es una hipótesis que se puede demostrar que es verdadera o falsa. Si no hay
posibilidad de que sea falso, no es un experimento. Consideremos el ejemplo de
una empresa en la que el equipo directivo decidió cambiar su cultura para aceptar
la experimentación. Fue un desafío. La propia dirección tuvo que aprender a
hablar y comportarse de manera diferente, así como cambiar la forma en que
exigían responsabilidades a los empleados.
Tomó tiempo. Pero finalmente tuvo éxito. Los ejecutivos dejaron de hablar de
fracaso y empezaron a hablar de hipótesis validadas o invalidadas, y las hipótesis
invalidadas fueron consideradas no como fracasos sino como ayudas para dar
forma a experimentos futuros.
Esta empresa entendió que no permitir que la gente fracasara significaba no
permitir que la gente experimentara y tuviera éxito, y que sin experimentación no
se desarrollaría nada nuevo, incluidos nuevos algoritmos de IA exitosos.

Decisiones basadas en datos: se puede encontrar una cultura madura basada


en datos en empresas donde los datos y los algoritmos respaldan las decisiones.
Esto no significa que la empresa genere montones de informes todos los días o
simplemente utilice herramientas de inteligencia empresarial. La clave para crear
una cultura basada en datos es mejorar la intuición con datos y modelos. Los
científicos se refieren a esta manera de tomar decisiones como decisiones
basadas en evidencia. Sin embargo, no se basan únicamente en datos. El
Machine Translated by Google

230 CONSTRUYENDO LA CAPACIDAD DE IA DE SU EMPRESARIAL

Los datos deben combinarse con intuición, creatividad, flexibilidad, experiencia


personal y una perspectiva neutral para que sean plenamente valiosos para las
empresas.
La alfabetización y la experimentación en materia de datos son necesarias para
avanzar hacia decisiones más significativas basadas en datos en toda la empresa.
Además, los usuarios deben estar capacitados y sentirse cómodos tomando
decisiones en condiciones de incertidumbre, porque la mayoría de los modelos
basados en datos son probabilísticos. Para ayudar con esto, el CoE de IA y el equipo
de gestión pueden planificar una serie de intervenciones para fomentar decisiones
más basadas en datos. Estos pueden comenzar cuando la gerencia pide a los
equipos de negocios que expliquen los datos que aparecen en los informes que se
les presentan (posdecisión), y luego avanzar para pedirles a los equipos que
expliquen por qué una decisión debe tomar una determinada dirección basándose
en múltiples modelos alternativos basados en datos (predecisión). Finalmente, la
conversación puede pasar a cuestiones de optimización: preguntas como, de todos
los modelos posibles, ¿por qué una determinada opción es la mejor? Hemos visto
que estas tres etapas han tenido éxito en hacer que las empresas con conocimientos
de datos adopten decisiones basadas en datos.

Conclusión
En esta parte del libro, hemos cubierto cómo desarrollar una estrategia de IA para
toda la empresa y cómo darle vida con las personas, los procesos y la tecnología
adecuados. En la Parte IV del libro, cubriremos más detalles sobre el proceso y las
decisiones comerciales involucradas en él con un ejemplo práctico de un modelo y
entraremos en más detalles sobre los subcomponentes de la arquitectura y cómo
funcionan en diferentes patrones de soluciones.

Notas

1. Batería (22 de agosto de 2017). Cómo sortear el “muro de Moore”: Ali Ghodsi,
director ejecutivo de Databricks, se esfuerza por hacer que la IA sea más accesible
para Fortune 2000. https://www.battery.com/powered/databricks_getting_
around_moores_wall/ (consultado el 30 de septiembre de 2019).
Machine Translated by Google

Activando la capacidad organizacional 231

2. CNBC (11 de julio de 2019). Amazon planea gastar 700 millones de dólares para capacitar
a un tercio de su fuerza laboral estadounidense en nuevas habilidades. https://www.cnbc.
com/2019/07/11/amazon­planea­gastar­700­millones­para­recapacitar­a­un­tercio­de­su­
fuerza­trabajador­en­nuevas­habilidades­wsj.html
(consultado el 30 de septiembre de 2019).

3. New York Times (11 de septiembre de 2015). A Uber le gustaría comprar su departamento
de robótica. https://www.nytimes.com/2015/09/13/
magazine/uber­would­like­to­buy­your­robotics­department.html (consultado el 30 de
septiembre de 2019).
4. Tech.Co (13 de marzo de 2014). 1,4 millones de empleos en informática en Estados Unidos
para 2020, pero menos graduados en informática. https://tech.co/news/
Computing­jobs­computer­science­grads­2014­03 (consultado el 30 de septiembre de
2019).

5. Comunicaciones de la naturaleza (5 de noviembre de 2019). La regla del ochenta y cinco


por ciento para un aprendizaje óptimo. https://www.nature.com/articles/
s41467­019­12552­4 (consultado el 16 de diciembre de 2019).
Machine Translated by Google
Machine Translated by Google

Parte IV

Profundizando en
Arquitectura y
modelado de IA

233
Machine Translated by Google
Machine Translated by Google

Capítulo 12
Arquitectura y
Patrones técnicos

La nueva primavera en IA es el desarrollo más significativo en informática


en mi vida. Cada mes, aparecen nuevas e impresionantes aplicaciones
y nuevas técnicas transformadoras. Pero estas poderosas herramientas
también traen consigo nuevas preguntas y responsabilidades.
Sergey Brin, cofundador de Alphabet

Este capítulo cubre la arquitectura técnica de la plataforma de IA, ampliando


la descripción de alto nivel del Capítulo 9 y profundizando en los
subcomponentes. Para comprender cómo funciona la plataforma, veremos
con más detalle las cuatro capas centrales que revisamos allí, así como los
elementos dentro de cada capa. Estas capas son un administrador de datos
para la gestión de datos, un creador de modelos para la experimentación
y validación de modelos, un activador de inferencia para la implementación
y el servicio de modelos, y un administrador de rendimiento para el
monitoreo continuo de la producción. Estos componentes respaldan el ciclo
de vida de la IA discutido en el Capítulo 8. También discutiremos patrones
de diseño sobre cómo usar la plataforma en varios escenarios de solución,
incluidos chatbots y asistentes virtuales inteligentes, motores de
personalización y recomendación, detección de anomalías, dispositivos
físicos de IoT, y una fuerza laboral digital.

235
Machine Translated by Google

236 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Arquitectura de plataforma de IA

En lugar de ensamblar una plataforma de IA desde cero, es común utilizar plataformas


de aprendizaje automático basadas en la nube, disponibles comercialmente y
desarrolladas por empresas de software de renombre. Microsoft Azure, Amazon AWS
y Google Cloud proporcionan estas plataformas base, entre otras. Sin embargo, gran
parte de este software disponible comercialmente no tiene todos los componentes
que los científicos de IA necesitan durante el ciclo de vida de la IA. Si faltan estos
componentes, las empresas pueden llenar los vacíos construyendo las piezas que
faltan internamente o adquiriendolas como herramientas de código abierto o
aplicaciones disponibles comercialmente que pueden integrarse en la plataforma base
de IA.

Cuidador de datos

El data minder se utiliza para gestionar la integración y los datos de una plataforma.
Este componente es donde se recopilan y limpian los datos y donde se controla el
acceso apropiado a esos datos. Esta capa incluye lagos de datos, bases de datos,
archivos de datos y almacenes de datos, con entradas tanto de fuentes de información
de toda la empresa como externas.

Las fuentes de datos son las ubicaciones principales desde las cuales se
recopilan datos de primera mano. Estos podrían incluir el sistema de gestión de
relaciones con el cliente (CRM) de la organización, el sistema de planificación de
recursos empresariales (ERP), el sistema de gestión de pedidos (OMS), registros del
sitio web o aplicación móvil del cliente, dispositivos o sensores de Internet de las cosas
(IoT), aún o cámaras de video, dispositivos portátiles o cualquier otra fuente. Algunos
de los datos y la capa de integración pueden incluso estar enfocados externamente:
es decir, ingiere datos de fuentes que están fuera de la empresa. Estos pueden llegar
a través de un proceso por lotes o de transmisión por secuencias.

El almacén de datos sin procesar es donde se almacenan todos los datos


entrantes sin modificaciones, ya sea que los datos estén estructurados, lo que podría
significar que provienen de una tabla de base de datos, incluidos datos de series
temporales, o no estructurados, como un archivo de imagen de un dron o un satélite. , un vídeo o un
Machine Translated by Google

Arquitectura y patrones técnicos 237

Documento de Word. El almacén de datos sin procesar está destinado a almacenar datos del

sistema fuente "tal cual", pero se requieren validaciones para garantizar que sean consistentes
con los datos del sistema fuente. Estas validaciones pueden incluir validación de estructura y
formato y validación de recuentos de registros de origen y destino o distribución y elaboración

de perfiles de datos. Los datos no válidos se marcan y almacenan para su posterior análisis
y corrección.
Las canalizaciones de datos se crean para hacer fluir datos desde diferentes orígenes
a varios destinos. Luego, los datos se procesan aún más (se someten a desinfección y
filtrado, estandarización, normalización, verificaciones de integridad referencial y otros tipos
de curación) para que los datos se puedan utilizar para análisis posteriores e inteligencia
artificial. Luego, estos datos se almacenan en el almacén de datos curado . En esta etapa se
realiza cierta manipulación de datos o transformación basada en la lógica empresarial,
además de hacer que los procesos posteriores sean más eficientes.

Los laboratorios de datos son donde los científicos de IA extraen sus datos para
utilizarlos durante todo el proceso de experimentación y modelado. Luego realizan los
cambios necesarios, incluidas transformaciones, reducción de sesgos, escalamiento u otros
pasos de preparación de datos necesarios antes o durante el modelado. Los laboratorios de
datos pueden considerarse como entornos de desarrollo para los modeladores, y hay al
menos una persona, o un pequeño equipo de personas, trabajando en cada laboratorio.

El componente de gobierno de datos gestiona el flujo de trabajo de gobierno y


administración de datos y aprovecha el componente de calidad de los datos para comprender
la calidad de los datos y determinar qué acciones se requieren para garantizar que los usos
de los datos sean consistentes con las políticas corporativas y las leyes aplicables. y
regulaciones.
El componente del sintetizador de datos se utiliza para hacer dos cosas. En primer
lugar, sintetiza nuevos datos para la experimentación con modelos cuando la información
real aún no está disponible. Los datos sintéticos son datos que se generan mediante
programación, a diferencia de los datos del mundo real, que se recopilan. En segundo lugar,
sintetiza datos cuando existen preocupaciones sobre la privacidad de los datos existentes.
Los datos sintéticos se generan con distribuciones estadísticas controladas con precisión que
reflejan escenarios del mundo real.

A menudo, el modelo de datos artificiales se configura para imitar un modelo de datos reales.
Los modelos de IA entrenados con datos sintéticos pueden eventualmente volver a entrenarse
con datos del mundo real una vez recopilados.
Machine Translated by Google

238 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

El componente de etiquetado de datos también se utiliza para etiquetar


conjuntos de datos existentes y prepararlos para el aprendizaje supervisado. La
etiqueta es el atributo objetivo que el algoritmo de aprendizaje automático intenta
predecir. Este componente gestiona un flujo de trabajo para el etiquetado humano,
pero también puede tener un componente de etiquetado automatizado. Ofrece las
funciones a un usuario que luego ingresa una etiqueta (de forma libre o de un conjunto predeterminad
Este etiquetado se puede realizar con datos estructurados, audio, imágenes y otros
tipos de datos. Por ejemplo, a un etiquetador humano se le podría pedir que dibuje
límites alrededor de varios objetos en una imagen.
Hay dos lagos de datos para almacenar datos del procesamiento. El lago de
datos de características almacena cualquier característica calculada que se
desarrolló a partir de los datos seleccionados y que se puede reutilizar. Estos
incluyen incrustaciones creadas para datos categóricos como clientes o productos.
Las incrustaciones son representaciones matemáticas de artículos categóricos,
como productos minoristas, que convierten cada artículo y sus propiedades en un
vector numérico. El lago de datos de insights almacena los resultados del modelo
calculado al ejecutar los modelos por lotes o en tiempo real. Los usuarios suelen ver
la información del lote a través de informes o visualizaciones. Los resultados de los
resultados del modelo en tiempo real se devuelven a través de la capa API cuando
se llama al modelo a través de una API, pero estos resultados también se almacenan
en el lago de datos de insights para monitorear el rendimiento del modelo.

El gráfico de conocimiento es un gráfico de entidades, relaciones y otra


información recopilada a partir de datos de texto no estructurados, como documentos
de Word y archivos PDF. Se utiliza para localizar de manera más eficiente y precisa
información que estaba en los documentos. A menudo, hay más de un gráfico de
conocimiento, dependiendo del propósito para el cual fue creado (por ejemplo, para
encontrar respuestas a las preguntas de un asistente virtual sobre la experiencia de
las personas en una empresa o sobre las políticas de la empresa).

El mercado de datos es una vista completa de todos los datos y funciones


disponibles para los científicos de IA (y otros usuarios). Esta información es
fácilmente navegable para permitir a los usuarios comprender qué datos están
disponibles e incluye descripciones de los datos, metadatos asociados, información
sobre las relaciones entre los elementos de datos, linaje de datos, etc. En muchos
casos, la información disponible
Machine Translated by Google

Arquitectura y patrones técnicos 239

También incluye perfiles de datos como recuentos y distribución de las filas de datos. Los
científicos de IA, así como los analistas de negocios, los usuarios de negocios y los
desarrolladores de inteligencia de negocios (BI), utilizan el mercado de datos para
comprender todos los datos disponibles en la empresa.
Este mercado de datos es clave para permitir la alfabetización en datos y una cultura de
decisiones basadas en datos dentro de una empresa.

Creador de modelos

El creador de modelos, también conocido como capa de experimentación, es donde los


científicos de IA desarrollan, validan e iteran sus hipótesis.
Esta capa debe respaldarlos mediante el entrenamiento de potencialmente cientos de
modelos antes de que lleguen al modelo ideal para un caso de uso específico. También
debería ayudarlos a través de la evaluación de riesgos del modelo para cada modelo y en
el desarrollo de las correcciones necesarias. El creador de modelos tiene tres grupos de
componentes para que los utilicen los científicos de IA (que se muestran como llaves en el
componente del creador de modelos en la Figura 12.1): para trabajar con los datos, para
crear el modelo y para garantizar el modelo.

Los componentes de datos de esta capa son para que los utilicen los científicos de IA
para que puedan comprender sus conjuntos de datos antes de pasar a los pasos de
modelado. El componente de visualización de datos es un conjunto de bibliotecas que
permiten al usuario crear fácilmente varias visualizaciones. El componente de preparación
de datos es un conjunto de bibliotecas que ayudan con la imputación de datos faltantes y
los convierten al formato correcto para el modelado. El analizador de datos exploratorio
ayuda a descubrir patrones, encontrar anomalías, buscar sesgos en los datos y comprender
varios resúmenes estadísticos de los datos. El explorador de señales encuentra
correlaciones en un conjunto de datos cuando se le proporciona un lago de datos y una
columna de datos objetivo para predecir. Busca qué otras características están
correlacionadas y son probablemente predictores para esta columna de destino. Aparte
del tiempo, la ventaja de un enfoque automático sobre uno manual es la capacidad de
encontrar patrones inesperados más fácilmente.

Los científicos de IA utilizan componentes de modelado para desarrollar sus modelos.


Los marcos de algoritmos incluyen varios tipos de algoritmos que se pueden entrenar con
los datos para crear modelos. Marcos como
Machine Translated by Google

SISTEMAS DE COMPROMISO Negocio Conversacional


Plataforma de BI
Aplicaciones Aplicaciones

ACTIVADOR DE INFERENCIA GERENTE DE DESEMPEÑO

Pruebas automáticas y API y robots


Implementación de funciones Coreógrafo Puerta de enlace API Deriva de características
Garantía Seguimiento de KPI

aírotiduA
Envase IA implementada IA pública Modelo
Implementación del modelo A prueba de fallos Robots RPA Disparador a prueba de fallos
Gestión Modelos Servicios Actuación

FABRICANTE DE MODELOS
Datos Modelo Garantía

Datos Preparación de datos Característica Algoritmo


Selector de modelo Justicia Perímetro Canalización modelo
Visualización Bibliotecas Generador Marcos
Modelo

Exploratorio Modelo Inclinación Modelo Modelo Fuente


Explorador de señales Entrenamiento modelo Sensibilidad
Analizador de datos Optimizador Regularizador Intérprete Gestión

FUENTES DE DATOS ADMINISTRADOR DE DATOS

Transmisión Datos Datos


… Gobernancia
Tubería Mercado
Crudo Curado Datos Funciones
Perspectivas
Interno Datos Datos e incrustar.
Lote laboratorios
Sintetizador de datos/
Calidad de datos Conocimiento
Tubería Etiquetadora
Grafico

Externo INFRAESTRUCTURA Hola rendimiento Premisa en la nube


Almacenamiento Escalado automático
Informática Integración

Figura 12.1 Componentes de la arquitectura de una plataforma de IA.

240
Machine Translated by Google

Arquitectura y patrones técnicos 241

scikit­learn, TensorFlow, PyTorch y otros se configuran y administran aquí.


Estos marcos incluyen algoritmos que cubren simulación y optimización,
detección de anomalías, reconocimiento de patrones, predicción, extracción de
conocimientos y potencialmente otros.
El generador de características crea y evalúa características derivadas
generadas mediante la combinación de características de datos existentes. Por
ejemplo, si hay dos funciones base llamadas fecha de inicio y fecha de
finalización, el generador de funciones crea una función (duración) que es la
diferencia entre las dos. Luego determina si esta característica derivada predice
el objetivo o no. El generador de características es similar al explorador de
señales, pero genera y evalúa características derivadas en lugar de simplemente
trabajar en las características base.
La capacitación de modelos incluye diferentes formas de configurar los
modelos y los diferentes tipos de aprendizaje que se pueden aprovechar. El
modelado incluye configuración de reglas para RPA y motores de inferencia,
entrenamiento por lotes para modelos de aprendizaje automático y aprendizaje
profundo, entrenamiento en línea mediante aprendizaje por refuerzo, aprendizaje
distribuido (o federado) para dispositivos perimetrales o combinaciones de
estos. El regulador de sesgo se utiliza en el proceso de modelado durante el
entrenamiento para penalizar los modelos por un alto sesgo y baja precisión.
Este proceso garantiza que se gestione el sesgo y que el modelo no optimice
simplemente el poder predictivo independientemente del sesgo. Es parte de los
pasos del modelo de gobernanza del riesgo discutidos en el Capítulo 10. El
selector de modelos ayuda a comparar el desempeño de los diferentes
experimentos para seleccionar el óptimo. El optimizador de modelos ayuda a
ajustar los hiperparámetros de los modelos de IA para obtener el mejor
rendimiento. Ejecuta la capacitación y evaluación del modelo varias veces.
También realiza un seguimiento de los metadatos y utiliza métodos de
optimización para encontrar la configuración óptima de hiperparámetros para el
rendimiento del modelo. Sin este componente, se puede dedicar una gran
cantidad de tiempo a ajustar los hiperparámetros manualmente, lo que puede dificultar la bús
El componente de gestión de modelos ayuda a realizar un seguimiento de
los modelos y sus cambios para documentar qué experimentos de modelos se
han realizado previamente y cómo reproducir los resultados de un experimento
con precisión. Este componente utiliza herramientas de gestión de configuración
para realizar un seguimiento de cosas como qué características se probaron y
Machine Translated by Google

242 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

descartados, qué modificaciones se realizaron en los canales de datos y qué recursos


informáticos se pusieron a disposición para respaldar una capacitación suficiente.
Junto con la información de configuración, la gestión de modelos acelera la
implementación consistente de servicios de IA al tiempo que ayuda a reducir el
trabajo redundante. La fuente del modelo es el repositorio de todo el código del
modelo. La canalización del modelo es el componente donde se gestionan las
configuraciones de la canalización del modelo, desde los datos hasta el modelado y
la implementación.

Activador de inferencia

El activador de inferencia implementa modelos en producción y potencia la IA


durante la inferencia en tiempo de ejecución. Los modelos generalmente se invocan
a través de una llamada API desde aplicaciones comerciales utilizando datos que no
formaron parte del entrenamiento y prueba del modelo. Luego los modelos se
ejecutan para hacer predicciones. El canal DevOps de integración continua e
implementación continua (CI/CD) alberga las herramientas que gestionan la
implementación del modelo, incluidas las pruebas automatizadas y la garantía del
modelo. El componente de prueba y aseguramiento ejecuta pruebas automatizadas.
Esta prueba incluye la validación del modelo para garantizar que el rendimiento del
modelo sea el esperado en cada nuevo entorno; pruebas de un extremo a otro para
validar que la canalización de datos sea accesible y que las API para el modelo estén
funcionando; y pruebas de riesgo de modelo, como equidad, condición de contorno
y pruebas de sensibilidad, que se analizaron en el Capítulo 10.

El componente de implementación del modelo empaqueta e implementa los


modelos de IA, generalmente en contenedores que se usarán a través de API para
uso en tiempo real, o dentro de una canalización de datos para uso en modo por
lotes. Los contenedores son un estándar abierto para empaquetar y distribuir
aplicaciones, incluidas todas las dependencias de software, de modo que el modelo
pueda ejecutarse de manera rápida y confiable en cualquier entorno. Hoy en día se
utilizan a diario tanto para la implementación de modelos como para la implementación
y ampliación de otros tipos de software. El componente de implementación de
funciones implementa código para cualquier transformación de funciones requerida en los datos de e
A veces esto está integrado en la API del modelo, pero a veces está separado de ella.
Machine Translated by Google

Arquitectura y patrones técnicos 243

Para la IA en tiempo de ejecución, existe una puerta de enlace API que


administra el conjunto de API a través de las cuales las aplicaciones pueden
invocar o activar modelos de IA previamente entrenados. Estos incluyen
modelos de IA implementados que se crearon en la plataforma y servicios
públicos de IA que están disponibles en los grandes proveedores de la nube,
como Microsoft Cognitive Services, una variedad de nuevas empresas y
muchas empresas más pequeñas. Por último, también se puede acceder a
los bots de RPA a través de las API según sea necesario. Las API son
llamadas por aplicaciones comerciales conectadas que consumen el modelo
o desde plataformas de inteligencia empresarial (BI) para recopilar y
presentar información en informes y paneles. Estas aplicaciones suelen
tener un usuario humano. Las API también se pueden habilitar para
diferentes tipos de máquinas, consumos, como sistemas autónomos que
sean síncronos o asíncronos pero que no tengan consumidor humano. A
veces, la interfaz de usuario de la aplicación en sí requiere API de IA, como
solicitudes de interfaces de usuario conversacionales en asistentes virtuales
o para control de gestos, seguimiento ocular, reconocimiento biométrico e
interfaces éticas (basadas en movimientos).
El coreógrafo se configura cuando varios modelos necesitan trabajar en
conjunto entre sí. A veces esto se maneja dentro de las aplicaciones
empresariales en la capa superior; en otras ocasiones, es mejor permitir que
las interacciones del modelo permanezcan en la capa de inferencia, según
el caso de uso específico. Algunos “productos inteligentes” son coreografías
compuestas de múltiples API de nivel inferior; por ejemplo, el análisis de
sentimientos de un archivo de voz puede incluir una coreografía entre una
API de conversión de voz a texto y varias API de procesamiento del lenguaje
natural (NLP).
El componente de seguridad permite a los administradores configurar el
mecanismo de seguridad para los modelos para los cuales dichos
mecanismos se han considerado necesarios. El componente de administración
de contenedores ayuda a administrar los contenedores implementados
detrás de las API modelo y organiza el almacenamiento, la red y la
infraestructura informática para garantizar que la aplicación esté disponible.
Aquí es donde se administran las configuraciones para escalar la cantidad
de contenedores para un modelo según el uso de CPU o GPU, logrando
tareas como reiniciar o reemplazar contenedores que fallan.
Machine Translated by Google

244 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Gerente de desempeño
Este administrador de rendimiento monitorea los modelos de IA en tiempo de
ejecución, es decir, modelos que están en uso activo. El componente de deriva de
características sigue la distribución de datos de todos los datos de entrada para cada
característica y los compara con la distribución conocida en el momento del
entrenamiento del modelo. Si estas distribuciones son suficientemente diferentes (es
decir, superan algún umbral diferencial), entonces es posible que sea necesario volver
a entrenar el modelo. La deriva es un indicador importante de cualquier problema
potencial en la precisión del modelo. El componente de rendimiento del modelo
monitorea si los resultados y las predicciones de un modelo aún cumplen con un
umbral definido. Por ejemplo, ¿la precisión del modelo sigue siendo igual o superior al
90 %? A veces, hay un desfase de tiempo entre el momento en que el modelo predice
algo y el momento en que ocurre el evento predicho, por lo que el rendimiento del
modelo es a menudo un indicador retrasado de la idoneidad de un modelo para su uso.
Lo que hemos cubierto hasta ahora son todos los componentes y subcomponentes
de una plataforma de IA sólida. Puedes pensar en esto como la vista estática de la
arquitectura. A continuación cubriremos la vista dinámica.

Patrones técnicos
Esta sección profundizará en una variedad de patrones técnicos para algunas
aplicaciones comunes de IA y aprendizaje automático, así como en cómo estas
aplicaciones pueden implementarse en un entorno de producción. Estos patrones
técnicos que describen cómo se utiliza la plataforma suelen aparecer en muchos
casos de uso. Puedes pensar en ellos como la vista dinámica de la arquitectura.

Asistente virtual inteligente

Un asistente virtual inteligente es un software que tiene una interfaz de usuario


conversacional o basada en mensajes que ayuda a los clientes y empleados a realizar
diversas tareas. Los ejemplos comunes incluyen Siri de Apple y Alexa de Amazon.
Las empresas están desarrollando más para ayudar a los empleados a hacer cosas
tales como obtener información inmediata.
Machine Translated by Google

Arquitectura y patrones técnicos 245

respuestas a preguntas sobre inversiones y ayudar a los clientes a hacer cosas como
obtener acceso conversacional a cuentas bancarias y brindar asesoramiento.

Para funcionar bien, los asistentes virtuales requieren algunos componentes básicos.
La primera es la capacidad de comprender la orden o pregunta de un usuario.
Si la entrada proviene de la voz, entonces el comando de voz debe traducirse a texto
mediante un modelo de voz a texto. Luego es necesario aplicar el procesamiento del
lenguaje natural al texto para comprender la intención del hablante. Por ejemplo, si un
orador pregunta "¿Cuál es el precio de las acciones de Microsoft?", el asistente virtual
debe poder interpretar la intención del usuario (el precio de las acciones) y la entidad o
entidades asociadas con la intención (Microsoft).

La complejidad de comprender una pregunta aumenta según la solicitud del usuario.


La pregunta puede tener varias entidades, como "¿Cuáles son los precios de las acciones
de Microsoft y Google?" o puede tener una entidad compuesta como “el sector
tecnológico”. La solicitud también puede tener múltiples intenciones, como "¿Cuándo será
el próximo vuelo disponible a Chicago y qué clima hace allí?"

Una vez que el sistema comprende la solicitud, el siguiente paso es determinar una
respuesta o proporcionar una respuesta. Si la solicitud es un comando como "Bajar el
volumen", entonces se puede llamar a una API para que actúe en consecuencia. Si es
una pregunta que requiere respuesta, se puede manejar de múltiples maneras. Para la
búsqueda de datos estructurados, como el precio de las acciones de Google, una llamada
API o una búsqueda en una base de datos pueden proporcionar una solución adecuada.
Si la respuesta está en datos no estructurados, entonces debe provenir de una solución
de modelado del conocimiento. Un ejemplo de modelo de conocimiento es un gráfico de
conocimiento que estructura el texto a partir de documentos. Puede ver los resultados de
un gráfico de conocimiento si busca algo como "¿Cuál es la altura de Barack Obama?"
Aunque el motor de búsqueda de Google proporciona enlaces a documentos que
contienen esta pregunta o palabras clave de la misma, en la parte superior de la página
también da la respuesta desde su gráfico de conocimiento.

El modelado de conocimiento pasa por múltiples pasos (ver Figura 12.2) para
desarrollar un depósito de conocimiento legible por máquina. Este proceso puede incluir
dividir el documento original en partes más pequeñas.
Machine Translated by Google

246 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Entender Solicitud y
Preguntar
Conocimiento Entender Ingerir
y generar Recolectar Conocimiento
Pregunta Modelado Documento Documentos
Discurso Conocimiento Repositorio

Manejo de preguntas Conocimiento de modelado

Figura 12.2 Sistemas de preguntas y respuestas basados en modelos de conocimiento.

segmentos, a veces llamados “unidades de respuesta”; extraer temas de


discusión y etiquetar la sección con esos temas; extraer entidades y
conceptos de cada oración del documento; y construir un gráfico de
conocimiento de estas entidades y conceptos y sus relaciones. Con este
enfoque, puede encontrar respuestas más precisas en el gráfico de
conocimiento o en las unidades de respuesta.
Por último, para que el asistente virtual funcione es necesario gestionar
las interacciones de los usuarios. Esta función incluye hacer preguntas
aclaratorias, confirmar qué va a hacer el asistente virtual para manejar una
solicitud y decidir cuándo hablar o responder o cómo presentar la información.
En algunos casos, un asistente necesita ayudar a los usuarios a través de
una conversación guiada, por ejemplo, si el cliente solicita un préstamo
hipotecario. En estos casos, el asistente virtual también necesita saber qué
pasos ya se han dado y qué debe suceder a continuación.

El objetivo del patrón de asistente virtual inteligente es interactuar con el


usuario de forma natural, utilizando el lenguaje natural a través de la voz o
texto y el tacto. En aplicaciones más recientes, las empresas también están
incorporando gestos, realidad aumentada y seguimiento ocular como modos
de entrada. Dado que los usuarios pueden hacer cualquier tipo de pregunta
de diversas formas, las empresas necesitan crear soluciones en las que la
capacitación en PNL pueda realizarse rápidamente y de manera continua sin
tener que elaborar manualmente el modelado de conocimiento. Se debe
incorporar el aprendizaje activo por parte del sistema a la solución para que
pueda recibir capacitación rápidamente sobre cualquier pregunta que aún no comprenda.
Machine Translated by Google

Arquitectura y patrones técnicos 247

Motores de personalización y recomendación


La personalización consiste en crear una experiencia individualizada para cada usuario
con el que interactúa una empresa, generalmente de forma digital.
En el pasado, se trataba simplemente de entregar el artículo correcto a la persona
adecuada, pero hoy en día es posible mucho más. Ahora se describe comúnmente
como proporcionar el elemento correcto (mensaje, contenido o producto) a la persona
adecuada en el momento adecuado utilizando el canal adecuado.
Para que este tipo de hiperpersonalización funcione, las empresas deben tomar
algunas medidas. Primero, se agregan varios tipos de información para cada cliente,
de modo que se puedan extraer conocimientos para comprender a ese cliente de
maneras más fructíferas. Estos datos pueden incluir perfiles y datos demográficos,
datos históricos de transacciones, datos del uso que hace el cliente de las aplicaciones
móviles o sitios web de la empresa, datos de impresiones de anuncios y potencialmente
otros tipos de datos de terceros.
Todos estos datos deben combinarse utilizando las identificaciones de los clientes.
Este tipo de almacén de datos se denomina plataforma de datos de clientes (CDP).
A continuación, se desarrollan y combinan múltiples modelos de IA para mejorar
la comprensión empresarial de cada cliente. Estos modelos podrían incluir predicciones
sobre qué productos probablemente comprarían los consumidores. ¿Cuál es su
sensibilidad al precio del producto? ¿Existe algún producto alternativo que preferirían?
¿Hay algún producto adicional que les gustaría, dado lo que están comprando? ¿A qué
canal responden mejor: correo electrónico, anuncios, mensajes?

¿Cuándo es el mejor momento para llegar a ellos y cuándo es más probable que
respondan positivamente? ¿Qué idioma en el anuncio o correo electrónico genera las
mejores tasas de respuesta? Estos modelos se utilizan en conjunto; por ejemplo,
dependiendo del producto a recomendar (modelo 1), el canal óptimo (modelo 2), la
hora del día (modelo 3) y el idioma a utilizar en el mensaje (modelo 4), el mensaje
adecuado se muestra al usuario. La figura 12.3 muestra un conjunto de muestra de
modelos (cuadros negros) en un negocio minorista que se utilizan para crear la
interacción correcta con el cliente (cuadros grises en la parte superior).

Finalmente, las interacciones con los clientes se organizan a través de los puntos
de contacto más relevantes a través de aplicaciones de orquestación del recorrido del
cliente. Los modelos de IA generan insights
Machine Translated by Google

Recomendar Envío directo


Oferta de envío directo Mejorar las operaciones
Producto en la aplicación Producto recomendado

Mejor
Recomendar Mejor oferta
Demanda
finalización Escribe por Pronóstico
por canal Canal

Mejor
Cliente Descubrir
Artículo novedoso Alterno
Toda la vida Amigo
Deseo Producto
Valor Razón
(Venta adicional)

Artículo Mejor Ideal


Predecir Futuro Llamar Cliente
Impulso coventa Precio
Evento de vida Compras Intención Amigo
Deseo Productos Punto

Propensión a
Cliente Usuario
comprar
genoma Intención
Mejor
Mejor Volumen de llamadas Tema
Oferta
Canal Pronóstico Modelado
Tipo

Cuenta Llamar
Buscar Social diablillo publicitario
Transacción Navegar Oferta
Actividad Centro

PLATAFORMA DE DATOS DE CLIENTES

Figura 12.3 Aprovechamiento de múltiples modelos para la hiperpersonalización.

248
Machine Translated by Google

Arquitectura y patrones técnicos 249

y hacer recomendaciones sobre los próximos pasos más apropiados.


El orquestador toma medidas al recibir la información o recomendación
y desencadenar la respuesta adecuada en otro sistema (consulte la
Figura 12.4). Estos pueden incluir cosas como enviar un correo
electrónico al cliente con una oferta o mostrar recomendaciones de
productos cuando el cliente navega por el sitio web o la aplicación de la
empresa. Debido a que hay muchos modelos expuestos a través de
API y muchos puntos de contacto del recorrido del cliente para
organizar, no utilizar un orquestador de recorrido crea cientos de
conexiones punto a punto que se vuelven imposibles de mantener a
largo plazo. Por este motivo, una solución de orquestación de viajes
es ideal.
La forma más común de generar recomendaciones es mediante el
procesamiento por lotes. Sin embargo, esto tiene sus desventajas. Una
es que los datos pueden volverse obsoletos entre sesiones. Otra es
que las recomendaciones pueden basarse en todo el historial del cliente
en lugar de solo en su sesión actual, lo que puede indicar qué le apetece
en ese momento. Por estas razones, cada vez más empresas están
creando motores de recomendaciones en tiempo real. La cuestión del
lote versus el tiempo real se trata en el Capítulo 9.

Web Móvil Correo electrónico Social Anuncio Digital Envío

Informes de viaje Orquestación del viaje Inteligencia

Contenido
Actas
Anuncio
CRM Inventario Centro de llamadas
Gestión Impresiones

Plataforma de datos del cliente

Figura 12.4 Orquestación de interacciones de personalización.


Machine Translated by Google

250 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Detección de anomalías

La detección de anomalías se utiliza habitualmente para identificar datos particulares


que difieren significativamente del resto de los datos de un conjunto de datos.
Detectar fraudes, diagnosticar tumores cancerosos, realizar análisis de riesgos e
identificar patrones en los datos para facilitar conocimientos son sólo algunas de las
aplicaciones en las que se utiliza la detección de anomalías. Para poder encontrar
anomalías, es necesario tener una descripción específica y detallada de cómo se
ven los datos "normales". Luego, se calculan las puntuaciones de anomalía para
cada nueva muestra de datos, comparando esta muestra con la norma del modelo.
Si la desviación excede un umbral predefinido, la muestra de datos se considera un
valor atípico o una anomalía.
La detección de anomalías comienza como una tarea no supervisada, porque
las anomalías surgen de patrones de datos desconocidos, por lo que no hay datos
etiquetados de los que aprender. Sin embargo, la detección de anomalías no
supervisada a menudo no cumple con las tasas de detección requeridas en muchos
casos de uso empresarial. En esos casos, se requieren datos etiquetados para refinar
el modelo. Esto puede ser crítico; En algunos casos, como en la detección del
cáncer, los modelos de alta precisión pueden significar la diferencia entre la vida y la muerte.
El quid de la detección exitosa de anomalías radica en el uso de un flujo de
trabajo (consulte la Figura 12.5) que comienza con el aprendizaje no supervisado,
agrupando los diferentes grupos de datos y revisando y etiquetando algunos
elementos del grupo. Ser capaz de iterar rápidamente a través de esto

Etiqueta Recuerdo y precisión

sin supervisión Revisar y etiquetar supervisado


Aprendiendo Algunos datos en cada uno Aprendiendo
Datos
(por ejemplo, agrupación) Grupo (por ejemplo, clasificación)

Figura 12.5 Actividades para la detección de anomalías.


Machine Translated by Google

Arquitectura y patrones técnicos 251

El proceso proporciona suficientes datos etiquetados para permitir el aprendizaje


supervisado de patrones de anomalías previamente identificados y etiquetados, mientras
que el proceso no supervisado continúa encontrando nuevos patrones de anomalías.
Las plataformas que permiten el etiquetado de datos, la experimentación y la
implementación de modelos rápidamente (idealmente de forma autónoma) son
fundamentales para ampliar con éxito la detección de anomalías.
Uno de los objetivos de la detección de anomalías es evitar falsas alarmas e
identificar tantas anomalías legítimas como sea posible. Para determinar la precisión de
la detección, utilizamos dos medidas: recuperación (el número de puntos anómalos
verdaderos predichos dividido por el número total de puntos anómalos verdaderos, tanto
positivos como falsos negativos) y precisión ( el número de puntos anómalos verdaderos
predichos dividido por el número de puntos anómalos predichos (tanto positivos verdaderos
como falsos positivos). Tanto la recuperación como las mediciones de precisión deben
calibrarse con precisión a lo largo del tiempo para detectar anomalías de manera efectiva.
Para ampliar esto para que funcione en la detección de anomalías en tiempo real,
creamos una "puntuación de anomalía" que muestra la "distancia" (en el espacio de
datos) de los datos entrantes tanto de los datos estándar como de los anómalos.

Utilizando esta distancia, los datos entrantes pueden preetiquetarse como anómalos o
normales, por ejemplo, para detectar fraudes con tarjetas de crédito en el momento de la
transacción.

Detección ambiental y control físico


Hay muchos ejemplos actuales de detección ambiental, un número cada vez mayor de
los cuales controlan sistemas físicos. En la fabricación, podemos utilizar este tipo de
capacidad para escenarios de salud y seguridad que pueden incluir mantener a una
persona segura al señalar cuando se está acercando demasiado a una condición insegura,
o hacer que el problema de perder cosas sea menos gravoso al señalar dónde se
encuentra un artículo perdido. podría ser con instrucciones sobre cómo encontrarlo. Pero
muchas aplicaciones van más allá de los entornos industriales. Esta capacidad hace
posible crear varias experiencias minoristas interesantes, incluidas compras para llevar
y asistencia inmediata y en el lugar cuando sea necesario. Hay muchos escenarios
convincentes habilitados por este patrón que recién están surgiendo.
Machine Translated by Google

252 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Los pasos que las empresas deben dar al implementar la IA para la detección
ambiental y el control físico son más complicados que los necesarios para configurar
sistemas de IA para otras empresas. Esto se debe a que se necesita una integración
mucho más estrecha entre los aspectos digitales y físicos de las operaciones. Este
patrón cubre el uso del aprendizaje automático y otros enfoques de IA en los que el
sistema interactúa con el mundo físico de alguna manera, utilizando el Internet de las
cosas (IOT). IoT es el conjunto de dispositivos que contienen componentes
electrónicos, sensores, actuadores y software que se conectan, recopilan e
intercambian datos. Los dispositivos de automatización del hogar, incluidos accesorios
como el termostato Nest, son un excelente ejemplo de IoT.

Los sistemas de IoT constan de dispositivos periféricos : dispositivos que se


encuentran más cerca de las máquinas (por ejemplo, un robot en una planta de
fabricación de automóviles) en lugar de cerca de los servidores de la red central de la empresa.
Estos dispositivos cuentan con sensores que detectan temperatura, humedad,
presión, gas, luz, sonido, identificación por radiofrecuencia (RFID), que permite leer
la información almacenada en una etiqueta adherida a un objeto, y comunicación de
campo cercano (NFC). que permite que los dispositivos inteligentes se comuniquen
con otros dispositivos electrónicos. También se pueden utilizar otros dispositivos
como sensores ultrasónicos, medidores de flujo y cámaras.
El flujo de información puede ser unidireccional, como una cámara inteligente
que realiza reconocimiento facial en el sitio (en el borde de la red), o puede ser
bidireccional, como un dispositivo termostato IoT que mide la temperatura ambiente y
ajusta el termostato en consecuencia. Los dispositivos de borde también pueden
incluir actuadores para controlar maquinaria. Estos actuadores funcionan en conjunto
con interruptores, relés, computadoras industriales adaptadas para su uso en el
control de procesos de fabricación conocidos como controladores lógicos
programables (PLC) y motores. A veces, los dispositivos de borde actúan como
sensores y actuadores.

El uso más común de este patrón es permitir que un sistema realice una tarea,
alcance una meta o interactúe con su entorno con una participación humana mínima
o nula. Este patrón se puede utilizar para controlar de forma autónoma el hardware
de un sistema, minimizando así el trabajo humano, o para tomar decisiones o ajustes
rápidamente en sistemas que necesitan inteligencia donde la intervención humana
sería demasiado.
Machine Translated by Google

Arquitectura y patrones técnicos 253

lento. Termostatos inteligentes, vehículos autónomos, maquinaria automatizada


dentro de plantas de fabricación y otras máquinas y robots son ejemplos del uso de
este patrón, y ya se están fabricando una serie de productos adicionales llamados
inteligentes, desde lo mundano (por ejemplo, comederos para mascotas hasta )
hasta lo exótico (por ejemplo, exoesqueletos humanos).
Cada año se unen más dispositivos, grandes y pequeños, al mundo de IoT.
Una parte fundamental de este patrón es determinar la naturaleza de un objeto
cuando se le suministra algún tipo de datos estructurados o no estructurados. Estos
datos podrían incluir imágenes, videos, audio o datos de sensores de IoT; el objetivo
es etiquetar y etiquetar algún aspecto de los datos identificándolos, reconociéndolos
o clasificándolos. Los casos de uso incluyen reconocimiento de objetos e imágenes,
reconocimiento facial, reconocimiento de sonido y audio, reconocimiento de escritura
y texto, detección de gestos y cualquier clasificación de comportamiento basada en
el movimiento.
La arquitectura general de IoT consta de tres capas (consulte la figura 12.6):
la capa de borde, la capa de servicios de IoT y la capa empresarial. La capa
perimetral consta de dispositivos perimetrales, como sensores, y la puerta de enlace
de IoT: el dispositivo o programa de software que conecta la nube con controladores,
sensores y máquinas inteligentes. Los dispositivos pueden distribuirse en una amplia
variedad de ubicaciones según el caso de uso, lo que limita su comunicación a una
red de alcance relativamente corto debido a limitaciones de conectividad,
procesamiento y energía.

La puerta de enlace de IoT entra en juego cuando los dispositivos necesitan


comunicarse con el resto del mundo. La puerta de enlace de IoT generalmente
contiene un almacén de datos para los datos de los dispositivos de IoT, uno o más
servicios para analizar los datos que provienen directamente de los dispositivos o
del almacén de datos y controlar las acciones basadas en los datos entrantes. La
capa de IoT también podría tener inteligencia de punta con diferentes niveles de
capacidades de procesamiento, lo que permitiría a los modelos de aprendizaje
automático sacar inferencias si hay suficiente potencia informática disponible.
Los datos de la capa perimetral se consolidan, procesan y analizan mediante
la capa de servicios de IoT. Esta capa también gestiona dispositivos, activos físicos
y procesos y envía comandos de control desde la capa empresarial a la capa
periférica. Los datos de las capas de servicios perimetrales y de IoT son recibidos
por la capa empresarial, que es la
Machine Translated by Google

Capa de borde Capa de servicios de IoT Capa empresarial

Servicios de IoT

Recopilación de datos y Datos de gemelos digitales


Transformación Agregación

datos comando de control datos


Dispositivos IoT con Puerta de enlace API
Orquestación
sensores y actuadores

Puerta de enlace de IoT


control Orquestación de servicios control Entrenamiento de IA

Aplicaciones
Configuración Inferencia de IA
Gestión (para acciones empresariales)
Inferencia de IA

Inferencia de IA
Inferencia de IA
Almacenamiento y reenvío de datos (para comandos de control)

Figura 12.6 Patrón de interacción para IoT y dispositivos de borde.

254
Machine Translated by Google

Arquitectura y patrones técnicos 255

capa en la que nos hemos centrado en capítulos anteriores. Los modelos capacitados
en la capa empresarial luego desencadenan reacciones a nuevos datos de sensores
que ingresan y envían acciones de regreso a los actuadores, transmitiendo disparadores
simples como alertas. Los desencadenantes más complejos incluyen la emisión de
comandos de control a las otras dos capas para modificar instrucciones, tareas o
procesos principales o del subsistema.
Los modelos de aprendizaje automático suelen entrenarse en la capa empresarial,
una vez que los datos se han agregado allí. La inferencia del modelo también puede
ocurrir en esta capa, como se describió anteriormente, o el modelo puede instalarse en
el dispositivo perimetral para responder en el entorno local. Actualmente se está
explorando un nuevo enfoque, llamado aprendizaje federado, para entrenar modelos
de aprendizaje automático en dispositivos perimetrales sin tener que llevar todos los
datos a una ubicación central. En la capa empresarial, es fundamental garantizar que
los metadatos sigan siendo precisos. Saber, por ejemplo, qué sensores están
conectados a qué componente, qué componentes forman parte de una misma máquina
y qué máquinas forman parte de la misma planta o fábrica es necesario para desarrollar
un gemelo digital.

Fuerza laboral digital

Este patrón utiliza una combinación de automatización de procesos robóticos (RPA) y


aprendizaje automático para crear una fuerza laboral virtual. Estos empleados virtuales
siguen al pie de la letra procesos predefinidos y documentados, sin errores, omisiones
o desviaciones. Ser capaz de aprovechar este tipo de fuerza laboral digital reduce los
costos operativos y el retrabajo y permite la creación de trabajadores bajo demanda a
medida que las cargas de trabajo cambian debido a cambios en la demanda o en la
oferta causados por estacionalidad, eventos climáticos u otros efectos similares.

La fuerza laboral digital está formada por bots que realizan determinadas
actividades comerciales para automatizar un proceso comercial. Después de iniciar
sesión en los sistemas de TI empresariales como lo haría un usuario, utilizando
escritorios virtuales, estos robots pueden ejecutar múltiples procesos comerciales
paralelos simultáneamente. Generalmente, existen tres tipos de trabajo que realizan
los robots digitales de la fuerza laboral: automatización de acciones, automatización de
análisis y automatización de decisiones.
Machine Translated by Google

256 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

La automatización de acciones a veces se denomina "dedos en las teclas".


Los bots que realizan automatización de acciones pueden conectarse a otros sistemas
de software, como un sistema de planificación de recursos empresariales (ERP),
generalmente a través de la pantalla frontal. Estos bots se centran en actividades de
gran volumen, repetitivas y basadas en reglas que se activan digitalmente, como
realizar acciones cuando se recibe un archivo de factura. Esto podría ocurrir durante el
cierre de las actividades del día hábil para una organización de comercio de productos
básicos, por ejemplo, cuando se pueden utilizar bots para ejecutar y monitorear una
serie de procesos en múltiples sistemas, como valoraciones, simulaciones, generación
de informes y conciliación de datos.
La automatización del análisis es la recopilación e interpretación de información,
como comentarios de formato libre en lenguaje natural en un sistema de transacciones.
Los bots pueden ingerir datos de mercado de diferentes fuentes no estandarizadas en
un formato estructurado (por ejemplo, datos de la web o feeds) o datos no estructurados
(por ejemplo, correos electrónicos de corredores, documentos de Word, archivos
adjuntos en PDF). Luego, los robots extraen y transforman datos en plantillas de
información estándar y los introducen en sistemas posteriores. En algunos casos, un
bot puede llamar a una API de IA para el reconocimiento de imágenes, el
reconocimiento óptico de caracteres (OCR) o el procesamiento del lenguaje natural, según sea necesar
La automatización de decisiones es la automatización de una decisión en nombre
de un usuario en función de algunas políticas definidas, o la capacidad de un bot de
hacer una recomendación a un usuario que luego puede tomar la decisión final. Un
ejemplo es cuando se recibe una factura de una contraparte de comercio de materias
primas en forma de correo electrónico. El robot compara el monto facturado con el
monto en su sistema comercial. Si la diferencia de valor es menor que un monto
específico en dólares (establecido por la política), se crea un ajuste de efectivo y se
marca la factura para el pago. De lo contrario, deja la factura para que la revise un
analista humano. Este es un ejemplo trivial de “decisión”, pero en situaciones más
complejas, el bot también puede llamar a una API de aprendizaje automático para
ayudar a tomar una decisión, como en un proceso de aprobación de una solicitud de
préstamo pequeño.
La figura 12.7 muestra una arquitectura típica de fuerza laboral digital. Un servidor
de bot almacena las configuraciones del bot RPA y las tareas específicas que el bot
debe ejecutar en los sistemas. Una sala de control de bots administra y controla
múltiples bots para completar un proceso comercial automatizado asociado con ese
grupo de bots. La sala de control asigna
Machine Translated by Google

Arquitectura y patrones técnicos 257

Aplicaciones empresariales

… …

Máquinas virtuales de recepción Máquinas virtuales de back office

Sala de control
API de IA

Servidores de robots Registro

Figura 12.7 Arquitectura de fuerza laboral digital basada en RPA.

el proceso de negocio que se ejecutará en un bot en un grupo según la


disponibilidad del bot, así como en los cronogramas de proceso definidos y
configurados en la sala de control. Hay dos tipos de activadores de bots: front
office y back office. Los usuarios activan bots de front office cuando los necesitan.
La información resultante luego se envía de regreso a la sala de control. La propia
sala de control activa robots administrativos, que también informan el estado a la
sala de control.

Conclusión
Ahora que hemos revisado la estructura de la arquitectura de la plataforma de IA,
el próximo capítulo se dedicará a ilustrar cómo funciona el proceso de construcción
de modelos. Lo haremos examinando una aplicación específica de aprendizaje
automático diseñada para comprender la pérdida de clientes en la industria de las
telecomunicaciones, pero los mismos métodos se aplican a otros casos de uso.
Machine Translated by Google
Machine Translated by Google

Capítulo 13
El proceso de modelado de IA

Lo que es vital es hacer que todo lo relacionado con la IA sea explicable, justo, seguro
y con linaje, lo que significa que cualquiera podría ver de manera muy sencilla cómo
se desarrolló cualquier aplicación de la IA y por qué.
Ginni Rometty, presidenta, presidenta y directora ejecutiva de IBM

En este capítulo, trabajaremos con un ejemplo simple de una aplicación de


aprendizaje automático para brindarles a los lectores una mejor
comprensión de cómo funciona el proceso de creación de modelos,
ampliando el ciclo de vida de la IA discutido en el Capítulo 8. Para nuestro
caso de uso de ejemplo, utilizará una hipotética empresa de
telecomunicaciones que está configurando un modelo de inteligencia
artificial para resolver un problema comercial específico de pérdida de
clientes. Explicaremos paso a paso cómo funciona el proceso de modelado,
por qué pasos específicos son esenciales y cómo evitar posibles obstáculos.
Este capítulo no pretende mostrar al lector cómo convertirse en un experto
en modelado de IA, sino más bien ayudar a los gerentes y ejecutivos que
supervisarán o interactuarán con sus equipos de IA a comprender mejor
qué están haciendo estos equipos, por qué y qué hacen. Las decisiones
de negocios están involucradas en el proceso de modelado.

259
Machine Translated by Google

260 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Definición del caso de uso y la tarea de IA

Hay algunas preguntas clave que responder para definir bien un caso de uso de
IA. La primera es, ¿cuál debe ser el resultado de un modelo o secuencia de
modelos de IA? Es decir, ¿qué predicción se debe hacer o qué tarea debe
realizar el modelo? La segunda es, ¿qué decisión o activación dentro de un flujo
empresarial permitirá la tarea de IA para que pueda ser valiosa para el negocio?
Con demasiada frecuencia, los equipos que trabajan en proyectos de IA solo
responden la primera pregunta y no la segunda, pero es la activación la que
garantiza que los proyectos de IA no se abandonen. La proliferación de pruebas
de concepto (PoC) descartadas en cientos de empresas es evidencia de que la
cuestión de la activación no se plantea con suficiente antelación y frecuencia.

Las empresas gastan mucho esfuerzo y dinero para adquirir nuevos


clientes creando y manteniendo equipos de ventas y marketing, pagando
publicidad y ofreciendo descuentos u otros incentivos a las personas para que
se conviertan en clientes. Por lo tanto, a las empresas de la mayoría de las
industrias generalmente les resulta menos costoso retener clientes que adquirir
otros nuevos. Sin embargo, con la proliferación de marcas que ofrecen servicios
y productos excelentes, la mayoría de las empresas enfrentan el desafío de la
pérdida de clientes.
La pérdida de clientes se refiere a los clientes que dejan de utilizar los
productos o servicios de una empresa. Generalmente se mide como un
porcentaje en un período de tiempo específico, como un año. Predecir cómo
retener a los clientes resultó ser uno de los primeros éxitos esenciales del
aprendizaje automático moderno. La deserción es un problema dentro de nuestra
empresa de telecomunicaciones imaginaria; Los ejecutivos quieren determinar
qué grupos de clientes es probable que se cambien a un competidor y luego
encontrar una manera de retener a estos clientes a un costo menor que el que
se necesitaría para adquirir nuevos clientes. Por lo tanto, la tarea de la IA de las
telecomunicaciones para este caso de uso será observar los datos de los clientes
y predecir, con una precisión suficientemente alta, el umbral en el que es
probable que sus clientes abandonen, digamos, en los próximos tres meses.
Este problema puede tratarse como un problema de clasificación (clientes
que abandonarán versus clientes que no), o como un problema de regresión
(probabilidad de abandono de cada cliente). Mantener dentro
Machine Translated by Google

El proceso de modelado de IA 261

Tenga en cuenta que esta tarea de IA (el modelo) predecirá si el cliente


abandonará o no. No recomendará el mejor curso de acción sobre cómo tratar
a los clientes que potencialmente puedan irse. La activación en nuestro caso
será tomar la lista de clientes que tienen muchas probabilidades de abandonar
y crear campañas de marketing dirigidas a estos clientes, ya sea con mensajes
u ofertas para justificar su permanencia. Un ejemplo de esto podría ser ofrecer
a estos clientes descuentos en su próxima factura para incentivarlos a
permanecer en nuestra compañía de telecomunicaciones, como una oferta a
través de correo electrónico directo, o como una llamada saliente a través del
centro de llamadas, o como un mensaje en el teléfono. facturación y pago parte
de la aplicación de telecomunicaciones, donde pueden aceptarlo con un solo clic.
Al implementar cualquier caso de uso de IA, un equipo a menudo presenta
ideas adicionales para casos de uso; en nuestra experiencia, un promedio de
cuatro nuevas por caso de uso. En nuestro escenario de telecomunicaciones,
los casos de uso adicionales podrían incluir predecir a qué tipo de incentivo
respondería mejor cada cliente (por ejemplo, tarifas con descuento futuras, fines
de semana gratis o mensajes sobre ser una empresa respetuosa con el medio
ambiente). Otra es predecir qué canal de comunicación preferiría cada cliente,
es decir, qué canal aumentaría la probabilidad de respuestas positivas (por
ejemplo, correo electrónico, llamada de agente o correo postal).
Una tercera opción es predecir el valor de vida del cliente de modo que se den
incentivos sólo a aquellos clientes que serán valiosos en el largo plazo. En
cualquier proyecto, nuevos casos de uso como estos deben agregarse a la lista
de casos de uso a medida que se identifican.
La siguiente pregunta que debe responderse para un caso de uso
determinado es sobre el valor. ¿Qué valor empresarial estamos creando o a
qué objetivo empresarial estamos sirviendo? Es crucial hacer una identificación
de valor de alto nivel durante la definición del caso de uso, tanto para la
priorización relativa (ver Capítulo 8) como para garantizar que exista un valor
real si se desarrolla el caso de uso. Esto ayuda a impulsar la adopción de la activación.
En nuestro ejemplo, si se necesitan 200 dólares de esfuerzo en publicidad y
marketing para adquirir un nuevo cliente de telecomunicaciones y la empresa
tiene 10.000.000 de clientes con una tasa de abandono anual del 15%, reducir
la tasa de abandono en dos puntos porcentuales retendrá a 200.000 clientes
cada año, lo que generará un ahorros anuales de 40 millones de dólares.
Retener clientes puede requerir un incentivo de $50 por cliente en promedio, lo que haría qu
Machine Translated by Google

262 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

costo de retención de $10 millones, lo que resulta en un ahorro neto de $30


millones por año. Este ejemplo parte de muchos supuestos simplificadores y no
pretende describir un caso de negocio en detalle; Para determinar un caso de
negocio real, se deben proporcionar suficientes detalles para construir un caso
más sólido antes de realizar inversiones sustanciales.

Seleccionar los datos necesarios

No siempre está claro al inicio del proceso de modelado de IA qué datos se deben
recopilar para desarrollar el modelo. Es una buena idea enumerar las posibles
razones de la deserción y utilizarlas como indicadores de los datos que se deben
obtener. Por ejemplo, la deserción podría deberse a que las facturas de un
cliente son demasiado altas, lo que lo lleva a buscar una mejor oferta (es decir,
obtener datos de facturación) o porque estaba teniendo problemas con su
servicio (es decir, obtener datos de interrupción del servicio o datos sobre la
frecuencia de las llamadas al call center). También es una buena práctica no
asumir que estas son razones reales: simplemente proporcionan una manera de
pensar qué datos recopilar. Estas pueden probarse como hipótesis utilizando los
datos. Una vez que tengas los datos, deja que hablen por sí solos.
En nuestro ejemplo, utilizaremos un conjunto de datos de muestra disponible
públicamente sobre clientes de una empresa de telecomunicaciones anónima.1
Es probable que estos datos provengan de múltiples sistemas y estén conectados
mediante la identificación del cliente. Una buena fuente para conjuntos de datos
públicos como este es Kaggle. Nuestro conjunto de datos tiene aproximadamente
3500 filas de datos (observaciones), y cada fila representa un cliente. Las
columnas son las siguientes:

1. CUSTOMER_ID: un número de identificación del cliente


2. ESTADO: el estado de EE. UU. en el que se encuentra el cliente

3. AREA_CODE: código de área del teléfono del cliente


4. PHONE_NUMBER: número de teléfono del cliente
5. ACCOUNT_LENGTH: duración de meses que tiene el cliente
tenía una cuenta
Machine Translated by Google

El proceso de modelado de IA 263

6. INTL_PLAN: si el cliente tiene un plan internacional


7. VMAIL_PLAN: si el cliente tiene un plan de correo de voz
8. VMAIL_MSG: número de mensajes de correo de voz que el cliente ha
recibido en un mes determinado
9. DAY_MINS: número de minutos diurnos que el cliente ha utilizado en un
mes determinado
10. DAY_CALLS: número de llamadas que el cliente ha realizado durante el día
en un mes determinado
11. DAY_CHARGE: cargo total en dólares por llamadas diurnas en un mes
determinado
12. EVE_MINS: número de minutos vespertinos que el cliente ha utilizado en
un mes determinado
13. EVE_CALLS: número de llamadas que el cliente ha realizado durante las
tardes en un mes determinado
14. EVE_CHARGE: cargo total en dólares por llamadas nocturnas en un
mes determinado
15. NIGHT_MINS: número de minutos nocturnos que ha utilizado el cliente en
un mes determinado
16. NIGHT_CALLS: número de llamadas que ha realizado el cliente durante
ing la noche en un mes determinado
17. NIGHT_CHARGE: cargo total en dólares por llamadas nocturnas en un mes
determinado
18. INTL_MINS: número de minutos internacionales que el cliente ha utilizado
en un mes determinado
19. INTL _CALLS: número de llamadas que el cliente ha realizado
internacionalmente en un mes determinado
20. INTL _CHARGE: cargo total en dólares por llamadas internacionales en un
mes determinado
21. CUST_SERV_CALLS: número de llamadas de atención al cliente en un
mes determinado
22. CHURN: una columna de sí o no que indica si el cliente se dio de baja o no
dentro de los tres meses posteriores al período cubierto por los datos de las
otras columnas.
Machine Translated by Google

264 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Configuración del entorno del portátil y


Importando datos

Desarrollaremos nuestro modelo utilizando un entorno de notebook Jupyter de


código abierto y el lenguaje de programación Python, que actualmente es el
lenguaje de programación más popular para IA y ciencia de datos. Para este
proyecto se pueden utilizar muchas bibliotecas existentes: bibliotecas para
manipulación de datos, álgebra matricial, gráficos, etc.
Usaremos la biblioteca de aprendizaje automático de código abierto scikit­learn
(sklearn). La Figura 13.1 muestra la importación de varias bibliotecas desde
sklearn y también la importación de otras bibliotecas de código abierto como SMOTE.
Utilizando el código de la Figura 13.2, importamos datos que estaban en un
archivo de valores separados por comas (CSV) en una carpeta de la unidad C.
Hacemos esto utilizando una estructura de datos Python DataFrame y llamamos

Figura 13.1 Importación de bibliotecas relevantes que se utilizarán.


Machine Translated by Google

El proceso de modelado de IA 265

Figura 13.2 Importación de datos para la pérdida de clientes.

Figura 13.3 Mirando las filas superiores de los datos.

eso imp_data (para datos importados). Los dos números en la parte inferior de la
figura 13.2 indican que hay 3333 filas y 22 columnas de datos. Las primeras 21
columnas son características y la última columna (en nuestro caso, CHURN) es el
objetivo que queremos predecir. En la Figura 13.3, podemos ver las primeras filas de
datos.

Limpieza y preparación de los datos

Nuestro primer paso será la limpieza de datos (que se analiza en el Capítulo 8). Esta
suele ser una tarea que requiere mucho tiempo. Descubrir cómo manejar los valores
faltantes es una parte crítica, ya que diferentes modelos pueden ser más o menos
sensibles a esta condición, lo que hace que los modelos sean más o menos capaces
o incluso incapaces de predecir de manera confiable cuándo los datos disponibles
están incompletos. Por eso primero buscamos los valores faltantes. Podemos
visualizarlos dibujando un mapa de calor, como se muestra en la Figura 13.4. En nuestro ejemplo
Machine Translated by Google

266 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

conjunto de datos, como puede ver, faltan algunos datos en el PHONE_


columna NÚMERO. Esto no es algo que vayamos a solucionar, porque
eliminaremos esta columna. Sin embargo, si faltan valores en características
más críticas, existen varias formas de solucionarlo.
Una opción es eliminar todas las filas con valores vacíos. Por ejemplo,
si los datos que faltan para algunas filas están en la columna de destino,
puede ser preferible eliminar toda esa fila de datos. El problema es que al
eliminar las filas se corre el riesgo de perder información crítica. Una mejor
manera de lidiar con los valores faltantes podría ser reemplazarlos con un
valor predeterminado derivado del conjunto de datos. En algunos casos, esto
se puede lograr utilizando un valor de la fila anterior o siguiente. En otros
casos, se realiza mediante imputación de datos : interpolando a partir del
conjunto de datos completo y utilizando, por ejemplo, una media. Esta
interpolación no siempre tiene que ser la media de los números de este
conjunto de datos en particular; podría ser el resultado de otro modelo de
aprendizaje automático. En nuestro ejemplo, usaríamos el imputador del marco sklearn.
El siguiente paso de preparación de datos es convertir los valores
categóricos en valores numéricos. Esta conversión es necesaria porque

Figura 13.4 Mapa de calor del valor faltante. Si hubiera alguno, se mostraría como
una barra blanca para esa fila y columna.
Machine Translated by Google

El proceso de modelado de IA 267

Muchos modelos de aprendizaje automático no funcionan con valores de


datos de texto. En nuestro ejemplo, utilizamos una técnica llamada
codificación de etiquetas, que transforma los valores sí/no y verdadero/falso
a 0 y 1 utilizando la función sklearn LabelEncoder (consulte la Figura 13.5).
Sin embargo, esta conversión sólo puede realizarse cuando se trata de dos categorías.
Codificar, digamos, un conjunto de nombres de estados en datos numéricos
podría presentar dificultades, ya que los nombres de estados son datos
categóricos sin relación de ningún tipo entre sí. Los problemas surgen
cuando el modelo de IA supone una relación u orden entre los números
asignados que están en la misma columna y decide, por ejemplo, que 0 es
menor que 1, donde cero podría referirse a Alaska y uno podría referirse a Florida.
Para solucionar estos problemas, utilizamos lo que se llama codificación
one­hot. La codificación one­hot toma una columna con datos categóricos
codificados con etiquetas y la divide en varias columnas en las que los
números existentes se reemplazan con 0 y 1. En nuestro ejemplo, creamos
tres columnas nuevas: digamos, Nueva York, California y Michigan. Para
filas de datos de clientes cuyo estado es Nueva York, la columna
correspondiente a Nueva York se establece en 1; las columnas
correspondientes a los demás estados se establecen en 0. Si las filas de
datos de clientes son para californianos, la columna correspondiente a

Figura 13.5 Transformación de datos de texto categóricos en valores numéricos.


Machine Translated by Google

268 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Figura 13.6 Codificación one­hot de estados de EE. UU.

California será 1; las columnas de Nueva York y Michigan se establecerán


en 0. Ahora usamos la función get_dummies de Python (consulte la
Figura 13.6) para cambiar el conjunto de estados a 51 columnas (para
los 50 estados más el Distrito de Columbia), con 1 en el columna para
cada fila que se refiere al estado representado por esa columna, y 0 para
todas las demás columnas. Al transformar valores categóricos en valores
numéricos de esta manera, podemos explorar los datos de manera más
fructífera. Puede ver en la parte inferior de la Figura 13.6 que ahora hay
71 columnas. Esto es de las 22 columnas originales, menos las 2
columnas que eliminamos (para código de área y número de teléfono) y
las nuevas 51 columnas de estado que agregamos.

Comprensión de los datos mediante exploratorio


Análisis de los datos

Si desea hacer buenas predicciones de IA, es esencial tener una buena


comprensión de su conjunto de datos de entrenamiento (de alta calidad).
Si un modelo de aprendizaje automático no logra predecir valores futuros
precisos (algo que no es infrecuente en proyectos de IA), a menudo se
debe a una comprensión errónea de los datos; La calidad de los
resultados de un modelo de IA está directamente correlacionada con la
calidad del conjunto de datos de entrenamiento y qué tan bien se
comprende. Se puede solucionar esta situación de forma iterativa, pero
es más fácil y eficaz comprender realmente los datos, planificar las
transformaciones necesarias y luego repetir el proceso de modelado.
Este nivel de comprensión se obtiene mediante lo que se conoce como
análisis de datos exploratorio. Una comprensión profunda de los datos
es lo que a menudo separa a un buen científico de IA de uno mediocre. No es técnico n
Machine Translated by Google

El proceso de modelado de IA 269

Implica la capacidad de tomar decisiones correctas sobre los datos y elegir el


modelo más relevante para la situación dada.
Una técnica para realizar análisis exploratorios es calcular estadísticas
básicas sobre los datos, por ejemplo, determinando la media y la desviación
estándar de cada una de las características. La figura 13.7 muestra el código
para trazar la distribución de datos de algunas de las columnas.
En los resultados, que se muestran en la Figura 13.8, podemos ver claramente
que la mayoría de las características numéricas parecen estar distribuidas
normalmente, aunque VMAIL_MSG, INT_CALLS y CUST_SERV_CALLS no lo están.
A continuación observamos las dependencias entre las características. En la
matriz de correlación de la Figura 13.9, podemos ver con qué intensidad varía
cada característica con otras características y cómo los atributos individuales se
correlacionan con el atributo objetivo (última fila de la Figura 13.9).
Por ejemplo, el cuadro oscuro en la celda para VMAIL_MSG (en el eje vertical) y
VMAIL_PLAN (en el eje horizontal) nos indica que el plan de correo de voz y la
cantidad de mensajes de correo de voz están altamente correlacionados. Esto es
comprensible porque no puedes recibir un mensaje de correo de voz si no tienes
un plan de correo de voz. Esta matriz será necesaria cuando analicemos la
ingeniería de características.

También podemos buscar valores atípicos en nuestro análisis exploratorio,


en este caso, utilizando diagramas de caja. Cada diagrama de caja muestra la
mediana de la columna de datos, que se muestra como la línea en el medio de
cada cuadro gris en la Figura 13.10. El cuadro gris muestra el rango de datos
desde el primer cuartil (que es la mediana de la mitad inferior del conjunto de
datos) hasta el tercer cuartil (la mediana de la mitad superior del conjunto de
datos). Los puntos en la parte superior e inferior son los valores finales que potencialmente po

Figura 13.7 Frecuencia de trazado de conjuntos de datos.


Machine Translated by Google

270 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

0.010 0.008
0,25
0.008 0.006
0,20
0.006
0,15 0.004
0.004
0,10
0.002
0.002 0,05

0.000 0.00 0.000


0 50 100 150 200 250 0 20 40 60 0 100 200 300 400

0.008
0.020
0,04

0,015 0.006
0,03

0.010 0.004
0,02

0.005 0,01 0.002

0.000 0.00 0.000


0 50 100 1 50 0 20 40 60 0 100 200 300 400

0,10
0.008
0.020
0,08
0.006
0,015
0,06
0.004
0.010
0,04

0.005 0.002
0,02

0.000 0.00 0.000


0 50 100 150 0 10 20 30 0 100 200 300 400

0.020 0.150
0,15
0,125
0,015
0.100
0,10
0.010 0,075

0,05 0.050
0.005
0.025

0.000 0.00 0.000


50 100 150 0 5 10 15 20 0 5 10 15 20

0,5 0,6 2.0

0,4 0,5
1.5
0,4
0.3
0.3 1.0
0,2
0,2
0,5
0.1 0.1

0.0 0.0 0.0


0 5 10 15 20 0 1234 5 6 0 2 4 6 8

Figura 13.8 Distribución de frecuencia de los datos de algunas de las columnas.

ser valores atípicos. En nuestro ejemplo, ignoraremos los valores atípicos en el


primer experimento de modelado e incluiremos todos los datos.
Un análisis exploratorio también debe buscar desequilibrios en los datos.
En la Figura 13.11, podemos ver que aproximadamente el 14,5% de los clientes de
telecomunicaciones abandonaron, mientras que el 85,5% no. Esto significa que si
creáramos un “modelo” que simplemente dijera que, sin importar la entrada, el
Machine Translated by Google

El proceso de modelado de IA 271

Figura 13.9 Mapa de calor de las correlaciones de algunas de las columnas


clave entre sí.
Machine Translated by Google

272 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Figura 13.10 Buscando valores atípicos.

Si la predicción es que no hay pérdida de clientes, este modelo sería correcto el


85,5% de las veces e incorrecto el 14,5% de las veces. Sin embargo, este no
sería un modelo beneficioso a pesar de que tiene una precisión elevada del
85,5%. Ver un desequilibrio en los datos como este le alertará sobre el hecho
de que su modelo necesitará predecir quién abandonará en lugar de simplemente
decir que el 15 % de los clientes abandonarán, lo que ayudará a determinar si
el modelo entrenado es utilizable o no. .

Otra cosa que debe abordarse es garantizar que los valores de diferentes
características estén correctamente escalados, ya que invariablemente habrá
múltiples características en un conjunto de datos. A menudo, los modelos de IA
determinarán que los valores más altos son más importantes que los más bajos.
Esto haría que características con magnitudes mayores dominaran el modelo.
Si la característica VMAIL_MSG varía de 0 a 51, mientras que la característica DAY_
MINS varía de 0 a 351, el modelo podría asumir que DAY_
MINS importa más que VMAIL_MSG, lo que puede no ser el caso.
Machine Translated by Google

El proceso de modelado de IA 273

Figura 13.11 Desequilibrio en la etiqueta o en los datos de destino.

El escalado nos permite tratar todas las funciones por igual. Como se analizó
en el Capítulo 8, hay dos formas de escalar características. La normalización
escala los números para que caigan entre cero y uno, y la estandarización escala
el número de modo que los valores de la característica sigan una distribución
normal con un valor medio de cero y una desviación estándar de uno. Usamos la
estandarización (ver Figura 13.12) en nuestro ejemplo porque mantiene valores
atípicos, que pueden contener información importante que no queremos perder.

Como puede ver en la Figura 13.13, estamos estandarizando todos los


atributos numéricos excepto CUST_SERV_CALLS. Hacemos esto porque los
clientes satisfechos tienden a no llamar al servicio de atención al cliente con
regularidad, por lo que el número de llamadas al servicio de atención al cliente
bien podría correlacionarse altamente con la deserción. Dado que no estamos
escalando esta característica, nuestro modelo la tratará como más significativa,
pero no dominará demasiado otros atributos de característica, ya que tiene una
media de aproximadamente 1,56. Si una característica particular tuviera un valor
más alto, como 7, se destacaría como significativa.
Machine Translated by Google

274 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Figura 13.12 Escalado de las columnas de datos relevantes.

Ingeniería de características

Algunas características no son tan importantes como podríamos pensar en un


principio, mientras que otras son importantes. Agregar características innecesarias
no sólo puede ralentizar el entrenamiento sino que también puede terminar
sobreajustando el modelo de aprendizaje automático (consulte el Capítulo 8).
Además, mantener dos características diferentes que están altamente
correlacionadas entre sí puede darles una influencia demasiado fuerte en el resultado.
En la matriz de correlación de la Figura 13.9, podemos ver qué columnas
altamente correlacionadas debemos mantener como características. Según esta
información, podríamos eliminar DAY_ CHARGE a favor de DAY_MINS,
EVE_CHARGE a favor de EVE_MINS, NIGHT_CHARGE a favor de NIGHT_MINS
e INTL_CHARGE a favor de INTL _MINS
Machine Translated by Google

Antes de escalar Después del escalador estándar

CUENTA_LENGTH 0,40 CUENTA_LENGTH


0,16 DÍA_MINOS DÍA_MINOS

DAY_CALLS 0,35 DAY_CALLS


0,14
DÍA_CARGO DÍA_CARGO

EVE_MINS 0,30 EVE_MINS


0,12
EVE_CALLS EVE_CALLS

EVE_CHARGE 0,25 EVE_CHARGE


0,10
NOCHE_MINS NOCHE_MINS
LLAMADAS NOCTURNAS 0,20 LLAMADAS NOCTURNAS
0,08
NOCHE_CARGA NOCHE_CARGA

0,06 0,15

0,04 0,10

0,02 0,05

0.00 0.00
0 100 200 300 400 –6 –4 –2 0 2 4

Figura 13.13 Visualización de la distribución de datos antes de escalar (izquierda) y después de escalar (derecha).

275
Machine Translated by Google

276 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Figura 13.14 Eliminando columnas de carga individuales y sumando la


columna de carga total.

(ver Figura 13.14). Si fuera necesario, podríamos experimentar incluyéndolos


y excluyéndolos y ver el impacto en el rendimiento del modelo.
Generalmente, usaríamos una técnica como el análisis de componentes
principales para hacer esto, pero la omitiríamos aquí porque es más complicada.
También podemos observar la variabilidad de los datos para decidir qué
variables incluir en el modelo. Generalmente es una buena idea eliminar
variables si está seguro de que no tienen ningún efecto en el atributo objetivo
(en este caso, abandono) ya que esto elimina el ruido que debe abordar el
algoritmo de entrenamiento del modelo. Por ejemplo, ¿cómo podemos decidir
si será útil utilizar la información de ESTADO en nuestro modelo de IA?
Podemos determinar si el ESTADO con el que está asociada una persona se
correlaciona con una mayor probabilidad de abandono. Si un alto porcentaje
de neoyorquinos en el conjunto de datos desertaron, podríamos suponer que
los neoyorquinos tienen más probabilidades de abandonar que otros. Este
sería un atributo útil para hacer predicciones, por lo que en este caso debería
incluirse ESTADO. Si no existe correlación entre STATE y la rotación, es
posible que deseemos eliminar STATE de nuestro conjunto de datos, ya que
probablemente no ayudará a predecir la rotación. En la Figura 13.15, podemos
ver que hay suficiente variación de un estado a otro en la rotación (del 5 al
25%) para que STATE sea útil, por lo que lo mantenemos como una
característica en nuestro conjunto de datos.
Otro ejemplo de características que quizás quieras omitir de tu conjunto
de datos es la baja variabilidad. Supongamos que observa las estadísticas de
STATE y AREA_CODE y descubre que, aunque hay 51 columnas STATE
distintivas, solo hay tres columnas AREA_CODE. Una razón para esto podría
ser que para proteger la privacidad de los clientes, sus números de teléfono
y, por lo tanto, sus códigos de área, se omitieron del conjunto de datos. Esto
indicaría que probablemente deberías
Machine Translated by Google

El proceso de modelado de IA 277

Figura 13.15 Análisis de la tasa de abandono por estado.

elimine las funciones CÓDIGO_ÁREA y NÚMERO_TELÉFONO (consulte la


Figura 13.5), ya que los datos ficticios no contribuirán a la precisión de sus
resultados.
A veces, resulta útil crear nuevas funciones a partir de una o más de las
que ya existen en su conjunto de datos. Podríamos, por ejemplo, decidir crear
una nueva función combinando las cuatro funciones de CARGA, ya que es
probable que sea la carga total la que provoque que alguien abandone el
servicio y no la carga por hora del día. También podríamos crear una nueva
característica que resuma varias de las características originales
multiplicándolas o dividiéndolas. Por ejemplo, dividimos DAY_MINS por
DAY_CALLS y creamos una nueva característica, DAY_AVG_CALL, la
duración promedio de una llamada durante el día.

Creación y selección del modelo óptimo


Los modelos se entrenan en conjuntos de datos y, después del entrenamiento,
necesita un conjunto de datos diferente para probar su modelo. Recuerde que
el objetivo del aprendizaje automático es crear un modelo con la mayor
precisión predictiva sobre datos que aún no ha visto. Si su conjunto de datos
de entrenamiento y prueba es el mismo, su modelo podría memorizar el entrenamiento
Machine Translated by Google

278 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

datos, que es un caso extremo de lo que se conoce como sobreajuste (ver Capítulo
8), y por lo tanto no poder generalizar a nuevos datos. La detección de sobreajuste
es la razón para dividir los conjuntos de datos de entrenamiento de los conjuntos
de datos de prueba. Por lo general, los datos deben dividirse al azar. Una herramienta
que puede ayudar, llamada Biblioteca de selección de modelos, está disponible en
la biblioteca sklearn. Dentro de la Biblioteca de selección de modelos hay una clase
llamada train_test_split. Nos permite dividir el conjunto de datos en conjuntos de
datos de entrenamiento y prueba en las proporciones que elijamos.
La forma en que esto funciona es relativamente simple. El parámetro test_size,
proporcionado como una fracción, decide qué parte del conjunto de datos se utilizará
en las pruebas. Si, por ejemplo, test_size es 0,5, el 50% del conjunto de datos se
dividirá como datos de prueba. Si no especifica este parámetro, tiene la opción de
utilizar train_size, que funciona de la misma manera. Si elige 0,5 como valor, el 50%
del conjunto de datos se utilizará como conjunto de entrenamiento. Si desea
determinar qué elementos se seleccionan para el entrenamiento y las pruebas de
forma aleatoria, puede utilizar el parámetro random_state eligiendo un número
entero que sirva como semilla para el generador de números aleatorios durante la
división. En nuestro ejemplo, utilizamos el 75% de los datos para entrenamiento y el
25% para pruebas (ver Figura 13.16).

Hemos seleccionado un modelo de regresión logística como algoritmo que


queremos entrenar para que sea nuestro modelo de IA inicial. Recuerde que cuando
utilizamos el término algoritmo, nos referimos a un algoritmo genérico, como un
algoritmo de regresión lineal. Cuando usamos el término modelo, nos referimos a
un modelo entrenado explícitamente en datos específicos para un evento específico.

Figura 13.16 División de datos para entrenamiento y prueba en una proporción de 75:25.
Machine Translated by Google

El proceso de modelado de IA 279

resultado, como nuestro modelo de abandono. Este modelo se entrenará con datos
históricos de abandono de clientes para predecir si un cliente abandonará la empresa en
función de las entradas de datos (características) proporcionadas.
El modelo se basa en un algoritmo de regresión logística, que es un clasificador binario o
multiclase general. Elegir un algoritmo de regresión o un algoritmo de clasificación
depende del problema que esté resolviendo. Si queremos predecir qué clientes pueden
irse, utilizamos un algoritmo de clasificación. Si, en cambio, queremos predecir el valor de
la vida útil de cada cliente, utilizamos un algoritmo de regresión para obtener una salida
variable continua.

Puede ver en la Figura 13.17 que nuestro modelo predice con una precisión del 84,8%.
Eso puede parecer bastante bueno, pero recuerde que anteriormente indicamos que
aproximadamente el 14,5 % de los clientes del conjunto de datos de origen habían
abandonado, mientras que el 85,5 % no lo había hecho (en el conjunto de datos completo
de 3333 clientes). Si nuestro modelo predijera que ningún cliente abandonaría su negocio,
tendría una precisión del 85,5%. Por lo tanto, nuestro modelo en realidad está funcionando
peor que si predijera que nadie abandonaría. Tenga en cuenta que si usáramos solo
nuestros datos de prueba (25% de los datos) para la precisión de la predicción, obtendríamos
86,2% (consulte la Figura 13.18).
Esto es ligeramente diferente del 85,5% porque estamos utilizando un subconjunto de
datos para realizar la prueba.

Examinemos las métricas de rendimiento del modelo con más atención.


Primero, observamos la matriz de confusión (ver Figura 13.19), que se utiliza para describir
el desempeño de un modelo de clasificación. En nuestro caso, hay dos posibles clases
previstas: “ningún abandono previsto” y “deserción prevista”, y los datos tienen dos
categorías: “auténtico abandono” y “verdadero abandono”. La matriz de confusión muestra
que 687

Figura 13.17 Configure un modelo de regresión logística para clasificación binaria.


Machine Translated by Google

280 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Figura 13.18 Porcentaje de clientes que no abandonaron el conjunto de datos de


validación.

Los clientes true_no_churn se predijeron con precisión como pred_no_


abandono, pero 32 clientes actuales_no_abandonados se predijeron erróneamente como pred_
batir. De manera similar, 20 clientes de actual_churn se predijeron correctamente como
pred_churn y 95 clientes de actual_churn se predijeron erróneamente como pred_no_churn. La
precisión del modelo son las predicciones correctas totales (687 + 20) como porcentaje de
todos los clientes (687 + 20 + 32 + 95), que, como vimos anteriormente, es el poco útil 84,8%.
Para superar este problema, debemos analizar métricas que vayan más allá de la simple
precisión.
Algunas otras medidas esenciales, especialmente en el caso de datos desequilibrados
como los nuestros, se denominan recuperación, precisión y puntuación F1.
La recuperación, también llamada sensibilidad o tasa de verdaderos positivos, es el recuento
de verdaderos positivos (20) dividido por todo lo realmente positivo (20 + 95 = 115). En nuestro
ejemplo, la recuperación es del 17% (20/115). Esto significa que somos

Figura 13.19 Observando la matriz de confusión y la precisión, recuperación y puntuación F1.


Machine Translated by Google

El proceso de modelado de IA 281

prediciendo con precisión sólo el 17% de los clientes que abandonaron. Esto es muy
bajo, hasta el punto de que el modelo podría resultar inutilizable si el objetivo es
predecir con precisión qué clientes abandonarán. Precisión
es la frecuencia con la que la predicción es correcta cuando ha pronosticado que sí
(es decir, que ha predicho la deserción). Este es el recuento de verdaderos positivos
(20) dividido por todo lo que se predice que será positivo (20 + 32). En nuestro ejemplo,
el recuerdo es del 38% (20/52). Esto significa que siempre que predecimos la
deserción, sólo el 38% de estas predicciones serán correctas.
Una puntuación F1 es un promedio ponderado de recuerdo y precisión: es decir,
recuerdo multiplicado por precisión dividido por recuerdo más precisión.
Representa un equilibrio entre precisión y recuperación. La puntuación F1 se utiliza
generalmente cuando tanto el recuerdo como la precisión son esenciales y necesitamos
encontrar un equilibrio entre ambos. En nuestro caso, el caso de negocio analizado
anteriormente se basa en una mayor recuperación y no en la exactitud, la precisión o
las puntuaciones F1. El recuerdo es más importante porque nos dirá qué clientes
intentar retener. Si el retiro es bajo, no habremos identificado suficientes clientes a
quienes retener para que el ejercicio valga la pena. Esta selección de métricas es otra
razón por la que el caso de negocio debe describirse desde el principio: es esencial
definir qué debe hacer el modelo de IA y cómo se utilizarán los resultados. Ahora
sabemos que, aunque tenemos una precisión del modelo razonablemente buena, el
modelo es inadecuado para cumplir nuestros objetivos comerciales.

Otra forma de entender qué tan bien se desempeña un modelo es observar la


curva de característica operativa del receptor (ROC) (consulte la figura 13.20). Una
curva ROC es una gráfica de la tasa de verdaderos positivos frente a la tasa de falsos
positivos. Un modelo ideal tendría 100% de verdaderos positivos y ningún falso
positivo. El área bajo la curva (AUC) es una medida de qué tan bueno es un modelo.
Cuanto más cerca esté el área de 1, mejor será el modelo. En nuestro caso, el AUC
es 0,81.
Al aplicar algunas de las técnicas explicadas anteriormente, hemos determinado
que existen problemas con el modelo que estamos utilizando.
Aunque parece que está haciendo un trabajo razonablemente bueno al predecir
cuántos clientes abandonarán, no está haciendo un buen trabajo al predecir qué
clientes abandonarán. Como recordará, el uso de histogramas para analizar nuestros
datos reveló que había un desequilibrio en los datos de abandono, lo que era una
indicación de que podría haber
Machine Translated by Google

282 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Figura 13.20 Curva de característica operativa del receptor (ROC) y área bajo la
curva (AUC).

un problema a la hora de predecir quién va a abandonar. Para reducir este


desequilibrio, hay una variedad de técnicas que podemos emplear. Una es
utilizar el aumento de datos. En la Figura 13.21, podemos ver los resultados
de utilizar un método conocido como Técnica de sobremuestreo de minorías
sintéticas (SMOTE). Al utilizar SMOTE, podemos generar datos de
capacitación adicionales para aquellos clientes que abandonan. Hacemos
esto creando otras muestras que son similares a los datos existentes
subrepresentados (en nuestro caso, para clientes que abandonan).
Aplicamos pequeñas perturbaciones aleatorias a columnas seleccionadas y
las usamos para crear nuevas filas. Cuando utilizamos este aumento de
datos, podemos ver que la precisión del modelo ha disminuido al 73,9 %,
pero esa recuperación ha mejorado significativamente del 17 % al 75 %. La
precisión ha disminuido ligeramente del 38% al 31% y la puntuación F1 ha mejorado de 0,2
Machine Translated by Google

El proceso de modelado de IA 283

Figura 13.21 Aumento de los datos de las minorías.

Es una buena idea, como se analizó en el Capítulo 8, probar varios


algoritmos durante el proceso de modelado. Como se mencionó anteriormente,
en este ejemplo utilizamos un algoritmo de regresión logística. También podríamos
haber utilizado una red neuronal de dos capas o una red neuronal profunda.
Podríamos haber elegido emplear un modelo de regresión del proceso gaussiano,
que traza todas las características en términos de una curva gaussiana o de
campana, lo que nos permite usar las correlaciones entre las características para
construir un modelo predictivo. Podríamos haber decidido usar un modelo de
regresión promedio. de algoritmos múltiples, conocido como modelo de conjunto,
para aumentar la precisión de nuestras predicciones.
En nuestro ejemplo, probaremos otro enfoque de aprendizaje automático
que se ha vuelto popular recientemente: el aumento de gradiente extremo o
XGBoost. Resulta que cuando intentamos esto cambiando la línea de código que
configuró nuestro modelo anterior a regresión logística y cambiándolo a XGBoost
Classifier, obtenemos resultados mucho mejores. En la figura 13.22,
Machine Translated by Google

284 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

Figura 13.22 Probando un algoritmo diferente: solo se cambiaron las líneas 2 y 3 del
primer bloque para seleccionar un modelo diferente.

Podemos ver que el uso de XGBoost ha aumentado la precisión del modelo del
74% al 96% y ha mejorado ligeramente la recuperación, del 75% al 79%. La
precisión ha mejorado significativamente, del 31% al 91% y la puntuación de la
F1 ahora está en 0,85, frente a 0,44. La curva ROC también se ve mejor, con un
AUC de 0,93, como se muestra en la figura 13.23.
Ahora que este modelo parece útil, podemos intentar comprenderlo un poco
mejor observando qué características tienen más peso en el modelo final. En la
Figura 13.24, podemos ver las 10 características principales por importancia:
estas características tienen el mayor impacto en las predicciones del modelo.
Este modelo indica que el uso y la carga son los factores determinantes más
importantes.
Otra cosa que podríamos haber hecho es utilizar un algoritmo de regresión
lineal, que daría como resultado un número entre
Machine Translated by Google

El proceso de modelado de IA 285

Curva ROC
1.0

0,8

0,6
eT
o
sorseodvaiatdisra d
p
v

0,4

0,2

Curva ROC (área = 0,93)


0.0
0.0 0,2 0,4 0,6 0,8 1.0
Tasa de falsos positivos

Figura 13.23 Curva ROC y AUC usando XGBoost.

Figura 13.24 Importancia de las características para las 10 características principales del modelo.
Machine Translated by Google

286 PROFUNDIZANDO EN LA ARQUITECTURA Y EL MODELADO CON IA

0 y 1 en lugar de salida binaria. Para hacer esto, habríamos tenido que establecer
un umbral de hiperparámetro (entre 0 y 1) por encima del cual consideraríamos la
salida como "abandono" y por debajo como "no abandono". Inicialmente podría
fijarse en 0,5. El uso de la optimización de hiperparámetros (consulte el Capítulo
8) en el proceso de modelado nos permitiría mejorar la precisión del modelo y
reducir los falsos positivos y falsos negativos. Esto podría aplicarse al XGBoost
para mejorar potencialmente la precisión y la recuperación; Lo dejamos como
ejercicio para el lector interesado.

En un escenario del mundo real, el equipo que construye un modelo para


predecir la deserción también debería considerar otros problemas potenciales.
Por ejemplo, algunos clientes abandonarán independientemente de los incentivos
de retención que reciban. Además, existen otras formas de abandono (por
ejemplo, clientes que desactivan una función paga o cambian a planes de menor
precio) que el equipo podría querer modelar. También es una buena idea modelar
los cambios en el comportamiento de los clientes a lo largo del tiempo. Un
aumento en las llamadas al servicio de atención al cliente y una disminución en el
uso podrían ser un indicador de una menor satisfacción del cliente.
En este ejemplo nos centramos en el proceso central de creación de modelos
y no profundizamos en los problemas de riesgo y equidad del modelo que deben
abordarse antes y durante el proceso de creación de modelos. Una vez que el
modelo, como nuestro modelo de abandono XGBoost, cumple con las métricas
de rendimiento (por ejemplo, recuperación > 0,70 y AUC > 0,90), pasaríamos por
el proceso de implementación del modelo, expondríamos el modelo a través de
una API y luego integraríamos la API en un flujo de trabajo empresarial para que
los usuarios aprovechen los conocimientos.
Este ejemplo utiliza el aprendizaje automático clásico. Por supuesto, cuando
se utiliza el aprendizaje profundo o el procesamiento del lenguaje natural para
obtener un resultado, el proceso será más complejo y utilizará diferentes
algoritmos y marcos de IA. Una vez creado y validado el modelo, se deben seguir
los pasos restantes para implementarlo a través de una API como se describe en
el Capítulo 8, con la API integrada en un sistema empresarial que utiliza el
resultado para la activación adecuada.
A pesar de la complejidad de la creación de modelos de IA, comprender el
proceso proporcionará a los gerentes y ejecutivos una buena idea de lo que están
haciendo sus equipos de IA y por qué. Esto también ayudará
Machine Translated by Google

El proceso de modelado de IA 287

les permiten tomar mejores decisiones y saber qué métricas son relevantes
para qué tipos de resultados del modelo.
Nuestro próximo capítulo se centrará en el futuro, analizando tanto las
tecnologías de IA emergentes como algunos de los impactos de esta tecnología
ahora global en el trabajo y la sociedad.

Nota

1. Kaggle (2018). Rotación en el conjunto de datos de telecomunicaciones. https://www.kaggle.com/


becksddf/churn­in­telecoms­dataset/data (consultado el 16 de diciembre de 2019).
Machine Translated by Google
Machine Translated by Google

Parte V

Mirando hacia el futuro

289
Machine Translated by Google
Machine Translated by Google

Capítulo 14
El futuro de la sociedad,
Trabajo e IA

El desarrollo de una inteligencia artificial completa podría significar el fin


de la raza humana.
Profesor Stephen Hawking, profesor de matemáticas de la
Universidad de Cambridge

En 2014, el fallecido Stephen Hawking hizo la declaración anterior en una


entrevista de BBC News.1 A menudo se piensa que esta cita un tanto aterradora
se refiere a cosas como robots habilitados para inteligencia artificial que
eventualmente podrían apoderarse del mundo. Sin embargo, lo que muchos
no se dan cuenta es lo que dijo Hawking a continuación. "Soy optimista y creo
que podemos crear IA para el bien del mundo", prosiguió. “Que pueda trabajar
en armonía con nosotros. Simplemente necesitamos ser conscientes de los
peligros, identificarlos, emplear las mejores prácticas y gestión posibles y
prepararnos para sus consecuencias con mucha antelación”.
La IA tiene el potencial de mejorar la calidad de vida de todos los habitantes
del planeta, elevando nuestros niveles de ingresos y ayudándonos a vivir más
tiempo y de forma más saludable. Se ha estimado que más del 90% de todas
las interacciones de los clientes con las empresas probablemente utilizarán IA
de alguna manera en el futuro. Usando IA, las personas podrán personalizar el

291
Machine Translated by Google

292 MIRANDO HACIA EL FUTURO

productos y servicios que necesitan en áreas que van desde la banca hasta la
atención sanitaria. Es probable que la tecnología de inteligencia artificial se
implemente ampliamente en agencias gubernamentales y sistemas legales de
todo el mundo. Los científicos de IA seguirán desarrollando software más
sofisticado que permita controlar los vehículos de forma autónoma, y los robots y
otros dispositivos controlados por IA seguirán ganando en sofisticación.
Al mismo tiempo, hay una variedad de desafíos que enfrentaremos a medida
que la tecnología de inteligencia artificial se vuelva más ubicua. La cuestión de la
gobernanza, como se señaló en el Capítulo 10, es uno de los obstáculos críticos
que enfrentamos al considerar el futuro de la IA; Se necesitan políticas y
regulaciones pragmáticas pero efectivas para que la IA no amenace la autonomía,
la agencia o las capacidades humanas. La regulación también puede fomentar
una industria de la IA saludable y en crecimiento. El propio Hawking citó algunos
de los trabajos legislativos que se estaban llevando a cabo en Europa, en
particular los relacionados con normas para regular la IA y la robótica, como un avance positivo.
Para que el futuro de la IA sea brillante –para que podamos aprovecharla al
máximo y seguir desarrollando la tecnología de manera adecuada– necesitamos
hacer una variedad de cosas. Debemos implementar las tecnologías de IA
existentes, así como las nuevas a medida que surjan. Debemos gestionar los
riesgos inherentes a la IA, incluidas las posibles pérdidas de empleos; sesgo
codificador; el uso malicioso de la IA, como la manipulación de redes sociales
mediante medios como deepfakes o ciberataques; y otras consecuencias no
deseadas. Y debemos mejorar y evolucionar la tecnología de IA a través de la
investigación activa, tanto fundamental como aplicada.
En capítulos anteriores, analizamos cómo aplicar la tecnología de IA existente
a todos los aspectos de nuestros negocios. En este capítulo, analizamos el futuro
de la sociedad y el trabajo, y cómo los desarrollos futuros cercanos dentro de la
IA (es decir, los avances anteriores a la llegada de la inteligencia artificial general)
afectarán tanto a los avances que esperamos como a los desafíos que
enfrentaremos. rostro.

La IA y el futuro de la sociedad

En los próximos años, la IA aparecerá en muchas aplicaciones, desde la robótica


hasta las mejoras de la productividad y la tecnología emergente.
Machine Translated by Google

El futuro de la sociedad, el trabajo y la IA 293

de la computación cuántica. En robótica, empresas como Intuitive Surgical ya


están desarrollando tecnologías, herramientas y servicios asistidos por robots
para operaciones quirúrgicas. Keyence y Daifuku están desarrollando
soluciones de IA en la automatización de fábricas, y Nvidia y otros están
trabajando en automóviles sin conductor.2 También hay iniciativas en marcha
en empresas como Microsoft, Google, IBM y otras en aprendizaje automático
cuántico.3
La atención médica será sin duda una de las áreas en las que la IA
cambiará vidas. Los robots inteligentes serán cada vez más rápidos y precisos
y probablemente podrán permitir a los médicos realizar procedimientos
sofisticados asistidos por robots que hoy son imposibles.
Los robots con IA cuidarán de los ancianos; Los científicos ya están
desarrollando un “gato robot” que recordará a los pacientes geriátricos que
tomen sus medicamentos.
La IA ayudará a las naves espaciales en sus viajes a las estrellas y puede
ayudar a aliviar el cambio climático en la Tierra. Para apoyar los avances en
ciencia ambiental, Microsoft ha comprometido recientemente 50 millones de
dólares para su recién creado programa “AI for Earth”.4 La AI for Good
Foundation, una organización sin fines de lucro5, es otro ejemplo de una
empresa que busca ir más allá de lo comercial. aplicaciones de la IA “para
ayudar a resolver problemas sociales, económicos y ambientales en beneficio
de la sociedad en la mayor medida posible”.
Sin embargo, aunque puede haber debates sobre qué logrará exactamente
la IA en el futuro, lo que no está en duda son las muchas preocupaciones
sobre el uso generalizado de la IA. La rendición de cuentas es una de ellas.
Una demanda actual por la pérdida de 20 millones de dólares en inversiones
debido a un “error” algorítmico6 se está abriendo camino en los tribunales. Al
no poder demandar al superordenador, el inversor intenta responsabilizar al
hombre que se lo vendió por sus pérdidas.
Y la responsabilidad de los algoritmos ya se ha probado en Tempe, Arizona,
donde en marzo de 2018, un Uber autónomo atropelló y mató a una mujer
que cruzaba la calle con su bicicleta. Un año después, Uber fue exonerado
de toda responsabilidad penal.7 En cambio, el conductor de seguridad sentado
en el asiento del conductor enfrenta cargos. En ambos casos, se determinó
que el algoritmo de IA (y sus creadores) no podían ser considerados
responsables.
Machine Translated by Google

294 MIRANDO HACIA EL FUTURO

¿Qué pasará, por ejemplo, si se implementa legalmente lo que se


conoce como gobernanza algorítmica, permitiendo, por ejemplo, que una
fuerza policial utilice la vigilancia de todos sus ciudadanos, rastreando
automáticamente sus comportamientos? En China, esto ya está ocurriendo:
el Sistema de Crédito Social (SCS) de China está diseñado para rastrear
todo, desde la actividad de una persona en Internet hasta si es
suficientemente respetuosa con sus padres, y la calificación final de un
individuo se utiliza para determinar su nivel social. beneficios. Aunque este
tipo de vigilancia está aumentando en otros lugares,8 también hay lugares
como San Francisco que ya han prohibido el uso del reconocimiento facial
por parte de la policía.9 En un mundo que continúa encogiéndose, ¿cómo
seguirán coexistiendo estas regulaciones opuestas?
La probabilidad de que la IA maneje todos nuestros problemas
ambientales también es discutible. Un algoritmo de traducción automática
disponible en el mercado tiene una necesidad tan enorme de recursos
computacionales que crea una huella de carbono similar a la de la cantidad
de combustible que consumirían cinco vehículos durante toda su vida útil.10
Y hay otros posibles inconvenientes en el uso extensivo de la IA. A medida
que confiamos cada vez más en el uso del aprendizaje automático en las
ciencias básicas, por ejemplo, corremos el riesgo de simplemente predecir
resultados sin comprenderlos realmente, descuidando el desarrollo de
teorías subyacentes para explicar estos fenómenos en primer lugar.
En la IA, este costo implícito causa lo que Jonathan Zittrain ha llamado la
deuda intelectual de la IA.11 Es similar a la deuda técnica en la ingeniería
de software: tomar la ruta de programación “fácil” sin considerar mejores
enfoques que podrían llevar más tiempo implementar pero que será más útil
en el futuro, ahorrando en retrabajos adicionales para mantenimiento y
agilidad.

La IA y el futuro del trabajo

Este libro ya ha abordado muchos de los aspectos positivos de la IA en el


lugar de trabajo, tanto ahora como en el futuro. Entre ellos se incluyen cosas
como el potencial de la IA para aumentar la seguridad en el lugar de trabajo
al evitar errores causados por errores humanos, eliminar tareas repetitivas
Machine Translated by Google

El futuro de la sociedad, el trabajo y la IA 295

y tareas aburridas para que los empleados puedan tener libertad para realizar un trabajo
más creativo y satisfactorio, y utilizar chatbots de manera más efectiva para brindar un
mejor servicio al cliente y apoyar a los equipos de atención al cliente.
El lugar de trabajo impulsado por la IA sin duda será diferente. Las máquinas
interactuarán entre sí mediante algoritmos de IA y tomarán decisiones sobre la cadena
de producción sin necesidad de intervención humana. Incluso durante la época de la
revolución industrial, Karl Marx, en el capítulo sobre maquinaria e industria moderna de
su libro El Capital. Una crítica de la economía política, escribió: “El instrumento del
trabajo, cuando toma la forma de una máquina, inmediatamente se convierte en un
competidor del propio trabajador”. Pero esos “instrumentos de trabajo” llegaron para
quedarse, y lo mismo ocurre con la inteligencia artificial. Al igual que la computadora
personal y el teléfono inteligente, la IA ya se está convirtiendo en parte de nuestra vida
cotidiana. No podemos desinventarlo. Si queremos afrontar con éxito el auge de la IA,
vale la pena recordar algunas situaciones en las que la tecnología de un tipo u otro
impactó el lugar de trabajo, y los impactos que tuvo como resultado.

Cuando se inventó el automóvil, los caballos no fueron los únicos que perdieron su
empleo. Entre las personas que perdieron sus empleos se encontraban herreros,
peluqueros, cocheros, comerciantes de piensos, propietarios de establos, talabarteros,
carreteros, fabricantes de látigos, barrenderos y veterinarios. Por otro lado, se crearon
nuevos empleos en plantas de fabricación de automóviles, concesionarios de automóviles,
estacionamientos, establecimientos de reparación y fábricas en las que la gente tenía
que crear todas las piezas que un automóvil necesitaba para funcionar, incluidos
neumáticos, encendidos, baterías. y carburadores.

Los trabajadores de principios del siglo XX difamaron la automatización de las


fábricas, pero las generaciones posteriores finalmente se beneficiaron del fin de semana
de dos días. La gente vio la llegada de los cajeros automáticos (ATM) en la década de
1970 como un desastre para los trabajadores de la industria bancaria minorista. Sin
embargo, a medida que los costos de las sucursales disminuyeron, los empleos en las
sucursales bancarias aumentaron con el tiempo, volviéndose menos transaccionales por
naturaleza y más relacionados con la gestión de las relaciones con los clientes.
Cosas similares están sucediendo hoy. Solía haber 600 operadores de acciones en
la sede de Goldman Sachs, pero ahora solo hay dos.12 Esto se debe a que Goldman
está utilizando programas de negociación de inteligencia artificial para
Machine Translated by Google

296 MIRANDO HACIA EL FUTURO

automatizar el comercio de divisas y futuros. También está utilizando IA para asumir


muchos de los 146 pasos que conlleva una oferta pública inicial.
Sin embargo, la IA ha creado más puestos de trabajo de los que se han perdido, y
muchos de ellos no han desaparecido sino que se han transformado. De hecho, según
el McKinsey Global Institute, en los años anteriores a 1950, la industria del automóvil
creó 6,9 millones de nuevos puestos de trabajo en Estados Unidos, mientras que
623.000 fueron destruidos.13 La firma de asesoría de TI Gartner estima que para el
año 2020, la IA creará 2,3 millones de puestos de trabajo y se eliminarán 1,8 millones.14
Y a medida que los lugares de trabajo se vuelvan más eficientes, los seres humanos
tendrán la libertad de centrarse en el uso de dispositivos de inteligencia artificial para
mejorar la eficiencia de la cadena de suministro, el desarrollo de productos y otras
tareas. Esta mayor eficiencia tiene el potencial de reducir los precios, haciendo que los
bienes estén disponibles para los consumidores de bajos ingresos. Y si la promesa
de la IA y la automatización es tal que toda la población tiene menos que hacer, puede
que incluso sea hora de considerar un fin de semana de tres días.15
Sin duda, habrá cuestiones que deberán abordarse a lo largo del camino.
Independientemente de si el número neto de empleos aumenta o disminuye, ciertas
clases de empleos se verán profundamente afectadas y, aunque hemos enfrentado
problemas similares en el pasado, la IA está haciendo que las cosas sucedan a un
ritmo más rápido. Este cambio requerirá enfoques de soluciones holísticas para volver
a capacitar a la fuerza laboral de modo que la población pueda avanzar hacia la
creación de empleos y alejarse de los empleos automatizados.
También es fácil ignorar las dificultades que enfrentan aquellos cuyo trabajo hace
posible la industria de la IA. Etiquetar datos de entrenamiento y algoritmos de
reentrenamiento requiere mucho tiempo y es laborioso. A medida que el modelo de IA
se expanda a otras empresas, es probable que sea necesario regular las condiciones
de su fuerza laboral para evitar el surgimiento de “talleres de explotación” de IA.16

Regulación de datos e inteligencia artificial


Cuando pensamos en regulación e IA, a veces solo pensamos en términos de
algoritmos. Sin duda, es necesario regularlos para proteger a los empleados y
consumidores. Pero las reglas sobre el uso de datos son igualmente importantes, si no
más. Dada la enorme cantidad de datos que ahora se mantienen de forma privada,
donde no tenemos regulaciones sobre confidencialidad o
Machine Translated by Google

El futuro de la sociedad, el trabajo y la IA 297

responsabilidad, es casi seguro que habrá problemas para compartir esa información
en el futuro, lo que obstaculizará el desarrollo de tecnologías innovadoras en campos
como la atención sanitaria. Quizás incluso peor: la recopilación y el uso de esos
datos pueden provocar abuso de datos u otros problemas importantes.17

Paul Nemitz, uno de los diseñadores del Reglamento General de Protección


de Datos (GDPR) de la UE, ha sido citado diciendo que nos estamos moviendo hacia
"un mundo en el que tecnologías como la IA se vuelven omnipresentes y en realidad
están incorporando y ejecutando las reglas de acuerdo". en el que vivimos en gran
parte” y que “la ausencia de tal marco para la economía de Internet ya ha llevado a
una cultura generalizada de desprecio de la ley y ha puesto en peligro la democracia,
siendo el escándalo de Facebook Cambridge Analytica solo la última consecuencia
llamada de atención.”18

En mayo de 2019, 42 países de la Organización para la Cooperación y el


Desarrollo Económicos (OCDE) acordaron un nuevo conjunto de directrices políticas
para el desarrollo de sistemas de IA, denominado “Recomendación del Consejo
sobre Inteligencia Artificial”.19 Promueve cinco principios para el desarrollo
responsable de la IA:

1. Crecimiento inclusivo, desarrollo sostenible y bienestar – en beneficio de las


personas.
2. Valores centrados en lo humano y justicia: respetar el estado de derecho,
los derechos humanos y los principios democráticos.
3. Transparencia y explicabilidad: para garantizar que las personas comprendan
cuándo interactúan con la IA o con resultados basados en la IA y puedan
cuestionarlos si es necesario.
4. Robustez, seguridad y protección: para evaluar y mitigar continuamente los
riesgos de la IA durante todo el ciclo de vida de la IA.
5. Responsabilidad – para que las empresas y las personas desarrollen
desarrollar y desplegar las tecnologías responsables del correcto funcionamiento
de estos sistemas.

En la Cumbre anual del Grupo de los Siete (G7) (Canadá,


Francia, Alemania, Italia, Japón, Reino Unido y Estados Unidos
Estados) celebrada en Francia en 2018, el Primer Ministro francés Emmanuel
Macron y el primer ministro canadiense Justin Trudeau hicieron una reunión conjunta
Machine Translated by Google

298 MIRANDO HACIA EL FUTURO

anuncio sobre la formación de un grupo de expertos internacionales en IA


denominado Panel Internacional sobre Inteligencia Artificial. El panel seguiría
el modelo del Panel Internacional sobre Cambio Climático. Se compartió más
información sobre este panel en una sesión en mayo de 2019 que acogió a los
ministros de asuntos digitales del G7.
Uno de los primeros proyectos de ley de Estados Unidos para regular la IA
fue presentado en abril de 2019 por los senadores Cory Booker y Ron Wyden,
con un equivalente en la Cámara patrocinado por la representante Yvette Clarke.
Conocida como Ley de Responsabilidad Algorítmica, requeriría la auditoría de
los sistemas de aprendizaje automático para detectar sesgos y discriminación,
así como la auditoría de todos los procesos que involucren datos confidenciales.
Las empresas deberán garantizar medidas correctivas en un plazo razonable
cuando se descubran problemas de este tipo en estas auditorías. Los datos
protegidos incluirían cualquier información de identificación personal, biométrica
y genética. La Comisión Federal de Comercio (FTC) de Estados Unidos sería
responsable de supervisar el cumplimiento, porque la FTC también es
responsable de la protección del consumidor y la regulación antimonopolio.
Otro proyecto de ley presentado en Estados Unidos en abril de 2019 prohibiría
las prácticas de diseño manipuladoras que, según afirman, los gigantes
tecnológicos como Facebook y Google a veces utilizan para lograr que los clientes entreguen su
Otros países ya han redactado o aprobado leyes similares diseñadas para
responsabilizar legalmente a las empresas de tecnología por sus algoritmos.
Dado que es el hogar tanto de Silicon Valley como de Silicon Alley de Nueva
York, Estados Unidos tiene un papel importante que desempeñar en el desarrollo
internacional de las regulaciones de IA, lo que es una razón más para que los
legisladores y los responsables políticos tengan un profundo y matizado
comprensión de la tecnología de IA.
Estados Unidos también está profundamente preocupado por la regulación
de la desinformación y los “deep­fakes”, la tecnología de inteligencia artificial
que permite la creación sencilla de imágenes y videos que parecen reales pero
no lo son, es decir, imágenes de un evento que en realidad nunca sucedió,
creado. manipulando imágenes de una manera cada vez más sofisticada. El
problema con los deepfakes es doble. En primer lugar, pueden representar
cosas que nunca ocurrieron, como situaciones embarazosas que involucran a
figuras públicas que nunca ocurrieron. Además, su propia existencia
Machine Translated by Google

El futuro de la sociedad, el trabajo y la IA 299

permite a algunas personas dudar de lo que realmente sucedió en el pasado.


Quienes dudan del alunizaje de 1969, por ejemplo, podrían justificar sus
creencias basándose en la existencia de una tecnología que puede fácilmente
fingir un viaje a la luna. Algunas personas afirman que los deepfakes se han
creado únicamente con fines de entretenimiento, y otras ciertamente lo han
sido. Pero esta capacidad extremadamente sofisticada de engañar a la mayoría
de las personas algunas veces tiene implicaciones escalofriantes en áreas
como la ciberdelincuencia.
Ya en 2018 se introdujo legislación para controlar las falsificaciones
profundas, pero aún no se sabe si esa legislación sería exitosa o incluso
aplicable. Las regulaciones de la tecnología de IA pueden estar impulsadas
por agendas políticas, por lo que las personas deben elaborarlas
cuidadosamente con un conocimiento profundo de la IA y la ley. Según un
artículo de Columbia Journalism Review, a la Electronic Freedom Foundation
le preocupa que un proyecto de ley actual que se está abriendo camino en el
Congreso, conocido como Ley de Responsabilidad de Deepfakes, plantee
algunos problemas potenciales con la Primera Enmienda.20
Hay muchos otros desafíos en la regulación de la IA. Por ejemplo, no hay
acuerdo sobre qué es la IA. La tecnología de la información es fácilmente
transportable; los datos pueden estar en un país, el algoritmo en otro y el
usuario en un tercero. ¿Funcionará la regulación a nivel nacional?
¿La regulación de la IA necesitará alianzas regionales similares a las citadas
anteriormente entre Francia y Canadá? ¿O seguirá las recomendaciones
hechas por entidades supranacionales como la OCDE? Es posible que políticas
como las recomendaciones de políticas21 de junio de 2019 de la Asociación
Estadounidense de Medicina (AMA) para garantizar la supervisión y la rendición
de cuentas para una mayor inteligencia en la atención médica también deban
ser reforzadas por las políticas de otros organismos. La Iniciativa Global sobre
Ética de Sistemas Autónomos e Inteligentes, organizada por la asociación de
profesionales técnicos más grande del mundo, el Instituto de Ingenieros
Eléctricos y Electrónicos (IEEE), lanzó recientemente “Diseño alineado
éticamente, primera edición: una visión para priorizar el bienestar humano”.
estar con sistemas autónomos e inteligentes”. 22 Lo llaman “el tratado global
más completo y de fuentes colectivas sobre la ética de los sistemas autónomos
e inteligentes disponible en la actualidad”.
Machine Translated by Google

300 MIRANDO HACIA EL FUTURO

La transparencia de las partes interesadas, así como la necesidad de


garantizar que tales sistemas no infrinjan los derechos humanos, son sólo dos de
las cuestiones expuestas en el tratado que deberán resolverse con el tiempo. Hay
mucho trabajo necesario en este espacio. Un estudio reciente23 informa que "a
pesar de un aparente acuerdo en que la IA debe ser 'ética', existe un debate sobre
qué constituye una 'IA ética' y qué requisitos éticos, estándares técnicos y mejores
prácticas se necesitan para su realización".

El futuro de la IA: mejorar la tecnología de IA


El crecimiento económico está impulsado por la innovación tecnológica, en
particular la creación de lo que se ha denominado tecnología general: innovaciones
como la capacidad de generar vapor y energía eléctrica y el motor de combustión
interna. La IA es la última en considerarse una tecnología general. Para avanzar
en su uso, debemos continuar mejorando y evolucionando la tecnología misma a
través de la investigación fundamental y aplicada.

A medida que evolucionen las capacidades de la IA, encontrará más


aplicaciones dentro de las empresas y en nuestra vida diaria. Entre los tipos de IA
que pueden utilizarse ampliamente en el futuro se encuentran el aprendizaje por
refuerzo, el aprendizaje generativo adversario, el aprendizaje federado, el
procesamiento del lenguaje natural, las redes de cápsulas y el aprendizaje automático cuántico.

Aprendizaje reforzado
Además del aprendizaje automático supervisado, no supervisado o semisupervisado
(consulte el Capítulo 2), existe otro enfoque: el aprendizaje por refuerzo (RL). El
aprendizaje por refuerzo se parece a lo que hizo Pavlov cuando entrenaba ratas.
Así como Pavlov recompensó a sus animales con bolitas de comida cuando
recorrieron con éxito un laberinto, la acción o el comportamiento óptimo en los
sistemas de aprendizaje automático se refuerza con recompensas, es decir,
valores numéricos que se les atribuyen por realizar una acción particular en un
momento específico. El algoritmo tiene la tarea de
Machine Translated by Google

El futuro de la sociedad, el trabajo y la IA 301

probar diferentes secuencias de acciones para encontrar la óptima que


maximice su recompensa. Esta recompensa está ligada al éxito de algún
objetivo que el algoritmo intenta lograr; por ejemplo, permitir que un robot
camine con éxito o un automóvil conduzca con seguridad.
Lo que hace que esto sea particularmente interesante es que el
aprendizaje por refuerzo no requiere datos preexistentes para crear modelos.
Utilizando un puñado de instrucciones, permite que una computadora analice
una situación y luego genere datos mediante prueba y error en función de esa situación.
Si el problema es complejo, un algoritmo de aprendizaje por refuerzo puede
adaptarse con el tiempo, si es necesario, para aumentar sus recompensas.
Sin embargo, es difícil utilizar con éxito el aprendizaje por refuerzo a menos
que los problemas tengan una estructura de recompensas clara y cuantificable,
y los entornos en los que operará RL se describan fácilmente.
El aprendizaje por refuerzo profundo utiliza redes neuronales profundas
junto con el marco de refuerzos para lograr un desempeño casi al nivel
humano en ciertas actividades.24 Google ha informado que usando esta
tecnología, las computadoras han aprendido a jugar en la consola Atari 2600
usando un sistema de recompensas por buena jugabilidad. El algoritmo logró
un rendimiento similar al humano en casi la mitad de todos los juegos a los
que se aplicó. El aprendizaje por refuerzo se hizo popular debido al éxito de
los sistemas AlphaGo y AlphaZero de Google DeepMind. La razón por la que
RL ha tenido éxito principalmente en áreas que involucran juegos y
simulaciones es que en estos entornos se puede aprender fácilmente mediante
prueba y error.
Si, en lugar de una simulación, se interactuara con clientes, pacientes o
máquinas físicas reales, esta sería una forma muy costosa de aprender.

El aprendizaje por refuerzo es una parte activa de la investigación y los


usos comerciales han surgido recientemente. Su utilidad seguirá aumentando
a medida que las empresas comiencen a utilizarlo en aplicaciones específicas
en situaciones en las que los datos históricos etiquetados no están disponibles.
También tiene poderosas implicaciones en el mundo real. Google utilizó un
modelo similar para reducir el consumo de energía en un 40% en sus centros
de datos.25 En otras empresas, dos áreas en las que se ha aplicado RL son
la configuración de procesos y la toma de decisiones secuencial. Para
Machine Translated by Google

302 MIRANDO HACIA EL FUTURO

Por ejemplo, al analizar y optimizar secuencias, RL puede determinar


configuraciones de tráfico óptimas, dictando con precisión cuándo y dónde
cambiar las señales de tráfico. Este modelo también se utiliza para optimizar
los recursos en los centros de datos y controlar el tráfico de la red. En última
instancia, la esperanza es que RL pueda resolver una amplia variedad de
problemas comerciales. Sin embargo, para llegar allí, las aplicaciones
empresariales requerirían escenarios en los que la prueba y el error sean de
bajo costo, idealmente utilizando un entorno de simulación realista para entrenar y probar el a

Aprendizaje generativo adversario


Recientemente, se ha desarrollado una nueva forma de aprendizaje automático
que es capaz de generar nuevas imágenes, voz o texto que son indistinguibles
de las imágenes reales en los datos de entrenamiento. Esta forma de
aprendizaje automático se conoce como aprendizaje generativo adversario.
Los modelos que se utilizan se denominan redes generativas adversarias (GAN).
Las GAN, presentadas por primera vez por Ian Goodfellow en 2014, son
particularmente útiles porque ofrecen una nueva forma de realizar aprendizaje
no supervisado. Consisten en dos redes neuronales: un generador que toma
información y produce nuevas muestras, y un discriminador que aprende cómo
es la información real y tiene la tarea de distinguir lo real de lo falso. Cuando
utilizamos modelos discriminativos para clasificación o aprendizaje de
regresión, la técnica empleada implica aprender de muestras etiquetadas y
observar muestras no etiquetadas para decidir cuáles son las etiquetas para
ellas. Alternativamente, un modelo discriminativo podría decidir si estas
muestras sin etiquetar son parte de la clase etiquetada o no. Los modelos
generativos, por otro lado, utilizan datos de entrenamiento y aprenden a
generar datos que parecen similares a estos datos de entrenamiento. Para
ello, determina qué combinaciones de características hacen que una muestra
parezca similar. El desafío, que a menudo se representa como un juego, es
que el generador engañe al discriminador haciéndole creer que los datos que
genera son reales, y que el discriminador distinga con éxito uno del otro (de
ahí el nombre de “adversario”). Con el tiempo, el generador mejora en el
desempeño de su tarea y puede engañar al discriminador. Un modelo GAN,
para
Machine Translated by Google

El futuro de la sociedad, el trabajo y la IA 303

Por ejemplo, puede tomar datos de entrenamiento compuestos de imágenes de


rostros y producir imágenes sintetizadas que se parecen a rostros reales, aunque
las personas que se supone que representan no existen en realidad.26 Hay una
variedad de aplicaciones académicas que utilizan GAN, y la tecnología es
progresa rápidamente, pero hasta ahora aún no han surgido aplicaciones
comerciales más amplias.

Aprendizaje federado

Las aplicaciones típicas de aprendizaje automático requieren que los datos se


recopilen en una computadora o en un centro de datos, es decir, en un entorno
relativamente pequeño y centralizado. Edge Computing nos permite procesar y
analizar datos cerca de su fuente. Cuando los dispositivos utilizan los datos
localmente en el borde, como los termostatos inteligentes, se requiere menos
flujo de datos, lo que reduce el tráfico de la red y, por lo tanto, el tiempo de respuesta.
El aprendizaje federado es un término que se refiere a la capacidad de los
dispositivos de Internet de las cosas (IoT), como teléfonos móviles o drones, de
compartir sus conocimientos sin compartir sus datos a través de la nube. Esto
permite que los dispositivos de borde entrenen modelos en lugar de necesitar
modelos previamente entrenados. En cierto sentido, el aprendizaje federado lleva
el aprendizaje automático a la informática de punta de una manera que no existía
antes. El modelo (digamos, su termostato) descarga el software más reciente y
luego aprende de los datos que recopila. Un modelo cifrado que ha aprendido es
lo único que sube a la nube. Los datos originales nunca salen de su termostato.
Luego, estos modelos aprendidos de cada termostato se agregan (por ejemplo,
promediando) en un modelo y el nuevo modelo se redistribuye hacia el borde. De
esta forma iterativa, el modelo mejora con el tiempo.

El aprendizaje federado tendrá múltiples aplicaciones en el futuro y


desempeñará un papel importante en una variedad de áreas. Los dispositivos
móviles requerirán menos tiempo para generar nuevos conocimientos y actuar
en consecuencia. La seguridad mejorará, ya que se pueden compartir
conocimientos sin compartir los datos a partir de los cuales se generan. Se
mejorará la privacidad de los datos, ya que los usuarios ya no tendrán que enviar
información confidencial a varias empresas a través de redes propiedad de proveedores de se
Machine Translated by Google

304 MIRANDO HACIA EL FUTURO

La eficiencia aumentará a medida que los dispositivos de borde asuman las tareas para las
que son más adecuados y permitirá aplicaciones de aprendizaje automático más privadas y
rentables.
Es probable que el aprendizaje federado adquiera mayor importancia a medida que las
preocupaciones sobre la privacidad de los datos de los usuarios individuales se vuelvan más
prevalentes y los dispositivos móviles y de borde se vuelvan más poderosos.

Procesamiento natural del lenguaje

El procesamiento del lenguaje natural (PLN) permite a las computadoras extraer y analizar
información de texto en lenguaje natural y luego responder preguntas, recuperar información,
generar texto y traducir de un idioma a otro. Dado que uno de los objetivos principales de la
IA es permitir que las computadoras y los dispositivos inteligentes comprendan y apliquen
lenguajes hablados y escritos, así como también resuelvan problemas, la PNL se ha convertido
en un área importante de investigación. Hay tantos datos de texto no estructurados en el
mundo que analizarlos rápida y fácilmente se ha vuelto imperativo. Además, los pequeños
dispositivos inteligentes, como los teléfonos móviles, fomentan el uso del lenguaje natural
como la forma más fácil e intuitiva de entrada y salida.

Un obstáculo importante al que se enfrenta la PNL es la variedad de significados que


puede tener el lenguaje. El enfoque actual de la PNL implica representar palabras y texto
como vectores, cada uno de los cuales es un conjunto de números reales. Esto permite
capturar la relación de una palabra con otras palabras, con qué palabras aparece o junto a
ellas y con qué frecuencia.
Estos vectores, llamados incrustaciones de palabras, apoyan la traducción de idiomas y la
búsqueda y recuperación de información. Sin embargo, el uso de incrustaciones de palabras
tiene algunos inconvenientes. Un problema es que tiene poca sensibilidad al contexto;
dondequiera que aparece una palabra, su representación es la misma. Los científicos
informáticos han utilizado recientemente un codificador de secuencia neuronal para agregar
información contextual, lo que ha mejorado enormemente la incrustación de palabras
tradicional.
Tan sólo en los últimos años, se han logrado avances importantes que han permitido
desarrollar modelos de lenguaje que no sólo respaldan la extracción de datos, sino que
también simulan tipos de razonamiento muy rudimentarios, lo que permite a estos programas
Machine Translated by Google

El futuro de la sociedad, el trabajo y la IA 305

comprender el material y presentarlo de manera significativa a los humanos. Estos avances


recientemente ayudaron a un sistema de inteligencia artificial llamado AristoBERT a
aprobar una prueba de ciencias de octavo grado.27 Sin embargo, incluso estos avances
recientes no han permitido que las tecnologías de PNL estén al mismo nivel de rendimiento
que las tecnologías actuales de visión por computadora o reconocimiento de imágenes. La
PNL sigue siendo un campo de investigación muy activo, con investigaciones en las áreas
de nuevas estructuras de redes neuronales, transferencia de aprendizaje, cómo utilizar el
conocimiento y el sentido común en la comprensión del lenguaje natural y métodos de
aumento de datos, como la introducción de conocimientos de dominio o el uso de
diccionarios. y sinónimos para mejorar el rendimiento.

Redes cápsula
Las redes neuronales profundas necesitan cantidades gigantescas de datos para entrenar.
En muchos casos, estos datos pueden no estar disponibles o su adquisición puede tener
un costo prohibitivo. Este desafío llevó a Geoffrey Hinton de Google y a sus estudiantes a
la idea de las redes cápsula. 28 Las redes de cápsulas utilizan pequeñosgrupos de
neuronas, conocidas como cápsulas, para modelar mejor las relaciones jerárquicas. Uno
de los problemas que abordan las redes de cápsulas a veces se denomina “problema de
Picasso” en el reconocimiento de imágenes. Si una imagen de un rostro humano se corta
y se vuelve a colocar en un collage (como una pintura de un rostro de Picasso), una red
neuronal profunda probablemente aún la clasificará como un rostro "humano", porque
incluso con grandes cantidades de datos de entrenamiento, no lo hace. no resume
completamente las relaciones jerárquicas de nariz, ojos, boca, cejas, cara, cabello y cabeza.

Por otro lado, una red de cápsulas sería capaz de reconocer esto como si no fuera
una cara, con muchos menos datos de entrenamiento, porque aprende las relaciones
jerárquicas de las partes de la cabeza y de la cabeza misma, mientras que aún podría
Reconocer imágenes de la cabeza desde diferentes ángulos o puntos de vista. Actualmente,
estas redes de cápsulas funcionan un poco más lentamente que las redes neuronales
tradicionales, pero Hinton sugiere que eventualmente pueden proporcionar una manera de
resolver problemas de manera más eficiente utilizando menos datos para entrenar.
Machine Translated by Google

306 MIRANDO HACIA EL FUTURO

Aprendizaje automático cuántico

La computación cuántica es una tecnología de vanguardia que, de tener


éxito, podría transformar radicalmente no sólo la velocidad a la que se
realizan ciertos cálculos, sino también el paradigma computacional en sí.
Se basa en la mecánica cuántica: la teoría más reciente y más aceptada
sobre cómo funciona el mundo físico, que permite gran parte de la
tecnología moderna, desde chips de computadora hasta reproductores de
DVD y plantas de energía nuclear. Desarrollada por Erwin Schrödinger y
Werner Heisenberg, la mecánica cuántica fue posteriormente popularizada
por Schrödinger en su descripción de un gato en una caja que podía estar
simultáneamente muerto (o cero) y vivo (uno).
La informática actual se basa en bits; esos bits tienen valores
definidos de uno o cero. En la computación cuántica, en lugar de ser
definitivamente uno o cero, un bit es una combinación de ambos, como el
gato de Schrödinger. La computación cuántica los llama bits cuánticos, o
qubits, y lo interesante de ellos es que pueden existir en múltiples estados
al mismo tiempo. Para operar en este misterioso reino cuántico, las
moléculas se enfrían hasta casi el cero absoluto Kel­vin, que es más frío
que en el espacio profundo. Cuando los qubits se entrelazan, incluso si no
están cerca unos de otros, igualmente afectan el comportamiento de los
demás.
Las computadoras cuánticas utilizan efectos cuánticos, como la
coherencia cuántica, para procesar información. En teoría, la computación
cuántica puede funcionar mucho mejor que las computadoras actuales
para resolver varios problemas, incluida la búsqueda en una base de datos
desordenada y la inversión de una matriz dispersa. Actualmente, esto sólo
se lleva a cabo en el laboratorio a escalas que involucran muy pocos
qubits, y sólo ciertos problemas son posibles. Google publicó recientemente
un artículo que indica que su procesador cuántico “tarda unos 200
segundos” en completar una tarea y que sus puntos de referencia indican
que “la tarea equivalente para una supercomputadora clásica de última
generación tomaría aproximadamente 10.000 años”.29 Si Si los
experimentos continúan teniendo éxito, su impacto en la IA y en la
computación en general será profundo. La idea de utilizar la computación
cuántica para el aprendizaje automático es un área de interés emergente.
Un equipo de IBM ya realizó una prueba sencilla de aprendizaje automático, primero sin
Machine Translated by Google

El futuro de la sociedad, el trabajo y la IA 307

con ellos enredados. En la primera prueba, la tasa de error fue del 5%; en el
segundo, la tasa de error fue del 2,5%.30 Puede que esto no sea una diferencia
significativa, pero es un indicador de que la computación cuántica puede
transformar la IA en el futuro.

Y esto es sólo el principio


Dada la intensidad del enfoque en la inteligencia artificial, se seguirán logrando
más avances en la investigación fundamental, la investigación aplicada y los
conjuntos de herramientas mejorados, y la IA se seguirá empleando para una
serie de casos de uso adicionales. Ciertamente hay suficiente interés en este
campo: recientemente visité una clase de nivel avanzado de doctorado sobre
aprendizaje profundo en la que se habían matriculado 120 estudiantes, una
cifra enorme para cualquier departamento de posgrado.
En el futuro, la IA dependerá menos de los datos, será más transparente e
interpretable31 y menos sesgada. Áreas como las redes de cápsulas y el
modelado del conocimiento seguirán creciendo, y se desarrollarán soluciones
de IA más sofisticadas junto con otras tecnologías, como la robótica, el
aprendizaje automático cuántico, la realidad aumentada y la IoT. Se utilizará con
más frecuencia para la toma de decisiones de alta velocidad y avanzará hacia
operaciones autónomas. Aquí no es solo donde el resultado de los modelos de
IA se mostrará en un informe o se integrará en una aplicación para el consumo
humano y la toma de decisiones, sino que la IA detectará lo que está
sucediendo, tomará decisiones y emprenderá acciones basadas en ellas. en
eso. Podríamos encontrarnos disfrutando de esos fines de semana de tres días
ya en 2030, con mejor salud y mayores niveles de vida para todos gracias a la
IA.32

Muchas áreas que involucran la tecnología de IA estarán plagadas de


desafíos que tendremos que superar como líderes empresariales y tecnológicos
y como ciudadanos. Requerirá muchos ajustes, pero está preparado para
impulsar la mayor transformación empresarial de nuestra historia.
Somos muy afortunados de trabajar en un momento en el que nuestro uso de la
IA puede tener este tipo de impacto positivo descomunal en las empresas y en
nuestras vidas. Es hora de intervenir y empezar a adaptar su organización para
aprovecharlo.
Machine Translated by Google

308 MIRANDO HACIA EL FUTURO

Notas

1. BBC News (2 de diciembre de 2014). Stephen Hawking advierte que la inteligencia


artificial podría acabar con la humanidad. https://www.bbc.com/news/
tecnología­30290540 (consultado el 26 de septiembre de 2019).
2. Noticias de EE. UU. (7 de mayo de 2018). La robótica, la automatización y la
inteligencia artificial son el nuevo FANG. https://money.usnews.com/investing/investing­101/
artículos/2018­05­07/robotics­automation­and­ai­are­the­ new­fang (consultado el
26 de septiembre de 2019).
3. La próxima web (2018). La nueva IA física podría ser la clave para una revolución de
la computación cuántica. https://thenextweb.com/artificial­intelligence/2018/09/19/
new­physics­ai­could­be­the­key­to­a­quantum­computing­revolution/ (consultado
el 26 de septiembre de 2019).

4. MIT Technology Review (11 de diciembre de 2017). Microsoft anuncia 50 millones


de dólares para su proyecto “AI for Earth”. https://www.tecnología
review.com/f/609745/microsoft­announces­50­million­for­its­ai­for­earth­project/
(consultado el 26 de septiembre de 2019).
5. Fundación AI for Good. ¿Cómo se pueden aplicar la IA y el aprendizaje automático
para resolver algunos de los mayores desafíos de la sociedad? https://ai4good.org
(consultado el 26 de septiembre de 2019).

6. Bloomberg (5 de mayo de 2019). ¿A quién demandar cuando un robot pierde su


fortuna? https://www.bloomberg.com/news/articles/2019­05­06/who­to­sue­when­a­
robot­loses­your­fortune (consultado el 26 de septiembre de 2019).

7. New Tork Times (5 de marzo de 2019). Los fiscales no planean acusar a Uber por el
fatal accidente del vehículo autónomo. https://www.nytimes.
com/2019/03/05/technology/uber­self­driving­car­arizona.
html (consultado el 26 de septiembre de 2019).

8. New York Times (24 de abril de 2019). Hecho en China, exportado al mundo: el
Estado de vigilancia. https://www.nytimes.com/2019/04/24/
technology/ecuador­surveillance­cameras­police­government.html (consultado el
26 de septiembre de 2019).
9. New York Times (14 de mayo de 2019). San Francisco prohíbe la tecnología de
reconocimiento facial. https://www.nytimes.com/2019/05/14/us/facial­recognition­
ban­san­francisco.html (consultado el 26 de septiembre de 2019).
Machine Translated by Google

El futuro de la sociedad, el trabajo y la IA 309

10. MIT Technology Review (6 de junio de 2019). Entrenar un único modelo de IA puede emitir
tanto carbono como cinco automóviles durante su vida útil. https://www.
technologyreview.com/s/613630/training­a­single­ai­model­can­emit­tanto­carbono como
cinco­coches­en­su­
vidas/ (consultado el 26 de septiembre de 2019).
11. Boing Boing (28 de julio de 2019). Deuda intelectual: ya es bastante malo cuando la IA se
equivoca en sus predicciones, pero es potencialmente PEOR cuando la IA acierta. https://
boingboing.net/2019/07/28/orphans­of­the­sky.html (consultado el 26 de septiembre de
2019).
12. MIT Technology Review (7 de febrero de 2019). Mientras Goldman adopta la
automatización, incluso los amos del universo se ven amenazados. https://
www.technologyreview.com/s/603431/as­goldman­embraces­automation­even­the­
masters­of­the­universe­are­
amenazado/ (consultado el 26 de septiembre de 2019).
13. McKinsey Global Institute (1 de diciembre de 2017). Empleos perdidos, empleos ganados:
transiciones de la fuerza laboral en una época de automatización. https://www.mckinsey.
es/~/media/mckinsey/featured%20insights/future%20of%
20organizaciones/qué%20el%20futuro%20del%20trabajo%
20%20significará%20para%20trabajos%20habilidades%20y%20salarios/
mgi­empleos­empleos­perdidos­ganados­informe­diciembre­6­2017.ashx
(consultado el 26 de septiembre de 2019).

14. Garner. Prepare su estrategia de talento para el futuro. https://www.gartner.


com/es/recursos­humanos/herramientas­de­investigación/talentneuron/
Future­proof­your­talent­strategy (consultado el 26 de septiembre de 2019).
15. The Economist (21 de septiembre de 2018). Por qué el fin de semana no es más largo.
https://www.economist.com/the­economist­explains/2018/
21/09/por qué­el­fin­de­semana­ya­no­está­más (consultado el 26 de septiembre de 2019).
16. The Guardian (25 de junio de 2019). Un taller clandestino de explotación laboral: los
contratistas asistentes de Google alegan robo de salarios. https://www.theguardian.
com/technology/2019/may/28/a­white­collar­sweatshop­google­assistant­contractors­
allege­wage­theft (consultado el 26 de septiembre de 2019).

17. El documental The Great Hack (2019) examina la situación de Cambridge


Escándalo de Analytica.

18. Transacciones filosóficas de la Royal Society (15 de octubre de 2018). Democracia


constitucional y tecnología en la era de la inteligencia artificial. https://
royalsocietypublishing.org/doi/full/10.1098/
rsta.2018.0089 (consultado el 26 de septiembre de 2019).
Machine Translated by Google

310 MIRANDO HACIA EL FUTURO

19. Organización para la Cooperación y el Desarrollo Económico (21 de mayo de 2019).


Recomendación del Consejo sobre Inteligencia Artificial. https://legalinstruments.oecd.org/
en/instruments/OECD­LEAL­0449 (consultado el 26 de septiembre de 2019).

20. Columbia Journalism Review (1 de julio de 2019). La legislación destinada a detener los
deepfakes es una mala idea. https://www.cjr.org/analysis/
legislación­deepfakes.php (consultado el 26 de septiembre de 2019).
21. Asociación Médica Estadounidense (14 de junio de 2018). AMA aprueba las primeras
recomendaciones de políticas sobre inteligencia aumentada. https://www.
ama­assn.org/press­center/press­releases/ama­passes­first­policy­recommendations­
augmented­intelligence (consultado el 26 de septiembre de 2019).

22. Instituto de Ingenieros Eléctricos y Electrónicos (diciembre de 2017). Diseño éticamente


alineado. https://ethicsinaction.ieee.org (consultado el 26 de septiembre de 2019).

23. Nature Machine Intelligence (2 de septiembre de 2019). El panorama global de las


directrices éticas de la IA. https://www.nature.com/articles/
s42256­019­0088­2 (consultado el 26 de septiembre de 2019).
24. Google DeepMind (17 de junio de 2016). Aprendizaje por refuerzo profundo. https://
deepmind.com/blog/deep­reinforcement­learning/
(consultado el 26 de septiembre de 2019).

25. Google DeepMind (20 de julio de 2016). DeepMind AI reduce la factura de refrigeración
del centro de datos de Google en un 40 %. https://deepmind.com/blog/article/
deepmind­ai­reduce­google­data­center­cooling­bill­40
(consultado el 26 de septiembre de 2019).

26. Las GAN generan imágenes de personas en https://thisperson


donotexist.com: estas personas en realidad no existen (consultado el 26 de septiembre
de 2019).
27. New York Times (4 de septiembre de 2019). Un gran avance para la tecnología de
inteligencia artificial: aprobar una prueba de ciencias de octavo grado. https://www.nytimes.
com/2019/09/04/technology/artificial­intelligence ­aristo­passed­test.html (consultado
el 26 de septiembre de 2019).
28. MIT Technology Review (1 de noviembre de 2017). Los investigadores de Google tienen
una nueva alternativa a las redes neuronales tradicionales. https://www.
technologyreview.com/the­download/609297/google­researchers­have­a­new­
alternative­to­traditional­neural­
redes/ (consultado el 26 de septiembre de 2019).
Machine Translated by Google

El futuro de la sociedad, el trabajo y la IA 311

29. Naturaleza (23 de octubre de 2019). Supremacía cuántica mediante un procesador


superconductor programable. https://www.nature.com/articles/
s41586­019­1666­5 (consultado el 16 de diciembre de 2019).
30. MIT Technology Review (26 de marzo de 2018). Dario Gil de IBM dice que la
computación cuántica promete acelerar la IA. https://www.tecnología
review.com/s/610624/ibms­dario­gil­says­quantum­computing­promises­to­
accelerate­ai/ (consultado el 26 de septiembre de 2019).

31. Cableado (8 de octubre de 2019). Un pionero de la IA quiere que sus algoritmos


comprendan el "por qué". https://www.wired.com/story/ai­pioneer­algorithms­
understand­why/ (consultado el 16 de diciembre de 2019).
32. Inc.com (4 de noviembre de 2019). Es oficial: todos deberíamos dejar de trabajar los
viernes, según Microsoft. https://www.inc.com/john­brandon/its­official­we­should­
all­stop­working­on­fridays­according­to­microsoft.html (consultado el 16 de
diciembre de 2019).
Machine Translated by Google
Machine Translated by Google

Otras lecturas

General
Barrat, J. (2013). Nuestro último invento: la inteligencia artificial y el fin del mundo
Era humana. Nueva York: Thomas Dunne.
Broussard, M. (2018). Falta de inteligencia artificial: cómo las computadoras malinterpretan
soportar el mundo. Cambridge: Prensa del MIT.
Domingo, P. (2015). El algoritmo maestro: cómo la búsqueda de la máquina de aprendizaje
definitiva rehará nuestro mundo. Nueva York: Libros básicos.
Harari, YN (2015). Sapiens: una breve historia de la humanidad. Nueva York:
HarperCollins.
Harari, YN (2017). Homo Deus: una breve historia del mañana. Nueva York:
HarperCollins.
Kurzweil, R. (2005). La singularidad está cerca: cuando los humanos trasciendan la
biología. Nueva York: Grupo Penguin.
Lee, K. (2018). Superpotencias de la IA: China, Silicon Valley y el nuevo orden mundial.
Nueva York: Houghton Mifflin Harcourt.
Maeda, J. (2019). Cómo hablar máquina: pensamiento computacional para el resto de
nosotros. Londres: Portafolio.
Mitchell, M. (2019). Inteligencia artificial: una guía para pensar como humanos.
Nueva York: Farrar, Straus y Giroux.

313
Machine Translated by Google

314 Otras lecturas

Página, SE (2018). El pensador modelo: lo que necesita saber para que los datos funcionen para
usted. Nueva York: Libros básicos.
Rosling, H., O. Rosling y A. Rönlund. (2018). Veracidad, diez razones por las que nos equivocamos
acerca del mundo y por qué las cosas son mejores de lo que cree.
Nueva York: Flatiron Books.
Sejnowski, T. (2018). La revolución del aprendizaje profundo. Cambridge, MA:
Prensa del MIT.

Tegmark, M. (2014). Nuestro universo matemático: mi búsqueda de la naturaleza última de la realidad.


Nueva York: Knopf.
Wachter­Boettcher, S. (2017). Técnicamente incorrecto: aplicaciones sexistas, algoritmos sesgados
y otras amenazas de tecnología tóxica. Nueva York: WW Norton & Company.

Sociedad

Bostrom, N. (2014). Superinteligencia: caminos, peligros, estrategias. Oxford, Reino Unido: Oxford
University Press.
Cheney­Lippold, J. (2017). Somos datos: algoritmos y la creación de nuestros
Yoes digitales. Nueva York: Prensa de la Universidad de Nueva York.
Christian, B. y T. Griffiths. (2016). Algoritmos para vivir: la informática de las decisiones humanas.
Nueva York: Picador.
Goodman, M. (2016). Crímenes futuros: dentro del subsuelo digital y la batalla por nuestro mundo
conectado. Nueva York: Knopf.
Holt, TJ, AM Bossler y KC Seigried­Spellar. (2015). Cibercrimen y análisis forense digital: una
introducción. Nueva York: Routledge.
Husain, A. (2017). La máquina sensible: la era venidera de lo artificial
Inteligencia. Nueva York: Simon & Schuster.
Marcus, G. y E. Davis. (2019). Reiniciar la IA: construir inteligencia artificial
Podemos confiar. Nueva York: Pantheon Books.
Rothenberg, M. (2019). Libro de consulta de políticas de IA 2019. Washington, DC: EPIC.
Scharf, R. (2019). Alexa te está robando el trabajo: el impacto de la inteligencia artificial
sobre tu futuro. Nueva York: Morgan James.
Tegmark, M. (2017). Vida 3.0: Ser humano en la era de la inteligencia artificial.
Nueva York: Knopf.
Turner, R. (2019). Reglas de los robots: regulación de la inteligencia artificial. Cham, Suiza: Palgrave
Macmillan.
Walsh, M. (2019). El líder algorítmico: cómo ser más inteligente cuando las máquinas son inteligentes
que usted. Canadá: libros de la página dos.
Zuboff, S. (2019). La era del capitalismo de vigilancia: la lucha por un futuro humano en la nueva
frontera del poder. Nueva York: Hachette Book Group.
Machine Translated by Google

Otras lecturas 315

Trabajar

Agarwal, A., J. Gans y A. Goldfarb. (2018). Máquinas de predicción: la economía simple de la inteligencia
artificial. Boston: Prensa de Harvard Business Review.
Ashley, KD (2017). Inteligencia artificial y análisis jurídico: nuevas herramientas para la práctica del
derecho en la era digital. Cambridge, Reino Unido: Cambridge University Press.

Burmeister, C. (2019). IA para las ventas: cómo la inteligencia artificial está cambiando las ventas. Chad
Burmeister.

Finlay, S. (2017). Inteligencia artificial y aprendizaje automático para empresas: una guía sensata sobre
tecnologías basadas en datos. Lancashire: libros relativistas.

Guida, T. (2019). Big Data y Machine Learning en inversiones cuantitativas.


West Sussex, Reino Unido: Wiley.
Marr, B. (2017). Estrategia de datos: cómo sacar provecho de un mundo de Big Data, análisis e Internet
de las cosas. Londres: Kogan Page Limited.
Mather, B. (2018). Aplicaciones empresariales de inteligencia artificial: inteligencia artificial y aplicaciones
de ventas. Seattle: Amazon Digital Services LLC.
Panesar, A. (2019). Aprendizaje automático e inteligencia artificial para la atención médica: Big Data para
Mejores resultados de salud. Nueva York: Apress.
Provost, F. y T. Fawcett. (2013). Ciencia de datos para empresas: lo que necesita saber sobre la minería
de datos y el pensamiento analítico de datos. Sebastopol, CA: O'Reilly Media.

Richardson, VJ, RA Teeter y KLTerrell. (2018). Análisis de datos para contabilidad. Nueva York: McGraw­
Hill Education.
Sterne, J. (2017). Inteligencia artificial para marketing: aplicaciones prácticas.
Hoboken, Nueva Jersey: Wiley.
Topol, E. (2019). Medicina profunda: cómo la inteligencia artificial puede mejorar la salud
Cuida al ser humano otra vez. Nueva York: Libros básicos.
Ward, CJ y JJ Ward. (2019). Aprovechamiento de datos: desbloquear lo sorprendente
Potencial de crecimiento de las asociaciones de datos. Miami: Ward PLLC.
Yao, M., M. Jai y A. Zhou. (2018). Inteligencia artificial aplicada: manual para líderes empresariales.
Nueva York: Topbots.
Machine Translated by Google
Machine Translated by Google

Expresiones de gratitud

A lo largo de los años, muchas personas me han inspirado tanto en el trabajo.


y en mi vida familiar, y directa o indirectamente ayudaron
Encima a dar forma a este libro.
Agradezco a Randall Orbon y Adriana Miller, cuyo
entusiasmo hizo posible este libro.
Agradezco profundamente a todos los editores que me
ayudaron a refinar mis ideas, perfeccionar mi lenguaje y crear una
narrativa más convincente: Kevin Harreld, Elisha Benjamin, Pilar
Patton, Bill Kozel y Louise Gikow.
Sin el apoyo de mis compañeros, equipos, clientes y socios de
Publicis Sapient, así como de las personas que se tomaron el
tiempo para educarme y compartir sus perspectivas, no habría
llegado al punto en el que podría escribir este libro. Por esto quiero
agradecer a Sray Agarwal, Nitin Agrawal, la profesora Genevera
Allen, Hilding Ander­son, Rohit Arora, Irakli Beridze, Kanishka
Bhattacharya, Bill Braun, Hugh Connett, Art Crosby, Rodney
Coutinho, Milind Godbole, Steve Guggenheimer, Shahed Haq. , Profesora Cat

317
Machine Translated by Google

318 Agradecimientos

Jeremy Howard, el profesor Chris Jermaine, Cassie Kozyrkov, Dan


Lambright, Tim Lawless, Burton McFarland, Hugo Manessi, David
Murphy, Andrew Ng, Satyendra Pal, el profesor Ankit Patel, David
Poole, Amit Singh, Ahsan Sohail, Josh Sutton, Cobus Theunissen,
Kevin Troyanos, Ashish Tyagi, Bob Van Beber y Ray Vélez.
Sigo inspirándome en las personas que despertaron mi interés
inicial en los modelos y algoritmos: Masud Haq, Nandini Ramachan­
dran, Saly Kutty Joseph, Tayyba Kanwal, Farhad Faisal, Joseph
Eberly, Joseph Niesendorfer, Stephen Hawking, John Archibald
Wheeler, Roger Penrose, Howard Carmichael y Jim Isenberg.
Agradezco a mi madre, Raushan Hasina Haq, por mostrarme
(entre muchas otras cosas) que es posible escribir un libro.
Finalmente, estoy profundamente agradecido a mi familia por
soportar con buen humor mis ausencias durante los últimos dos años
mientras escribía este libro: Athena Haq, Darius Haq y Tayyba Kanwal.
Machine Translated by Google

Sobre el Autor

Rashed Haq es un tecnólogo, científico y artista estadounidense.


Recientemente fue nombrado vicepresidente de Robótica de Cruise,
una de las empresas líderes en vehículos autónomos. Anteriormente
fue director global de IA y datos y vicepresidente de grupo en Publicis
Sapient. Un consumado visionario de la tecnología y el análisis, ha
pasado más de 20 años ayudando a las empresas a transformar y
crear una ventaja competitiva sostenida a través de aplicaciones
innovadoras de inteligencia artificial, optimización dinámica, análisis
avanzado e ingeniería de big data. Con la mirada puesta en el futuro
y en lo que es posible en la intersección de tecnología, negocios,
datos y algoritmos, Rashed ha encabezado el trabajo de análisis
avanzado para ayudar a las empresas a crear nuevos productos y
servicios, generar ingresos, reducir costos y reducir riesgos.
Rashed tiene títulos avanzados en física teórica y matemáticas.
Antes de Sapient, realizó investigaciones en física en el Laboratorio
Nacional de Los Alamos y el Instituto de Ciencias Teóricas. También
trabajó con empresas de Silicon Valley diseñando algoritmos complejos
e implementando la primera aplicación de traducción web de Internet.

319
Machine Translated by Google

320 Sobre el Autor

Rashed, autor consumado y orador solicitado, escribe con frecuencia


sobre los usos prácticos de la IA en los negocios y habla sobre la
aplicación de IA y análisis seguros en conferencias globales, como AI
Summit, AI in Finance, AI Pioneers Forum, LEAP. Energía, Riesgo
Energético, EMART y la Cámara de Comercio de Asia.
Es miembro del Consejo Asesor de IA de la Asociación de la Industria de
Tecnología Informática.
Rashed vive en Houston con su esposa y sus dos hijos. Cuando no
está centrado en el futuro de los negocios, la tecnología y la ciencia,
Rashed disfruta creando arte y ha mostrado su trabajo en muchas
exposiciones de galerías en toda América del Norte.
Machine Translated by Google

Índice

Nota: Las referencias de páginas en cursiva se refieren a figuras y tablas.

A Círculo virtuoso de algoritmos, datos


Pruebas A/B, 54, 165 (relación), 7–8
Responsabilidad, 297 AlfaGo, 11, 301
Automatización de acciones, 255–256 Alfacero, 301
Acxioma, 51 Datos alternativos, 77
Datos de impresiones de anuncios, uso, 80 Enfermedad de Alzheimer/síntomas,
Fabricación avanzada comprensión, 108–109
Iniciativa, 85 Amazon Alexa, 3, 62, 244
Computación afectiva, 62 AmazonAWS, 236
Comercio algorítmico, 75–76 Amazon Eco, 62
Algoritmos, 278–279 Turco mecánico amazónico, 147
experimentación, marcos Detección ambiental, 251–255
284f, 239–240 Automatización de análisis, 255–256
apalancamiento, 142–144 Anónimo, 147
problemas, 195–197 Detección de anomalías,
Estudio de ProPublica, 13–14 250–251, 250f
capacitación, 107 Puntuación de anomalía, 251

321
Machine Translated by Google

322 índice

Unidades de respuesta, 246 algoritmos, 77–79


Anthos (Google), 180 aplicaciones, 40–41
Antilavado de dinero (AML), 31, 69–70, carreras, 227
173 modelos operativos
Manzana Siri, 3, 62, 244 centralizados, 216f
Interfaz del programa de aplicación comunidad, edificio, 218
(API), 81, 142, 166, ventaja competitiva, 13­14
168, 249 complejidad, 124
llamada, uso, 184, 242, 245, 256 modelos operativos
puerta de enlace, 243 descentralizados, 216f
capa, impacto, 189, 238 definición, 17, 122­123
apalancamiento, 191 DevOps, 162, 166, 168, 188
provisión, 190 proceso, 167f
uso, 286 personal, 224
Arquitectura ecosistema, 221–222
creación, 126 tecnología emergente, 124
patrones técnicos, motor, 70, 171
relación, 235 ingenieros, especializacion,
Área bajo la curva (AUC), 159, 159f, 223–224
281, 282f ejecución, desalineación, 125
XGBoost, uso, 285f modelos operativos
AristoBERTO, 305 federados, 216f
ARPANET, 8 marcos, selección, 191
Inteligencia general artificial futuro, 291, 300–307
(AGI), 6 exageración / realidad, 122­123
Inteligencia artificial (IA) implementación,
Asistentes digitales desafíos, 122–125
impulsados por IA, 59–60 iniciativas, implementación,
Campañas de marketing 122
impulsadas por IA, 48 innovaciones, 46
Tecnología PNL impulsada por IA, 60 empleo, creación, 296
Herramientas orientadas al cliente Uso de JP Morgan, 14
habilitadas para IA, 74 apalancamiento, 215
Transformación digital ciclo de vida, 137, 218
basada en IA, 119–120 proceso de modelado,
Tecnología de detección de prospectos 123, 126, 259
basada en IA, 48 mitos/realidad, 6–7
Machine Translated by Google

Índice 323

IA estrecha, desarrollo, 18­20 plataforma, 221–222


gobernanza del proyecto, 218–219
proceso, 17 normas, 218–219
programa, éxito, 214 Inteligencia artificial
proyectos modelo (IA)
abandono, 175­176 flexibilidad, 90–91
estándares, establecimiento, 218 selección/formación, 151–160
regulación, 124–125, 296–300 proceso de formación/
investigación, 12 validación, 153f, 201
desarrollo responsable, principios uso, 47–48, 56, 89–90
(promoción), participación del usuario, 178f
297 Inteligencia artificial
científicos, responsabilidad, 223 operaciones (AIOps), 168
sociedad, futuro (relación), Plataforma de inteligencia artificial
292–294 (IA), 226
software, uso, 14 aplicaciones, contraste, 172
espacio de inicio, 218 arquitectura, 186–192, 236–
sistemas, 41f, 100 244

talento, escasez, 125 componentes, 240f


tarea, 260–262 proceso, 172­178
equipo, 128, 223 edificio, 131
tecnología, mejora, 300–307 complejidad, 174­175
consideraciones, 179–185
uso, 45, 67, 73, 85, 103 propiedad/crecimiento, 218
aceptación de los empleados, 218 uso, 176f, 177f
patrones, 123–124 usuarios, tipos, 178f
flujo de trabajo, 138f Inteligencia artificial
trabajo, futuro (relación), estrategia (IA)
294–296 asamblea, 129–134
Centro de excelencia en inteligencia componentes, 126–127
artificial (IA desarrollo, 119
Consejo de Europa), 217–222 desarrollo, pasos, 127–129
Ecosistema de IA, 221–222 Red neuronal artificial (RNA),
comunidad, 220–221 concepción, 20
creación, 130­131 Activos, mantenimiento, 87–90
funciones, 218f modelo de atribución,
conocimiento, 220–221 determinación, 52
Machine Translated by Google

324 índice

Inteligencia aumentada, logros, Grandes datos

121. impacto, 120


Realidad aumentada/realidad virtual (AR/ estrategia, implementación
VR), 63 (rentabilidad), 122
Au, Roda, 108 tecnologías/arquitecturas, 224
Austin Energy, reembolso de Nest, 96 Clasificación binaria, modelo
Toma de decisiones individuales de regresión logística
automatizada, 208–209 (configuración), 279f
Datos de etiquetado automatizado, Cajas negras, 34, 196
gastos, 147 modelo, 205
Proceso automatizado de gestión de modelos, problema, 13, 74, 110­111
implementación, 163 cadena de bloques, 4

Bodden, Leo, 113


AutoML, 177 Impulsando, 25
Comercio autónomo, facilitación, 75–76 robots

acceso. Ver Automatización robótica


Vehículos autónomos, 5 de procesos.

Concientización, mantenimiento, 218 servidor, 256–257


Pruebas de condiciones límite,
B 202–203

Automatización de procesos back­end, Sistema de ramificación, creación, 24.


implementación, 81–82 Incumplimiento, riesgo, 13

Propagación hacia atrás, 10, 27–28 Bremer, Nadieh, 48


Datos incorrectos, 123 Brin, Sergey, 235
Embolsado, 25 British Petroleum (BP), sensores (uso), 98
Balser, Jeffrey, 103
Datos por lotes, patrones, 183f Negocio
Inferencia/inferencia por lotes, 182– aplicaciones, 190
184 procesamiento por lotes,
Procesamiento por lotes, uso, 182–184
uso, 182–184 costos/beneficios, evaluación del
Bezos, Jeff, 137, 140 orden de
Inclinación
magnitud, 129
regularización, 200 objetivos, escenario, 126
regularizador, 241 arquitectura de microservicios, uso,
pruebas, 201–202 184–185
Machine Translated by Google

Índice 325

arquitectura monolítica, uso, Modelos operativos


184­185 centralizados, 216f
operaciones, automatización, Estructura centralizada, 215–216
81–83 Unidad central de procesamiento (CPU),
prácticas, preguntas uso, 168, 243
(exploración), 139 Sistema de gestión de cambios,
procesos, digitalización, 28 establecimiento, 127.
procesamiento en tiempo Columnas de carga, ejemplo, 276f
real, uso, 182–184 Chatbots, impacto, 60, 194
Inteligencia de negocios (BI) CHLA, 111, 113
desarrolladores, uso del mercado de Coreógrafo, 243
datos, 239 Rotación, 149, 279–281, 286
plataformas, 243 clientes

informe, 168 abandono, importación


sistemas, 190 de datos, 265f
Inteligencia de clientes de empresa abandono, porcentaje, 280f
a empresa (B2B), 55–57 número (batido), modelo
de aprendizaje automático (uso),
Empresas de empresa a consumidor 22f
(B2C), 55 probabilidad, 25
Unidades de negocio (BU), 219–222 tasa, análisis, 277f
trabajo de empleado, 130 Disyuntores, uso, 190–
191
C Clasificación
Privacidad del consumidor de California uso del aprendizaje automático, 23
Ley (CCPA), 124 modelos, desajuste/
Cambridge Analytica, sobreajuste, 155f
escándalo, 297 programa, 260–261
Prueba/implementación de Canarias, 165 Cebo de clics, impacto, 196, 199–200
El capital (Marx), 295 Seguimiento de clics, datos incrementales
Redes de cápsulas, 305 (uso), 144–145
datos de texto categóricos, Centro de operaciones clínicas
transformación, 267f (CLOC), monitoreo de
Centro de excelencia, creación. datos fisiológicos, 113
Ver Centro de excelencia en Sistema habilitado para la
inteligencia artificial nube, uso, 179–180
Machine Translated by Google

326 índice

Agrupación Correlaciones, mapa de calor, 271f


agrupamiento basado en Coursera, 226
aprendizaje automático, 47–48 Crawford, Kate, 213
uso del aprendizaje automático, 23 Riesgo de crédito, gestión, 71
uso, 30 Venta cruzada, 52–55
CNTK (Microsoft), 191 Datos seleccionados, 237

Filtrado colaborativo, 54 plataforma de datos del cliente


Archivo de valores separados por comas (CDP), 247
(CSV), uso, 264–265 Sistema de gestión de
Sentido común, 39, 198. relaciones con el cliente
Rentabilidad de la empresa, (CRM), 49, 236
aumento, 73–74 Clientes
Gestión integral de modelos, adquisición, marketing
161f (relación), 48–52
Informática y Artificial comportamiento, predicción, 73
Laboratorio de Inteligencia inteligencia de clientes de empresa
(CSAIL), 108 a empresa (B2B),
ConceptoNet, 38–39 55–57

Configuraciones, gestión de abandono, 260


modelos, 161f importación de datos, 265f
Matriz de confusión porcentaje, 280f
examen, 280f reducción, 55
configuración, 158, 158f conversión, aumento, 61
Sistema de inteligencia conectado, datos, 52, 197­198
objetivos, 120–121 compromiso, 59–63
Componente de gestión de contenedores, ID, uso, 247
uso, 243 viaje, 49
Datos contextuales, aprovechamiento, 57 modelado del valor de por vida, 53
Integración continua/implementación número (batido), modelo
continua (CI/ de aprendizaje automático (uso),
CD) tubería, 166, 242 22f
Control/flexibilidad, equilibrio estrategia a corto/largo
(desarrollo), 132­133 plazo, 72
Redes neuronales convolucionales segmentación/personalización, 145
(CNN), 28 datos de entrenamiento, uso, 22f
Análisis de laboratorio central, base, 97 comportamiento transaccional, 71
Machine Translated by Google

Índice 327

Representante de Servicio al Cliente distribución, visualización, 275f


(RSE), 59, 62–63
Ciclo (Cycorp), 38–39 ingenieros, responsabilidad, 224
plataforma, 39 experimentación, 173,
228­229
D análisis exploratorio de datos,
Dans, Enrique, 122 uso, 268–273
Datos datos propios, 50–51
ausencia, 50–51 distribución de frecuencia, 270f
algoritmos círculo virtuoso, relación, reunión/organización, 77
7–8 gobernanza, 134, 222, 237
datos alternativos, 77 importación, 264–265. Vea también
análisis, 7 Clientes.
analistas, medición, 224 imputación, 266
evaluación, 143­147 conjuntos de datos de entrada
aumento, 282 (ejemplo de estimación),
datos incorrectos, 123 aprendizaje automático (uso), 21f
datos por lotes, patrones, 183f instrumentación, 144­145
lote/tiempo real, contraste, datos de etiqueta, desequilibrio, 273f
182f datos etiquetados, 29–31
almacenamiento empresarial, 180–181 etiquetadora, 238

datos de texto categóricos, etiquetado, 146­147


transformación, 267f laboratorios, 237

limpieza, 265–268 lago, 52, 180–181, 238


limpieza, 145­146 apalancamiento, 121
colección, 8, 35–36, 98, linaje, 187, 197–198, 238
143–147 alfabetización, 228
columnas, escala, 274f mercado, 180–181, 238–239
estrategia de cuidador, 186–187, 236–239
comercialización, 133 datos minoritarios, aumento,
control/estandarización, 283f
132–133 monetización, 133
copiar/extraer, 187 nuevas fuentes de datos, uso, 92f
decisiones basadas en datos, organización, 146
228, 229–230 tuberías, 125, 146, 162,
dependencia, 162 168, 237
Machine Translated by Google

328 índice

Datos (continuación) almacén, almacenamiento de datos


puntos, utilidad, 148 comerciales, 180–181
preparación, 239, 265–268 Plataformas de gestión de datos
privacidad, 147, 179–180, 197, (DMP), perfiles de
303–304 espectadores, 47
reforma de protección, 124–125 Conjuntos de datos, 277

calidad, gestión, 187 agregación, 80


regulación, 296–300 Almacén de datos, 236–237
remediación, 143–147 Modelos descentralizados, 216–217
reponderación, 199 Modelos operativos
filas, examen, 265f descentralizados, 216f
proyectos científicos, Estructura descentralizada, 216
flujo de trabajo, 138f Automatización de decisiones, 255–256
seguridad, 179–180 Proceso de toma de decisiones, 71,
selección, 262–263 132, 184
conjuntos, 31, 71, 269f Árboles de decisión (algoritmo de
división, 278f aprendizaje automático), 24
estrategia, 127, 132­134 Azul profundo (IBM), 18
transmisión de datos, patrones, 183f Responsabilidad de los deepfakes
datos estructurados, 67–68 Ley, problemas de la Primera
sintetizador, 237 Enmienda, 299
datos objetivo, desequilibrio, 273f Falsificaciones profundas, regulación,

datos de terceros, 52, 135f 298–299

datos de entrenamiento, uso, 22 Aprendizaje profundo, 10


transformación, 199 algoritmo de aprendizaje
camino, mejora/ automático, 25–28
definiendo, 128 modelo, 34, 207–208
requisito, 181 trabajo, 26
comprensión, análisis Redes neuronales profundas, 26, 152
exploratorio de datos Red neuronal profunda, 23
(uso), 268– ejemplo (algoritmo de aprendizaje
273 automático), 26f
datos sin etiquetar, uso, 301
agrupación, 30–31 Aprendizaje por refuerzo
utilidad, aumento, 32–34 profundo, 301
visualización, 224, 239 Previsión de la demanda, 91–92, 172
Machine Translated by Google

Índice 329

Ventas históricas/nuevas fuentes Draghi, Mario, 81 años


de datos, uso, 92f. Efecto vestidor, 58
mejora, 45, 57 Drogas
Respuesta a la demanda, diseño/síntesis,
previsión, 94–96 dificultad, 104
Plataformas del lado de la sujetos de prueba, tecnologías
demanda (DSP), 47 portátiles (uso), 106
Demencia, factores de riesgo/ Señalización multifrecuencia de
diagnóstico/tratamiento doble tono (DTMF), 49
(determinación), 107– Precios dinámicos,
108 habilitación, 57–59
Modelos de IA implementados, 243
mi
Identificador de dispositivo (ID de
dispositivo), 48–50 Comercio electrónico

Conocimientos de DevOps, 225 IA, uso, 45


Canalización de DevOps, 242 recomendación, señal de bancos,

Proceso DevOps, 162, 166, 167f, 72–73


171, 189 Dispositivos de borde, 252, 254f
Publicidad digital, 46–48 Capa de borde, 253
Asistentes digitales, uso, 59–63 Elasticidad, 179
Asistentes personales digitales, éxito, Necesidades de energía eléctrica/

3 respuesta a la demanda,
Transformación digital, 119–120 previsión, 94–96
Gemelo digital, 87 Fundación Libertad Electrónica, 299

Fuerza laboral digital, 121, 255–257


Dijkstra, Edsger W., 3 Incrustaciones, creación, 151
Reducción de dimensionalidad, 33– Tecnología emergente, 124
34, 150 API de emoción, 81
Discretización, 150 Fecha de finalización, 241

Enfermedades, diagnóstico, 106­109. Flujo de trabajo de aprendizaje automático de un extremo a otro, 186

Desinformación, regulación, 298–299 Sistema de extremo a extremo, uso, 188


Aplicaciones de usuario final,

Logística de distribución, creación de prototipos, 225

mejora, 93–94. Interfaces de usuario final, 224

Programación de Energía
dominio específico, 20–21 IA, uso, 85
Machine Translated by Google

330 índice

Energía (continuación) F
empresas, uso de sensores/redes Puntuación F1, 280f, 281
inalámbricas, 86 “Falla rápido”, 140
comercio, 99–101, 99f Componente a prueba de fallos, uso, 243
Modelos de conjunto, 283 Mecanismo a prueba de
algoritmo de aprendizaje fallos, uso, 190–191
automático, 25 Visualización de tasa de fallas, heurística
Capa empresarial, 253, 255 (uso), 90f
Sistemas de planificación Problemas de “falta de rescate”,
de recursos 112­113
empresariales (ERP), 86, 236, 256 Falsos negativos (FN), 158­159
Épico, 112 Falsos positivos (FP), 158­159
Empresas EQT, 80 Implementación de funciones, 242
Cuotas igualadas, 200 Deriva de características, 169, 244
Ciclo de vida de los componentes del equipo Ingeniería de funciones, 33–34, 148–
(visualización de la tasa de 151, 274–277
fallas), heurística (uso), 90f Generador de características, 241
Analistas de investigación de acciones, 80 Importancia de la característica, 285f
Ética de los Sistemas Autónomos e Incluye lago de datos, 238
Inteligentes, 299 Comisión Federal de Comercio
Banco Central Europeo (TFC), supervisión del
(BCE), 81 cumplimiento, 298
Espacio Económico Europeo (EEE), Aprendizaje federado,
protecciones, 124 255, 303–304
Agencia Europea de Medicamentos Modelos operativos
(EMA), 105 federados, 216f
Unión Europea (UE), reforma de la Estructura federada, 217
protección de datos, 124 Delitos financieros
Arquitectura evolutiva, 174 Red de aplicación de la ley
Experimentación. Ver datos (FinCEN), 69, 82–83
Explicabilidad, 297 Servicios financieros, IA
Análisis de datos exploratorios, (uso), 67
uso, 148, 268–273. Casos de uso financiero, problema de la
Analizador de datos exploratorios, 239. caja negra, 74
Extraído, transformado y cargado “Dedos en las teclas”, 256
(ETL), 146 Primera revolución industrial, 4
Machine Translated by Google

Índice 331

Datos propios, 50–51 Google Street View, 12


Administración de Alimentos y Medicamentos Sistema de gobernanza,
(FDA), 105 establecimiento, 127
Demanda prevista, 91 Unidad de procesamiento gráfico
Foster, Richard, 5 (GPU), desarrollo, 10
Cuarta revolución Grieves, Michael, 87
industrial, 3­5 Justicia grupal, 198
Cuarta Revolución Industrial, Grupo de los Siete (G7), cumbre,
El (Schwab), 5 297–298

Fracking, 97
Casos de fraude, 70 h

Optimización del cumplimiento, 58–59 Hadoop, uso, 9


Funciones (ejemplo de estimación), HAL, simulacro, 7
aprendizaje automático Hawking, Stephen, 291­292
(uso), 21f Atención sanitaria, uso de IA, 103
Mapa de calor, 266f, 271f
GRAMO
Heisenberg, Werner, 306
Galton, Francisco, 22 Heurística, uso, 90f
Gaus, Norberto, 88 Comercio de alta frecuencia, 75
Modelo de regresión del proceso Hinton, Geoffrey, 17, 25, 27,
gaussiano, uso, 283 227, 305
Protección de datos generales Ventas históricas, uso, 92f
Reglamento (GDPR), 124, 208– Hospital
209, 297 cuidado, 111­114
Aprendizaje generativo registros médicos, uso, 110
adversario, 302–303 Modelo de cubo y radios, 217
Red adversarial generativa Valores centrados en el ser humano/

(GAN), 105, 147, 302 equidad, 297


Ghodsi, Ali, 213 Inteligencia humana,
Búsqueda en Glassdoor, 227 amplificación/
Algoritmo de Google, uso, 108 aumento, 40, 121
Nube de Google, 236 Trata de personas, 68
Plataforma en la nube de Google, 9 Optimización de hiperparámetros, 157–
Google DeepMind, 95, 112 158, 160
Google Duplex, restricción, 64 Modelos de hiperpersonalización,
Inicio de Google, 62 apalancamiento, 248f.
Machine Translated by Google

332 índice

I Sistemas de inteligencia
Cementerio de ideas, objetivos. Ver Sistema de
mantenimiento, 162–163 inteligencia conectado.
ImagenNet, 31–32 inteligencia humana,
Imagen visual a gran escala de ImageNet amplificación, 121

Desafío de reconocimiento insights/predicciones,


(ILSVRC), 32 generación, 121
Crecimiento inclusivo, 297 tareas repetitivas,
Datos incrementales, erradicación, 120­121

uso, 144–145 Automatización inteligente


Columnas de carga individuales, de procesos (IPA), 82

caída, 276f Productos inteligentes,


Justicia individual, 198 composición, 243.
Inferencia Asistente virtual inteligente,
activador, 188–190, 242–243 244–245

motores, Visitas en la unidad de cuidados

configuración de reglas, 241 intensivos (UCI), 111–112

entrenamiento modelo, 160 Patrón de interacción. Ver Dispositivos


Tecnología de la información (TI), 4–5, Edge; Internet de las
181, 214, 226 Cosas
capacidades, 223 Respuesta de voz interactiva (IVR)

proyectos, 225 interacciones, 64

Configuración de infraestructura, sistemas, 59


Panel Internacional sobre Artificial
requisito, 160
Datos de entrada, 21f, 151 Inteligencia, 298
Panel Internacional sobre el Clima
Perspectivas
lago de datos, 238 cambio, 298
generación, 121 Internet de las cosas (IoT), 4, 85, 236,
Instituto de Electricidad y 252, 303
Electrónica puerta de enlace, 253

Ingenieros (IEEE), patrón de interacción, 254f

“Éticamente alineados capa de servicios, 253

Diseño”, 299 Datos a escala de Internet, manejo, 9.


Proveedores de
Pruebas de integración, 165
Deuda intelectual, 294 servicios de Internet (ISP), 8
Machine Translated by Google

Índice 333

Interpretabilidad, 203–204, 207. Etiquetame, 147


Ver también Modelos Latencia, importancia, 180
Interpretaciones, modelos Aprendiendo. Consulte
sustitutos (impacto), 206f. Aprendizaje federado;
Intuición, proceso, 18­19 Aprendizaje generativo
Gestión de inventario, mejora, adversarial;
93–94 Aprendizaje automático;
Investigación de inversiones, apoyo, Aprendizaje automático
77–80 cuántico; Aprendizaje reforzado
aislamiento, 185 LeCun, Yann, 25, 227
Ledbetter, David, 112, 113
j Sistemas heredados, integración, 189
Jacquard, José María, 17 Lewin, Jonathan, 103
Jeong, Sara, 193 Bibliotecas, importación, 264f
Alegría, Bill, 133 Li, Fei­Fei, 12
IA justificable, 203 Funciones lineales, uso, 205f
Sistemas de línea de negocio,
k
integración, 126.
Kaeser, Joe, 85 Liveramp, 51 años
Kaggle, 262 Préstamos, aprobación, 71
Kasparov, Gary, 18 años Registro, uso, 144
Indicadores clave de rendimiento Regresión logística
(KPI), uso, 175 algoritmo de aprendizaje automático,
Validación cruzada K­fold, 157 24–25
Conocimiento modelo, configuración, 279f
cantidad, requisito, 19 Función de pérdida, 151­152
edificio, 218 Polietileno de baja densidad
gráfico, 36f, 238 (PEBD), producción, 89
modelado, 245–246, 246f LOXM, 75–76
Lealtad, 52–55
l
Etiqueta METRO

datos, desequilibrio, 273f Aprendizaje automático (ML),


codificación, 267 20–28, 82, 149
Datos etiquetados, 29–31 algoritmos, 24–28, 75
Machine Translated by Google

334 índice

Aprendizaje Mahine (continuación) Utilización de la memoria, 168


ingenieros, especialización, 223– Plataforma de Miguel Ángel,
224 uso, 186
agrupamiento basado en Arquitectura de microservicios, uso,
aprendizaje automático, uso, 47–48 184–185
modelo de aprendizaje automático, Microsoft Azure, 9, 112, 236
uso, 22f Servicios cognitivos de
modelos, 34–35 Microsoft, 243
no linealidad, 23 Microsoft Cortana, 62 años
extracción de patrones, 22 Datos minoritarios, aumento,
automatización robótica de procesos, 283f
combinación, 255 Minsky, Marvin, 25, 171
término, introducción, 20 Valor faltante, mapa de calor, 266f
entrenamiento, 224 ml. Ver aprendizaje automático
uso, 36, 286 Modelado, 199–201
usos, tipos, 23–24 modelado del valor de vida del
flujo de trabajo, 138f cliente, 53
Operaciones de aprendizaje automático preparación, 197–199
(MLOps), 224 proceso. Ver Inteligencia
Macron, Emmanuel, 297–298 artificial. soporte,
Manjoo, Farhad, 48 años datos (requisito), 141f
Fabricación
IA, uso, 85 modelado de elevación, 51–52
datos, 86 validación, 201–207
MapReduce, uso, 9 Riesgo de modelo

Cuidados paliativos Marie Curie marco, 210


Estudio del Departamento de gobernanza, 165
Investigación, 109 gestión, 189, 193
Mercadotecnia, 48–52 mitigación, 194, 197–209
Información sobre el mercado, soporte, 77–80 oficina, 209–211
Matriz Modelos. Ver modelos de inteligencia

configuración de matriz de confusión, 158 artificial


matriz de dos clases, activación, 164, 166, 168
cuadrantes, 158 modelo de atribución,
Estudio trimestral de McKinsey , 67 determinación, 52
McMillon, Doug, 45 años cambio, 152, 284f
Machine Translated by Google

Índice 335

complejidad/capacidad, 154 Entrenamiento modelo, 241


creación, 151 lote/tiempo real, contraste, 182f
definición, parámetros de datos datos, uso, 160
(uso), 154 patrones, 183f
despliegue, 164, 166, 242 proceso. Ver Inteligencia
tasa de error, 157 artificial.
experimentos, uso, 160 Lavado de dinero, batalla, 68–71
importancia de la característica, 285f Arquitectura monolítica, uso,
gobernanza, 197 184­185
inferencia, patrones, 183f Instituto de Algoritmos de Aprendizaje
inferencia, lote/tiempo real de Montreal (MILA), 227
(contraste), 182f Moore, Gordon, 9
interpretabilidad, 203 Ley de Moore, 9­10
apalancamiento. Ver Modelos de Cerebro materno, 80
hiperpersonalización. Mukherjee, Siddhartha, 109
creador, 187–188, 239, 241–242 Perceptrón multicapa (MLP), 25
gestión, 160–163, 241–242 Representación multinivel, 27
MXNET (Amazon), 191
configuraciones, 161f
algoritmo de entrenamiento de norte

modelos, uso, 276 Nanotecnología, 4


modelo óptimo, creación/ IA estrecha, desarrollo, 18­20
selección, 277–287 Conversaciones naturales, 64
rendimiento, 211, 222, 244 Procesamiento natural del lenguaje
tubería, 242 (PNL), 28, 59–61,
selección, 159–160. Ver también 140, 304–305
Inteligencia artificial. algoritmos, 79
configuración. Consulte Regresión API, 243
logística. pruebas, 164–165 requisito, 92
desajuste/sobreajuste. entrenamiento, 246
Ver Clasificación; uso, 184
Regresión. Cerca de un campo de comunicación

proceso de validacion. Ver (NFC), 252


Inteligencia artificial. modelo­ Nemitz, Pablo, 297
ancho­y­profundo, 54 Nido, instalación, 95–96
Biblioteca de selección de modelos, 278 Redes neuronales, profundidad, 27
Machine Translated by Google

336 índice

Red neuronal, 10, 20 Entorno de portátil Jupyter de código


redes neuronales abierto, uso, 264
convolucionales Modelos operativos. Ver Inteligencia
(CNN), 28 artificial; Modelos operativos
red neuronal profunda, ejemplo centralizados; Modelos
(algoritmo de aprendizaje operativos descentralizados;
automático), 26f Modelos operativos
modelo, 54 federados
redes neuronales recurrentes Eficiencia operativa, mejoras,
(RNN), 28 129
entrenamiento, 29 Reconocimiento óptico de caracteres
Nuevas fuentes de datos, uso, 92f (OCR), 82, 184, 256
Ng, Andrés, 10, 32, 119 Modelo óptimo, creación/selección,
PNL. Ver Procesamiento del 277–287
lenguaje natural Sistema de gestión de pedidos
Normalización, 149 (OMS), 236
Entorno de computadora portátil, Organización para la Cooperación y el
configuración, 264–265 Desarrollo Económico
Valores numéricos, datos de texto (OCDE), 299, 297
categóricos (transformación), Capacidad organizacional, activación,
267f 213
Origen y destino (OND), uso,
oh 93
Sistema de salud Ochsner, 112 Valores atípicos, examen, 269, 272 y siguientes
Producción de petróleo, maximización, Conjuntos de datos de salida
96–98 (ejemplo de estimación),
Venta minorista omnicanal, 58–59 aprendizaje automático (uso), 21f
Codificación one­hot, 267. Ver también Sobregiros, evitación, 73
estados de EE. UU. Sobreajuste, 154, 156. Véase
Revolución en curso, 8­12 también Clasificación;
Publicidad online, procesos, Regresión
46. Sobreindexación, 150
Sistema in situ, uso, 179–180
Proyecto Mente Abierta, 39 PAG

OpenShift (RedHat), 180 Cuidados paliativos, preparación,


Marcos de código abierto, 132 109–111
Machine Translated by Google

Índice 337

Hospitalización de pacientes, PredPol, 194


resultados Clientes sensibles al precio, precios
(predicciones de IA), 111 dinámicos, 57–58
Reconocimiento de patrones, 30 Análisis de componentes principales
Picos, 95 (PCA), 150
Rendimiento máximo, 168 Privacidad, 237, 276
Percentiles, uso, 148 privacidad de datos, 147, 179–180,
Perceptrón, 20, 25 197, 303–304
Gerente de desempeño, 190– normas, 209
192, 244 Historiador del proceso, 86–87
Personalización Producción

motor, 247, 249 ciclos de vida, automatización, 90–91


interacciones, seguimiento, 168–169
orquestación, 249f carreras, gestión, 88
Información de identificación pruebas, 165
personal (PII), 49, 51 Productividad, consideraciones, 179.
Drogas farmaceuticas Devoluciones de productos, asistencia, 58
ensayos clínicos, 105­106 Controladores lógicos programables
descubrimiento, 104­105 (PLC), 252
Control físico, 251–255 Proyectos
Pichai, Sundar, 5 Gobernanza del proyecto AI CoE,
Operaciones de planta, 218­219

optimización, 87–90 proyectos de inteligencia artificial,


Plataforma. Ver plataforma de inteligencia estándares (establecimiento), 218
artificial datos, flujo de trabajo de
Tecnología plug­and­play, 13 proyectos científicos, 138f

Función polinómica (aproximación), ejecución, equipos


funciones lineales (uso), 205f (estructuración),
222–225
Medidas de precisión, 251 gerentes de proyectos técnicos,
Puntuación de precisión, 280 brechas en el equipo, 224
Predicciones, generación, 121. Prueba de concepto (POC)
Mantenimiento predictivo, (PoC), 260
rendimiento, 89 modelos, uso, 223–224
Servicios/asesoramiento predictivo, escenario, punto muerto, 122
provisión, 72–74 Propensión a comprar modelo, 53
Machine Translated by Google

338 índice

ProPública, 194 XGBoost, uso, 285f


Tecnología de detección de prospectos, 48 Motor de recomendaciones, 53–
Servicios públicos de IA, 243 54, 247, 249
Publicis Epsilon, 51 años Redes neuronales recurrentes

Python (lenguaje de (RNN), 28


programación), 191 Codificaciones redundantes, 198
Estructura de datos de DataFrame, Punto de referencia, establecimiento
uso, 264–265 del equipo, 202
PyTorch (Facebook), 191, 241 Regresión
regresión logística (algoritmo de
q aprendizaje automático),
Control de calidad, 91 24–25
Datos de calidad, insights, 55 uso del aprendizaje automático, 24
Fase cuantitativa 2.0, 76 modelos, desajuste/
Computación cuántica, 4, 306 sobreajuste, 155f
Aprendizaje automático cuántico, 306– Aprendizaje por refuerzo (RL), 182, 300–
307 302
Sistemas de preguntas y respuestas, Relaciones, construcción/mantenimiento,
modelado de conocimiento 130–131
(uso), 246f Tareas repetitivas, eliminación/
erradicación, 40,
R 120–121
R (lenguaje de programación), 191 Modelos de reposición, 55
Identificación de frecuencia de radio Reproducibilidad, garantía,
(RFID), 252 200–201
Publicidad digital en Descripción del recurso
tiempo real, 46–47 Marco, 38
Inferencia en tiempo real, 183–184 Tiempo de respuesta, 168
Procesamiento en tiempo Comercio minorista, IA (uso), 45
real, uso, 182–184 Retorno de la inversión (ROI), 50, 123,
Razonamiento, tipos, 38, 40. 131, 142
Medidas de retirada, 251, 280. Revoluciones
Puntuación de recuperación, 280 impacto, 4–6
Curva de características operativas del revolución en curso, 8­12
receptor (ROC), 159– Riesgo. Ver riesgo del modelo
160, 281, 282f, 284 Reducción de riesgos, 71
Machine Translated by Google

Índice 339

Automatización Escala, organización (uso),


robótica de procesos (RPA) 215–217
Soluciones RPA Escala, ejemplo, 275f
impulsadas por Schrödinger, Erwin, 306
IA, 82 bots, acceso/configuración, Schwab, Klaus, 5 años
243, 256–257 SciKit­aprende, 191, 241, 264
definición, 81–82 Maestros SCRUM, 224
implementación, impacto, 82 reglas Segunda revolución industrial, 4
lógicas, uso, 121 aprendizaje Datos de terceros, 133­134
automático, combinación, 255 Seguridad, 297
Imágenes sísmicas, 96
Arquitectura de fuerza laboral digital Razonamiento semántico, 34–40
basada en RPA, manejo, 36
configuración de reglas 257f, 241 modelos, 35
software, uso, 185 sistemas, Aprendizaje semisupervisado, 28–31
enseñanza, 121 tecnologías, Análisis de sensibilidad, 202
impacto, 120 uso, 40, 140, 142 Modelo de análisis de sentimiento, 189.
Acuerdos de Nivel de Servicio
Robustez, 297 (SLA), 168
Rometty, Ginni, 259 Explorador de señales, 239
Rosenblatt, Frank, 25 años Personalización del sitio,
Ticket de problema de ruta, 63 uso, 53–54
Hospital Real Libre, 112­113 Seis Sigma, 7–8
Filtros de spam basados en Smith, Bill, 7
reglas, fallo, 29 Sistema de Crédito Social (SCS),
Lógica basada en reglas, 71 vigilancia, 294
Sistemas basados en reglas, 35, 70 Información de redes sociales, 9
Programación de reglas Sociedad, futuro, 291
específicas, 20–21 inteligencia artificial, relaciones,
292–294
S Datos de origen, 76
Seguridad, 297
Muestreo, uso, 153 Algoritmos de spam,
Samuel, Arturo, 20 30 filtros, 29
Sankaran, Arvind, 67 años. identificación, 29–30
Escalabilidad, 164–165, 179–180 Spammers, impacto, 29
Machine Translated by Google

340 índice

Chispa, 223 Informes de actividades sospechosas


Reconocimiento de voz, (SARS), 69–70
problema, 11 Desarrollo sostenible, 297
Modelo de voz a texto, 189 Datos sintéticos, gastos, 147.
Spielberg, Steven, 6 años Técnica de sobremuestreo de
Reserva de giro, 94 minorías sintéticas (SMOTE),
Stager, David, 227 264, 282
Puesta en escena, 165 Sistema
Partes interesadas sistema de ramificación,
alineación, 214–215 creación, 24
transparencia, 300 híbrido, 179–180
Estandarización, 132–133, 150 sistemas basados en reglas, 35
Fecha de inicio, 241 enseñanza, 21
Factores estáticos, uso, 71. uso. Consulte Sistema habilitado
Regresión estadística, base, para la nube; Sistema en sitio.
22–23 Prueba de integración de
Transmisión de datos, patrones, 183f sistemas (SIT), 188–189
Datos estructurados, 67–68
Declaraciones sujeto­ t

verbo­objeto, 39 Investigación del Grupo Tabb, 75


Aprendizaje supervisado, 28–31 Talento

Sistemas de control de supervisión y talento de inteligencia artificial,


adquisición de datos (SCADA), escasez, 125
94–95 gestión/contratación, 225–227
Cadena de suministro, 214 Objetivo, 208
previsión de la demanda, 172 Uso de IA, 193–194
funciones, 45 datos, desequilibrio, 273f

optimización, 57–59, 91–93 Evasión fiscal, 68

Plataforma del lado de la oferta Tay (chatbot de Microsoft), 194


(SSP), puesta en servicio, 46–47 Patrones técnicos, arquitectura (relación),
Máquinas de vectores de soporte 235.
(algoritmo de aprendizaje Gerentes de proyectos técnicos,
automático), 25 brechas de equipo, 224
Supresión, 198 Tecnología, mejora, 300–307
Modelos locales sustitutos, 204
Modelos sustitutos, impacto, 206f TechRadar, 50
Machine Translated by Google

Índice 341

Tencent Holdings Ltd., Ud.

estimaciones de la Uber, 227


fuerza laboral de IA, 125 Plataforma de Miguel Ángel, uso,
TensorFlow (Google), 191, 186
223, 241 muerte de peatones, 293
Actividades terroristas, financiación, 68. Underfitting, 154, 156. Véase también
Enfoque de prueba y aprendizaje, 228 Clasificación; Regresión
Pruebas y aseguramiento, 242
Pruebas, datos (división), 278f Lenguaje de modelado
Error de prueba, error de entrenamiento unificado (UML), 38
(contraste), 156f Datos sin etiquetar,
Tercera revolución industrial, 4 agrupación, 30–31
Datos de terceros, 52, 54, 133– Datos no estructurados, 77
134, 135 y siguientes, 145 Aprendizaje no supervisado, 28–31
Thorstensson, Andreas, 80 años Modelado de elevación, 51–52
Columna de carga total, Ventas adicionales, 52–55
sumando, 276f Casos de uso
Seguimiento, 49, 160 definitorio, 138–143, 260–262
Capacitación. Ver entrenamiento modelo identificación, 126
error, error de prueba objetivos, muestra, 141f
(contraste), 156f valor/complejidad, gráfico,
proceso, 201. Véase también modelo 143f
de inteligencia artificial. Pruebas de aceptación del usuario
Datos de entrenamiento (UAT), 165, 188
etiquetado, 296 Estados de EE. UU.,
división, 278f codificación one­hot, 268f
uso, 22f
Datos transaccionales, V

uso, 144–145 Conjunto de datos de validación,


Transparencia, 297 abandono de clientes
Trudeau, Justino, 297–298 (porcentaje), 280f

Verdaderos negativos (TN), 158­159 Asistente virtual

Verdaderos positivos (TP), 158­159 requisitos, 245–246


Trujillo, Michael, 112 voz a texto, 185
Matriz de dos clases, Visualizaciones,
cuadrantes, 158 utilidad, 148.
Machine Translated by Google

342 índice

W. Trabajo, reproducibilidad/
Lenguaje de ontología web reutilización
(RDF/búho), 38 (mejora), 187–188
Promedio ponderado, uso, 24
Bienestar, 297 Red mundial, 8–9, 19
Modelo ancho y profundo, 54
X
Wilson, Roberto, 229
Mujeres, sesgo de IA, 195 Clasificador XGBoost, 283–284

Incrustaciones de palabras, 304 XGBoost, uso, 285f


Trabajo, futuro, 291
z
inteligencia artificial,
Zittrain, Jonathan, 294
relación, 294–296
Machine Translated by Google

ACUERDO DE LICENCIA DE USUARIO FINAL DE WILEY

Vaya a www.wiley.com/go/eula para acceder al EULA del libro electrónico de Wiley.

También podría gustarte