Está en la página 1de 29

WP-1211

Febrero de 2019

Gestión de la inteligencia artificial en un contexto de


densidad digital1
JAVIER ZAMORA
Profesor titular de Sistemas de Información, IESE

Resumen
La IA es una nueva tecnología que permite a las organizaciones aprovechar sus datos para crear
nuevas propuestas de valor. Por otra parte, la incorporación de la IA en la organización plantea
nuevos desafíos, puesto que los datos, tanto de entrada como de salida de los modelos de IA,
necesitan una gobernanza específica. Este capítulo describe las directrices globales que debe
seguir la dirección general para conseguir una buena gobernanza de la IA en un contexto de
densidad digital.

Palabras clave: inteligencia artificial, densidad digital, gobernanza, propuesta de valor, modelo
organizativo, modelo de negocio

1 Este documento de trabajo es una versión anterior de un capítulo del libro The Future of Management in an Artificial
Intelligence World, J. Canals y F. Heukamp, ed., 2019, Palgrave Macmillawn, Houndmills, Basingtoke, Hampshire.

Copyright © 2019 IESE.

Última edición: 5/6/19


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

Índice

1. Introducción ........................................................................................................................ 3
2. La IA dentro del contexto de la densidad digital .................................................................... 5
3. Nuevas propuestas de valor utilizando la IA .......................................................................... 8
3.1. Automatización utilizando IA ............................................................................................... 10
3.2. Anticipación utilizando IA ..................................................................................................... 11
3.3. Coordinación utilizando IA ................................................................................................... 13
3.4. Personalización utilizando IA ............................................................................................... 14
4. Implicaciones de la IA en las organizaciones ....................................................................... 15
4.1. Retos al presentar la IA ........................................................................................................ 15
4.1.1. Privacidad ............................................................................................................................... 15
4.1.2. Integración ............................................................................................................................. 16
4.1.3. Fiabilidad ................................................................................................................................ 16
4.1.4. Seguridad ............................................................................................................................... 17
4.2. Nuevas capacidades al adoptar la IA ................................................................................... 18
4.3. Algunos principios de gobernanza con la IA......................................................................... 19
4.3.1. Equidad .................................................................................................................................. 20
4.3.2. Responsabilidad ..................................................................................................................... 21
4.3.3. Transparencia ......................................................................................................................... 22
4.3.4. Ética........................................................................................................................................ 23
4.3.5. Sabiduría práctica ................................................................................................................... 24
5. Conclusiones...................................................................................................................... 25

2 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

1. Introducción
La incorporación de la inteligencia artificial (lA) en una organización no se debe considerar una
nueva tecnología de forma aislada, sino asociada a otras nuevas tecnologías, como las redes
sociales, los móviles, la computación en la nube, los macrodatos y el Internet de las cosas (IoT, por
sus siglas en inglés), entre otras. Juntas, constituyen meras manifestaciones en un entorno con
una densidad digital en crecimiento exponencial (Zamora, 2017), que definí como el porcentaje
de datos conectados que está disponible por unidad de actividad —una unidad de actividad es un
país, una región, una industria, una organización o una unidad de negocio. En otras palabras, la
densidad digital es un indicador de cuántos de los procesos que se realizan en una determinada
unidad de actividad se basan en datos a los que se puede acceder de manera remota (es decir,
datos conectados). En este sentido, los datos conectados se convierten en una abstracción de la
entidad física en sí misma, que se puede observar, supervisar y/o controlar de forma remota.
Este aumento de la densidad digital se utiliza a menudo para calcular el potencial de una
organización para generar nuevos modelos de negocios. A medida que la densidad digital se
intensifica, las líneas una vez definidas entre el mundo físico y el digital comienzan a
desaparecer, forjando un nuevo entorno combinado, en un proceso conocido como
transformación digital. Por lo tanto, no debemos considerar la IA una simple infraestructura
tecnológica. La IA tiene un impacto sobre el modelo de negocio (Casadesús-Masanell y Ricart,
2011) al permitir nuevas propuestas de valor y, por otro lado, un impacto en la organización en
materia de gobernanza, capacidades y cambio cultural. La Tabla 1 resume las dimensiones
empresariales y organizativas que un director debe tener en cuenta al presentar la tecnología
de IA en una organización.
Tabla 1
Modelo empresarial y dimensiones del modelo organizativo de IA

Automatización

Anticipación
Propuestas de valor
basadas en la IA
Coordinación

Personalización

Privacidad

Integración
Retos de la IA
Fiabilidad

Seguridad

Equidad

Responsabilidad
Principios de la
gobernanza Transparencia
de la IA
Ética

Sabiduría práctica

Fuente: Elaboración propia.

IESE Business School-University of Navarra 3


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

El alcance y el calendario del impacto de la IA varían de una industria a otra. Por este motivo,
utilizaremos ejemplos de diferentes sectores (por ejemplo, sanitario, financiero, sector público
minorista, etc.) para destacar los diferentes grados de complejidad y riesgo que implican el uso
de nuevas propuestas de valor basadas en la IA. Primero revisaremos por qué la IA es una
realidad hoy en aquellos sectores, identificando nuevas fuentes de datos (a gran escala o
macrodatos). En segundo lugar, contestaremos qué clase de nuevas propuestas de valor basadas
en IA son posibles en diferentes sectores. Consideramos los ejemplos de IA en el contexto de
cuatro tipos de interacciones; concretamente, automatización, anticipación, coordinación y/o
personalización de interacciones. Finalmente, abordaremos los nuevos retos en términos de
privacidad, interacción, fiabilidad y seguridad que la puesta en práctica de la IA (la manera)
representa para cualquier organización.
Como los datos conectados —tanto las entradas como las salidas de los algoritmos de IA— se
convierten en uno de los principales activos de las organizaciones, necesitamos entender la mejor
forma de incorporar esta tecnología en los modelos de negocios de las empresas. La mayoría de
las veces, hacer uso de cualquier nueva tecnología en una organización requiere un periodo de
transición durante el cual coexisten las dos modalidades: una modalidad de aprendizaje a través
de pruebas, y una modalidad de ganancia, mediante la ejecución del modelo de negocio actual.
Durante este periodo de transición, la organización debe identificar las nuevas capacidades
operativas requeridas para gestionar con éxito la tecnología de IA. Además, la dirección general
(Andreu y Ricart, 2014) debe ser consciente de los nuevos desafíos de gestión a los que se
enfrentarán a medida que la IA se vuelva más presente en sus organizaciones.
En primer lugar, las organizaciones se enfrentarán a cuestiones importantes relacionadas con la
equidad de los modelos de IA, según el sesgo introducido por el conjunto de datos de
entrenamiento. En segundo lugar, dado que la IA se integrará en el proceso de toma de decisiones,
se deberán abordar los asuntos relacionados con la responsabilidad en el caso de resultados no
deseados. En tercer lugar, los directores generales confiarán en aquellos sistemas de IA solo si son
transparentes para ellos, en lugar de convertirse simplemente en una caja negra; es decir, sistemas
que se explican respecto a cómo llegan a ciertas recomendaciones. En cuarto lugar, la IA debe
tener en cuenta cualquier decisión que se tome sobre cuestiones éticas basadas en valores
(función de utilidad) cuando se diseñan esos algoritmos. Por último, aunque no menos importante,
el uso de la IA debe también guiarse por el buen criterio de la dirección general, quien debe actuar
sobre la base de lo que es correcto para todos los interesados, a partir de la sabiduría práctica que
está alineada con el cometido de la organización.
Este capítulo comienza con la presentación de la IA en el contexto de la densidad digital, que
incluye tres dimensiones diferentes: el modelo tecnológico, el modelo de negocio y el modelo
organizativo. Después, utilizando ejemplos de varias industrias, ilustramos el nuevo tipo de
propuestas de valor empleando la IA que es viable hoy en día. Estas nuevas propuestas de valor
son el resultado de combinar la tecnología de IA en uno o más de cuatro tipos de interacciones:
automatización, anticipación, coordinación y personalización. A continuación, abordamos los
retos de IA en las organizaciones en términos de privacidad, integración, fiabilidad y seguridad
que plantean para la organización estas nuevas propuestas de valor basadas en la IA. Tras estos
retos, identificamos las nuevas capacidades que necesitamos para poner en práctica con éxito
la IA en la empresa. A partir de entonces, identificamos los principios de la gobernanza de la IA
en términos de equidad, responsabilidad, transparencia, ética y sabiduría práctica que un
director general debe conocer, para poder actuar en consecuencia, con respecto a las
repercusiones externas de la IA, más allá de su impacto en sus modelos de negocio. Por último,
la dirección general debe gestionar la IA de manera global en la organización, no solo
aprovechando los beneficios de la IA en el diseño de nuevas propuestas de valor, sino también

4 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

entendiendo las limitaciones actuales de la IA para abordar nuevos retos y minimizar las
repercusiones externas negativas del uso de la IA con clientes, con empleados y con la sociedad
en general.

2. La IA dentro del contexto de la densidad digital


Aunque los orígenes de la IA (Zamora y Herrera, 2018) como una nueva disciplina se remontan
al año 1956, apenas ha ganado impulso recientemente y muchas industrias han comenzado a
considerar la IA una tecnología prometedora. El renacimiento de la IA como una tecnología
viable sucedió principalmente debido a la confluencia de tres factores. El primer factor es el
aumento de la potencia computacional y la disminución de su coste como una consecuencia
directa de la Ley de Moore. El segundo factor es la disponibilidad de grandes conjuntos de datos
(macrodatos) derivados de un mundo digitalizado hiperconectado. Y el tercer factor es el avance
de la adaptabilidad y el desarrollo de los algoritmos de IA.
En el contexto de la digitalización de las organizaciones, las personas e incluso los objetos, no
debemos considerar la IA una tecnología aislada, sino junto con otras tecnologías como las redes
sociales, la computación en la nube, los móviles, los macrodatos, el Internet de las cosas y la
cadena de bloques o blockchain, como manifestación de un mundo con una densidad digital en
aumento exponencial (Zamora, 2017). En otras palabras, a medida que se conectan muchos más
procesos de organizaciones, personas y objetos, esto se traduce en una brecha de la densidad
digital y comienzan a difuminarse las fronteras entre el mundo físico y el digital. Este nuevo
escenario, donde no se pueden distinguir el mundo físico y el digital, es la fuerza impulsora
subyacente de la transformación digital que muchas organizaciones han experimentado en los
últimos años. Por lo tanto, la IA es también una tecnología que aprovecha este escenario de alta
densidad digital al convertir los datos conectados en nuevas fuentes de generación de valor y
registro para las organizaciones.
Andrew Ng, profesor adjunto de la Universidad de Stanford y experto mundial en IA, considera
que la IA es una tecnología de uso general, de la misma forma que lo ha sido la electricidad. En
otras palabras, la IA tiene el potencial de redefinir a muchas industrias del mismo modo que la
electricidad redefinió a la industria al comienzo del siglo XX, o más recientemente, Internet
cambió la manera en la que compiten muchas empresas. Sin embargo, del mismo modo que
una empresa no se convierte en una empresa de Internet solo creando una página web, una
empresa no se convierte en una organización de IA por la simple compra o presentación de unos
sistemas de IA en su portafolio (TI) de tecnología de Internet. En este sentido, la IA, así como
otras nuevas tecnologías involucradas en el proceso de transformación digital, debe
considerarse de manera global al tener en cuenta su impacto sobre diferentes dimensiones
(véase Figura 1):
 Plataforma tecnológica
 Modelo de negocio
 Modelo organizativo
En el contexto específico de la IA, la plataforma tecnológica se refiere a la infraestructura TI,
que principalmente se compone de una recopilación de algoritmos (Zamora y Herrera, 2018)
que hoy —la mayoría de las veces— son algoritmos de aprendizaje automático que realizan
principalmente funciones de predicción y/o clasificación. Sin embargo, la ventaja competitiva no
reside en poseer esos algoritmos, ya que la mayoría de ellos están disponibles para muchas

IESE Business School-University of Navarra 5


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

organizaciones, sino en tener los datos para entrenar y probar algoritmos para construir y validar
un modelo que se usará más adelante con nuevos datos. Por consiguiente, en un mundo de alta
densidad digital, los datos (Zamora, Tatarinov y Sieber, 2018) se convierten en uno de los activos
fundamentales de la organización. Por lo tanto, la infraestructura TI también comprende todos
los sistemas de información necesarios para tener una gestión eficiente de los datos (es decir,
el registro, la conservación, la búsqueda y la protección).

6 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

Figura 1
Contexto para la transformación digital (lado izquierdo) y su aplicación en IA (lado derecho)

ENTORNO BRECHA DE LA DENSIDAD DIGITAL

MERCADO REGULACIÓN Y CUMPLIMIENTO

Propuesta de valor
Modelo de negocio Automatización Anticipación Coordinación Personalización

Modelo organizativo
IA Organización

Retos de la IA Gobernanza de la IA Capacidades de la IA

Infraestructura de TI
Plataforma tecnológica Algoritmos de IA Gestión de los datos

Fuente: Elaboración propia.

IESE Business School-University of Navarra 7


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

La siguiente dimensión es el modelo de negocio, que se refiere a la lógica y a las dinámicas


subyacentes (Ricart, 2012) de una empresa para crear y registrar valor. Un componente integral
del modelo de negocio es la propuesta de valor (Osterwalder y Pigneur, 2010), o los productos
y servicios que crean valor para un cliente determinado. En este sentido, las nuevas propuestas
se habilitan mediante el uso de la tecnología de IA en cuatro tipos de interacción:
 Automatización, o el uso de la IA para automatizar los procesos ya existentes mediante
la eliminación de operaciones manuales para conseguir reducciones de coste.
 Anticipación, o el uso de la IA para predicción o recomendación.
 Coordinación, o el uso de la IA para coordinar de una manera inteligente una gran
cantidad de agentes que participan en la creación de la propuesta de valor.
 Personalización, o el uso de la IA para personalizar las propuestas de valor para un cliente
determinado.
La IA procesa los datos para construir la nueva propuesta de valor (Zamora, 2017) utilizando una
combinación de alguno de esos cuatro tipos de interacción.
La dimensión del modelo organizativo se refiere a la forma en la que la IA tiene un impacto
dentro de la organización (Káganer, Zamora y Sieber, 2013). Esto incluye varios aspectos. Por
otra parte, la forma en la que las organizaciones comienzan a utilizar la IA en pruebas con el
propósito de aprender a explorar el potencial de la tecnología, y posteriormente extender las
pruebas exitosas a la producción, como un componente integral de la ejecución de un modelo
de negocio determinado. Por otro lado, la IA exige nuevas capacidades, tanto a nivel operativo
(por ejemplo, los datos científicos) como a nivel directivo para abordar los nuevos retos en
relación con la privacidad, la integración, la fiabilidad y la seguridad. Además, se necesitan
grandes capacidades de gestión para la gobernanza (Andreu y Ricart, 2014) de la IA dentro de
una organización, dado un marco regulador y de cumplimiento donde la empresa desarrolla su
actividad. En concreto, esta gobernanza debe abordar los asuntos relacionados con la equidad,
la responsabilidad, la transparencia, la ética y la sabiduría práctica cuando una organización
ofrece una nueva propuesta de valor basada en la IA.
Este capítulo se centrará en el modelo de negocio y en las dimensiones del modelo organizativo.

3. Nuevas propuestas de valor utilizando la IA


En la Figura 2 mostramos la arquitectura de la densidad digital que interconecta el mundo físico
con el mundo digital, junto con la lógica de negocio. La capa inferior representa el mundo físico,
integrado por las organizaciones, las personas y los objetos. Sobre la capa física tenemos la capa
de conexión, que relaciona el mundo físico con el mundo digital. Tradicionalmente, las
organizaciones se han conectado al mundo digital mediante la digitalización de sus procesos (por
ejemplo, la planificación de los recursos empresariales (ERP, por sus siglas en inglés) y la gestión
de relaciones con clientes (CRM, por sus siglas en inglés, etc.), y las personas están conectadas al
mundo digital a través de interfaces hombre-máquina (por ejemplo, web, aplicación, voz, etc.),
mientras que los objetos se conectan a través de sensores para leer su estado (por ejemplo,
posición, temperatura, velocidad, etc.) o a través de impulsores para cambiar su estado (por
ejemplo, encenderlo, acelerarlo, etc.). En la parte superior de esta capa de conexión, se
encuentran los datos conectados que representan el mundo físico (Zamora, 2017).

8 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

Figura 2
Arquitectura de densidad digital

MODELO DE NEGOCIO
NUEVAS PROPUESTAS DE VALOR
LÓGICA DE NEGOCIO
AUTOMATIZACIÓN ANTICIPACIÓN COORDINACIÓN PERSONALIZACIÓN

DATOS MUNDO DIGITAL

PROCESOS
INTERFACES
DE
HOMBRE-MÁQUINA
SENSORES IMPULSORES CAPA DE CONEXIÓN
DIGITALIZACIÓN

OBJETOS
ORGANIZACIONES PERSONAS MUNDO FÍSICO
Hardware/Dispositivos

Fuente: Elaboración propia.

A medida que aumenta la densidad digital, la capa de datos representa mejor el mundo físico.
En este escenario, los datos se están convirtiendo en el activo principal de la organización, ya
que los datos se han convertido en materia prima para crear nuevas propuestas de valor y, a su
vez, para construir nuevos modelos de negocio. En un sentido metafórico, si los datos se
consideran el nuevo petróleo de la economía, la IA se convierte en una de las máquinas que
transforma estos datos en nuevas propuestas de valor.
Un ejemplo de incremento de la densidad digital en el sector de salud es el Biobank Data del
Reino Unido, donde se han recopilado los datos de más de 500.000 personas durante los últimos
treinta años, incluido su historial médico, imágenes y datos genéticos —a través del Archivo
Europeo del Genoma-Fenoma (EGA, por sus siglas en inglés)— y la actividad física y médica a
través de vigilancia móvil. Los investigadores del campo de la salud, mediante tecnología de IA,
están trabajando con este repositorio de datos para mejorar la prevención, el diagnóstico y el
tratamiento de una amplia gama de enfermedades graves y potencialmente mortales. Su trabajo
se plasma en el despliegue de sistemas inteligentes en la asistencia médica, donde los médicos
pueden ya aplicar los datos del cliente, incluido lo que comen, cuánto ejercicio realizan y qué
hay en su genética; cotejar ese material frente a la gran cantidad de estudios para realizar un
diagnóstico; acceder a las últimas investigaciones sobre productos farmacéuticos y otros
tratamientos; consultar algoritmos de aprendizaje automático que examinan alternativas de
actuación, y crear recomendaciones de tratamiento personalizadas para el paciente.

IESE Business School-University of Navarra 9


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

Como mencionamos anteriormente, se pueden usar los datos conectados derivados de un


entorno de alta densidad digital para crear nuevas propuestas de valor como una combinación
de uno o más de cuatro tipos de interacción: automatización, anticipación, coordinación y
personalización. Aunque la mayoría de las nuevas propuestas de valor son el resultado de la
combinación de más de un tipo de interacción, los siguientes ejemplos se clasifican según el tipo
de interacción que es más predominante en la propuesta de valor.

3.1. Automatización utilizando IA


Tradicionalmente, las organizaciones se han conectado al mundo digital mediante la
digitalización de sus diferentes procesos. La mayoría de estos procesos podrían automatizarse,
ya que podrían describirse mediante el tratamiento de flujos de trabajo de casos limitados y bien
definidos, que podrían ponerse en marcha en aplicaciones de software empresarial (por
ejemplo, ERP, CRM, etc.). La reducción drástica del coste computacional debido a la Ley de
Moore ha sido la causa de la difusión de este tipo de software, que permite la digitalización
masiva de las empresas.
Sin embargo, las actividades de algunas organizaciones necesitan una automatización más
sofisticada, porque implican un número casi infinito de escenarios (excepciones) de los que el
software tradicional no puede ocuparse. En estos casos se puede utilizar la automatización
robótica de procesos (RPA, por sus siglas en inglés) o los trabajadores de IA, donde los sistemas
de IA pueden mirar/observar la actividad de un trabajador y aprender de sus acciones,
aprovechando la gran capacidad de los sistemas de AI para recordar. Por ejemplo, la IA puede
ser muy eficiente en el mundo jurídico, donde tradicionalmente los abogados pasan horas
buscando documentos y pruebas (es decir, documentos pertinentes) para un juicio
determinado. La IA puede automatizar la mayor parte del proceso mediante la clasificación
previa de los documentos en dos categorías, separando las que no son pertinentes de las que
podrían serlo, y debe enviarlas a un abogado para la clasificación final. Se puede encontrar una
utilidad similar de IA en el proceso de fusiones y adquisiciones al buscar cláusulas en todos los
contratos que pueden entrañar futuras responsabilidades. Por ejemplo, las cláusulas en
los contratos de clientes que se pueden rescindir en caso de una adquisición.
Los ejemplos anteriores son factibles gracias a los avances de las técnicas de procesamiento del
lenguaje natural (PLN) a efectos de clasificación. Se pueden utilizar las PLN para mejorar la
productividad mediante la incorporación de asistentes virtuales para automatizar las interacciones
con los clientes, que se utilizan cada vez más con los chatbots en el sector de las finanzas y en el
minorista. El proceso de automatización basado en la puesta en marcha de la IA en el sector
sanitario se representa mediante algoritmos que gestionan los datos relacionados con los registros
médicos, los análisis de pruebas médicas, las radiografías y los TAC. Sense.ly, una empresa
emergente de la industria sanitaria, desarrolló una enfermera digital llamada Molly que ayuda a
los pacientes con sintomatología que no necesitan una visita a un médico. El hospital de niños de
Boston utiliza de manera similar a la asistente virtual Alexa de Amazon para aconsejar a los padres
sobre los tratamientos de los niños o si la sintomatología requiere una visita a un médico.
El uso de IA (y otras tecnologías digitales) para la finalidad de automatización reduce los costes,
ya que requiere menos trabajo manual. Con frecuencia, la automatización es el primer paso del
que muchas organizaciones se sirven en el contexto de una alta densidad digital, ya que
reemplaza directamente los procesos manuales anteriores al digitalizarlos. Sin embargo, a
medida que las tecnologías se extienden a más organizaciones, las empresas deben centrarse
en otras interacciones más allá de la automatización (por ejemplo, la anticipación, la
coordinación y/o la personalización) para mantener una ventaja competitiva.

10 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

3.2. Anticipación utilizando IA


A medida que la densidad digital aumenta de forma exponencial, las organizaciones pueden
aprovechar los macrodatos generados mediante la anticipación de patrones y tendencias que
revelan los datos. Por lo tanto, la anticipación en este contexto significa la capacidad de hacer
predicciones; es decir, usar los datos disponibles para generar un dato nuevo que no tienen las
empresas. De la misma forma que la automatización se utilizó ampliamente por parte de las
empresas como resultado de disponer de computación asequible, la inclusión actual de la
anticipación en muchas nuevas propuestas de valor es la consecuencia de que la predicción se
vuelva más barata (Agrawal, Gans y Goldfarb, 2018).
Podemos encontrar un ejemplo de una propuesta de valor utilizando la anticipación en la
empresa aeronáutica Rolls-Royce, que puede informar a una aerolínea cuando un avión que
aterriza necesita un mantenimiento preventivo antes de la fecha programada. De esta forma, la
aerolínea puede evitar paradas no programadas, lo que conlleva ahorros sustanciales, dado que
una parada no programada del avión debido a problemas técnicos supone aproximadamente un
coste de 10.000 $ estadounidenses por hora. Rolls-Royce recibe datos operativos en tiempo real
de más de 25 sensores por avión, para cada uno de los más de 12.000 motores de Rolls-Royce
que operan en todo el mundo. Al hacer referencias cruzadas con registros de problemas con
otros motores y aplicar un algoritmo predictivo, la empresa puede predecir problemas técnicos
en motores específicos incluso antes de que se reflejen. El uso de IA en Rolls-Royce supuso la
migración de su modelo de negocio: en lugar de vender un producto (un motor), ofrece a sus
clientes, las aerolíneas, un servicio basado en el número de horas de motor del avión sin paradas
no programadas (Zamora, 2016).
Otro ejemplo interesante de anticipación en el sector sanitario es Cardiogram, una empresa
estadounidense que ofrece una aplicación de móvil que actúa como asistente personal sanitario.
Cardiogram aprovecha los datos procedentes de los dispositivos portátiles personales como
Apple Watch o Android Wear no solo para controlar el sueño y la actividad física, sino también
para detectar fibrilación auricular. La fibrilación auricular es un tipo de arritmia cardíaca que
causa más accidentes cerebrovasculares que cualquier otra afección cardíaca crónica y en
muchos casos no se diagnostica, ya que necesita una vigilancia cardíaca continua. En 2016,
Cardiogram colaboró en el estudio mRhythm (Health eHeart, 2018), junto con la Universidad de
California, San Francisco (UCSF), entrenando el algoritmo profundo de aprendizaje de
Cardiogram Deep Heart, con 139 millones de mediciones cardíacas provenientes de 9.750
usuarios. El resultado del estudio mostró una precisión en la detención de una fibrilación
articular superior a la de los electrocardiogramas portátiles de la Administración de Alimentos y
Medicamentos (FDA, por sus siglas en inglés). Cardiogram está poniendo en marcha Deep Heart
fuera del estudio mRhythm para ofrecerlo a todos los usuarios de la aplicación de Cardiogram.
No obstante, un paradigma de uso en la anticipación de unas nuevas propuestas de valor es IBM
Watson, que ha adquirido mucha notoriedad en los últimos años. Watson tiene capacidades de
IA para procesar el lenguaje natural y generar hipótesis y para el aprendizaje basado en la
evidencia. Inicialmente, IBM creó el proyecto Watson en 2006 para averiguar si un
superordenador podría equipararse con las capacidades de la toma de decisión de los humanos
cuando se enfrentan a desafíos complejos. En 2011, tras cinco años de trabajo y formación, se
envió a Watson a competir en Jeopardy!, un programa televisivo de concursos contra dos de los
mejores concursantes de rondas anteriores. Tras varias rondas de juego, Watson ganó.

IESE Business School-University of Navarra 11


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

A raíz de los informes de los medios de comunicación, en 2013, IBM constituyó una asociación
con el Memorial Sloan Kettering Cancer Center en Nueva York para emplear a Watson en las
decisiones de tratamientos de cáncer de pulmón y de mama. Al tomar decisiones, Watson trata
más de dos millones de páginas de artículos de investigación de revistas médicas, además de un
archivo de más de 1,5 millones de registros médicos de pacientes. Para ayudar a los médicos en
el tratamiento de sus pacientes, una vez que el médico ha planteado una consulta al sistema
describiendo los síntomas y otros factores relacionales, Watson analiza primero la información
para identificar los datos más importantes y después extrae datos del paciente para encontrar
los factores relevantes de la historia médica y hereditaria de este, luego examina las fuentes de
datos disponibles para formular y probar hipótesis; y, finalmente, proporciona una lista
de recomendaciones individualizadas y calificadas de confianza. Basado en la totalidad de los
ensayos realizados en los casos anteriores, el porcentaje de tratamientos eficaces que recetó
Watson para el cáncer de pulmón es de un 90 %, mucho mayor que el 50 % que lograron los
médicos (Steadman, 2013).
La ventaja de Watson sobre los seres humanos es, obviamente, su capacidad para absorber
información. De hecho, en un estudio de 2017 (Wrzeszczynski et al., 2017) a IBM Watson le llevó
solo 10 minutos analizar el genoma de un paciente con un tumor cerebral y sugerir un plan de
tratamiento en comparación con las 160 horas que los especialistas necesitan para hacer un
plan comparable. En comparación con el software tradicional, que se basa en algoritmos
predeterminados y siempre genera la misma salida si se le da la misma entrada, Watson utiliza
tecnología basada en el aprendizaje automático, donde el algoritmo se adapta como resultado
del aprendizaje que produce durante el proceso de entrenamiento. En el caso de Watson, esto
consiste en analizar la efectividad de un tratamiento entre los pacientes que lo han recibido.
En el sector financiero, la IA puede aplicarse para mejorar la calificación crediticia de un cliente
determinado. Los algoritmos tradicionales no van bien para predecir el deterioro de la
calificación crediticia en los últimos años. En un estudio de 2010 (Khandani, Kimz y Lo, 2010) se
usó como una alternativa a la calificación crediticia tradicional un clasificador de riesgo utilizando
el aprendizaje automático. Se usó un conjunto de datos de 1 terabyte compuesto por las
transacciones diarias (por ejemplo, a través de tarjetas de crédito, cajeros automáticos, etc.), los
datos de la agencia de calificación crediticia y el balance de cuentas para un conjunto de clientes
de un banco comercial, que representaron el 1 % de los datos que generó el banco para el
periodo comprendido entre enero de 2005 y abril de 2009. El estudio mostró que el aprendizaje
automático funcionó mejor como un clasificador de riesgo que los algoritmos tradicionales de
calificación crediticia.
Anteriormente se podía rechazar a algunos clientes buenos a causa de una baja puntuación
utilizando los algoritmos tradicionales y, en cambio, se podía aceptar a algunos clientes malos,
ya que obtenían una puntuación alta. Usando este método alternativo, los bancos pueden
conseguir una reducción de costes, mediante una mejor identificación de las operaciones de
más riesgo, y al mismo tiempo, generar un nuevo negocio con personas que de otra forma no
tendrían ocasión de convertirse en clientes.
En todos los ejemplos anteriores, la utilización de la IA es la forma de interacción de anticipación
que permite a las organizaciones predecir el estado del mundo físico, que es un factor crítico en
el desarrollo de nuevas propuestas de valor. Los impulsores empresariales principales son:
descripción, predicción y prescripción. En primer lugar, podemos utilizar la IA para describir un
proceso complejo que de otra forma no sería evidente detectar —como si se estuviese utilizando
un microscopio digital—, como en el caso de la aplicación de Cardiogram para detectar la
fibrilación articular. En segundo lugar, podemos utilizar la IA para predecir patrones futuros

12 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

basados en las condiciones actuales, como en el caso de los motores Rolls-Royce o la


clasificación de riesgo para créditos al consumo utilizando el aprendizaje automático. Por último,
podemos utilizar la IA para indicar o recomendar un curso de acción; por ejemplo, IBM Watson
recomienda un tratamiento específico oncológico para un paciente determinado.

3.3. Coordinación utilizando IA


Tradicionalmente, las organizaciones han ofrecido sus propuestas de valor que operan dentro
de los límites de la cadena de valor lineal de un sector determinado (por ejemplo, automoción,
banca, etc.). Esta situación se derivó del alto coste de las transacciones (por ejemplo,
coordinación, producción, etc.), que provocó que no fuese factible realizarlo de otra forma. En
consecuencia, las propias organizaciones controlaron y crearon totalmente los productos y
servicios, con la participación de los proveedores presentes en su cadena de valor. Sin embargo,
a medida que aumenta la densidad digital, es posible definir nuevamente la forma en la que se
cumplen las necesidades de los clientes más allá de lo que proporciona la cadena de valor
tradicional. En otras palabras, ahora las nuevas propuestas de valor pueden ser fruto de la
coordinación de participantes variados y numerosos (por ejemplo, las organizaciones, las
personas y los objetos).
A medida que aumenta el número de participantes involucrados en una propuesta de valor
determinada, aumenta sustancialmente la complejidad de la coordinación, ya que el número de
posibles interacciones y oportunidades de aprendizaje se incrementa de manera combinatoria
exponencial. En estos escenarios, el uso de la inteligencia artificial distribuida (DAI, por sus siglas
en inglés) puede resultar útil para construir nuevas propuestas de valor. Los sistemas de
inteligencia artificial distribuida están formados por participantes autónomos inteligentes,
denominados agentes, que se distribuyen físicamente y a menudo a gran escala. Un ejemplo
podría ser la aplicación de la inteligencia artificial distribuida en el cálculo del trazado idóneo de
las rutas de una gran flota de vehículos en una plataforma móvil (por ejemplo, Uber, Cabify, etc.).
En todos estos ejemplos, el uso de la IA para la coordinación de las interacciones permite a los
diferentes participantes trabajar juntos en nuevas propuestas de valor, sin la restricción de
pertenecer a las mismas cadenas de valor lineales tradicionales y sin las limitaciones de tamaño
(es decir, número de participantes) o ubicación física. Hoy en día, el uso de la IA para las
interacciones de coordinación no es tan frecuente como en el caso de los otros tres tipos de
interacciones (es decir, automatización, anticipación y personalización). Sin embargo, a medida
que avanzamos hacia un mundo hiperconectado de alta densidad digital, las organizaciones, las
personas y los objetos pueden coordinarse independientemente de su número y de su ubicación
física. Por ejemplo, la ciudad china de Cantón, con una población de 16 millones de personas,
más de 16.000 km de carreteras y un flujo diario de 3,5 millones de vehículos, utiliza el programa
City Brain, basado en AutoNavi, el sistema de gestión de tráfico de Alibaba. City Brain (Alibaba
Cloud, 2018) permite al centro inteligente de la policía de tráfico de Cantón analizar macrodatos
procedentes de transmisiones de vídeo, redes sociales e información de tráfico para optimizar
las señales de tráfico y reorganizar su red de carreteras en tiempo real.
Por lo tanto, a medida que la densidad digital continúa creciendo, creará un nuevo escenario de
inteligencia colectiva donde las personas y los ordenadores (es decir, la computación asociada
con los objetos y/o las organizaciones) podrían actuar de manera más inteligente que cualquier
persona, grupo u ordenador (Malone, 2018), habilitando otro nivel de propuestas de valor
basado en la IA.

IESE Business School-University of Navarra 13


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

3.4. Personalización utilizando IA


Hasta hace poco, las organizaciones competían en sus mercados utilizando estrategias de
precios o de diferenciación (Porter, 1979); es decir, compitiendo en precio en un mercado
masivo o desarrollando productos para un nicho de mercado concreto. Cuando la densidad
digital aumenta, las empresas pueden crear una oferta totalmente personalizada para diferentes
consumidores (Anderson, 2006), en función de los datos que reflejan los hábitos y las
preferencias de un consumidor individual. La IA se utiliza en la interacción de personalización
para predecir una propuesta de valor correcta para un cliente determinado, según los datos
recopilados que reflejen sus hábitos y sus preferencias.
Un ejemplo de aplicación de IA en una interacción de personalización es la empresa de seguros
de automóviles de EE. UU. Progressive, donde los clientes pudieron optar por conectar un
dispositivo pequeño llamado Snapshot en los sistemas de diagnóstico a bordo (OBD, por sus
siglas en inglés) del coche o instalando la aplicación Snapshot en sus teléfonos inteligentes.
Snapshot rastrea sus hábitos al conducir (por ejemplo, la forma en la que gira el volante o la
forma en la que frena, etc.) y envía los datos a Progressive. El programa Snapshot ha recopilado
más de 13 000 millones de millas de datos de conducción en 2016. Todos estos datos los procesa
el socio de Progressive, H2O.ai, utilizando datos predictivos. De esta forma, la empresa se vuelve
más eficiente en sus operaciones (por ejemplo, gestión de reclamaciones, detección del fraude,
mejora analítica, etc.) y, al mismo tiempo, personaliza la experiencia del cliente. Aquellos
clientes que por voluntad propia deciden compartir los datos recopilados por Snaphot para el
periodo de la primera póliza de seguro, que es normalmente medio año, obtienen una tasa de
seguro personalizada basada en su manejo real, en lugar de los criterios estándar de seguros de
automóvil, como edad, modelo de vehículo o zona de residencia.
Otra aplicación de la IA como interacción de personalización se puede encontrar en la medicina
de precisión, adaptando un tratamiento médico a las características individuales de cada
paciente. La medicina de precisión consiste en analizar la forma en la que interactúan diversas
características biológicas de los pacientes con múltiples moléculas farmacéuticas con el fin de
combinar con más acierto los medicamentos para mejorar la salud de los pacientes. Sin
embargo, la medicina de precisión no se ha convertido en una realidad debido a los costes
inasequibles asociados con la explosión combinatoria requerida de los ensayos clínicos que
serían necesarios. Por esta razón, las empresas farmacéuticas tradicionalmente han ofrecido
una atención estándar a un paciente promedio hipotético. La empresa estadounidense GNS
Healthcare procesa millones de puntos de datos de todo tipo –registros médicos electrónicos,
genéticos, proteómicos, genómicos, reclamaciones, de consumo, de laboratorio, de
prescripción, de salud móvil, sociodemográficos, etc.– para modelar la respuesta del paciente al
tratamiento vía simulación computacional; es decir, aplicando una simulación por ordenador en
lugar de ensayos clínicos. GNS Healthcare, utilizando el aprendizaje automático, reconstruye
enfermedades complejas en modelos computacionales, lo que permite a las empresas
farmacéuticas simular escenarios del mundo real, aumentando la velocidad de descubrimiento
de nuevos medicamentos de años a meses.
En los dos ejemplos anteriores de Progressive y GNS Healthcare, el uso de la IA en la
personalización de las interacciones permite a las empresas crear una propuesta de valor
específica y asequible basada en las necesidades de los clientes. En muchos de esos casos, la
interacción de personalización también está relacionada con la interacción de anticipación. Por
ejemplo, la aplicación de tráfico Waze utiliza una interacción de anticipación para aprovechar
los macrodatos recibidos de los conductores con fines de predicción, mientras que la interacción
de personalización se centra en los datos personales (es decir, la ubicación de un automóvil

14 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

determinado), como la entrada para cambiar el comportamiento (es decir, un conductor que
cambia su ruta siguiendo las recomendaciones de Waze). Otro ejemplo es el motor de
recomendaciones de Amazon, que analiza todas las transacciones del cliente y las agrupa en
conjuntos de clientes con comportamientos y gustos similares (es decir, anticipación) para
recomendar productos potenciales a un cliente determinado (es decir, personalización). A
medida que los algoritmos de IA para anticipación y personalización continúan mejorando,
Amazon a la larga puede cambiar su modelo de negocio de comprar y luego enviar por
transporte y después comprar, como insinuó la patente que Amazon presentó en 2013 para lo
que denominó “envío anticipado”.

4. Implicaciones de la IA en las organizaciones


En el apartado anterior, vimos que la IA representa una tecnología importante en términos de
construir nuevas propuestas de valor como una combinación de interacciones
de automatización, anticipación, coordinación y personalización. Sin embargo, la presentación
de la IA en un modelo de negocio en una empresa puede también tener un gran impacto en su
modelo organizativo. En esta sección, las implicaciones de la IA se analizan en tres niveles: en
primer lugar, identificar retos específicos que surgen cuando una organización pone en marcha
una nueva propuesta de valor basada en la IA; en segundo lugar, centrarse en las nuevas
capacidades que necesita una organización para integrar la tecnología de IA, y en tercer lugar,
enfatizar la importancia de algunos principios de la gobernanza de la IA cuando los datos se
convierten en el activo crítico para cualquier negocio.

4.1. Retos al presentar la IA


Sin lugar a dudas, un aumento en la densidad digital permite a las organizaciones aprovechar
muchos beneficios al crear nuevas propuestas de valor, como se describe en el apartado
anterior. Sin embargo, este escenario también crea nuevos retos, en concreto en el contexto de
la IA, donde las organizaciones necesitan, reconocen y abordan ciertos problemas que pueden
surgir en relación con:
 La privacidad, relacionada con la cantidad de datos personales necesarios para entrenar
los algoritmos de AI.
 La integración, relacionada con la propiedad y el uso de datos utilizados para propuestas
de valor que se obtienen como resultado de la coordinación entre varias partes.
 La fiabilidad, relacionada con la calidad de los resultados del modelo de IA.
 La seguridad, relacionada con la vulnerabilidad de los modelos de IA contra los
ciberataques.

4.1.1. Privacidad
Sin embargo, una mejor personalización implica recopilar y almacenar cada vez más datos
individuales del cliente, por lo que se incrementa el desafío de la privacidad. Un escenario de
futuro cercano puede involucrar a una empresa que puede predecir, a través de biosensores, la
probabilidad de que una persona desarrolle una enfermedad grave. Por lo tanto, un proveedor
de seguros de salud podría potencialmente discriminar a un cliente al negar la cobertura a las
personas con mayores riesgos. Esta tensión de personalización y privacidad incluso se puede

IESE Business School-University of Navarra 15


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

encontrar en un simple robot aspirador que crea un mapa de un apartamento para saber qué
partes ya se han limpiado. Por esta razón, los consumidores solo aceptarán estas nuevas
propuestas de valor si confían en la organización que las proporciona y es transparente en el uso
de los datos personales. Se han dado los primeros pasos para aumentar los niveles de privacidad
de los datos personales mediante la introducción de nuevas regulaciones y requisitos de
cumplimiento, como el Reglamento General de Protección de Datos (RGPD) adoptado por la
Unión Europea (UE), que también limita el tipo de datos que puede utilizar una organización
para entrenar sus algoritmos de IA.2

4.1.2. Integración
En un mundo de alta densidad digital, las propuestas de valor son a menudo el resultado de la
cooperación de varias organizaciones dentro de ecosistemas más ricos. Por esta razón, tales
asociaciones necesitan el establecimiento de cláusulas de datos con respecto a la propiedad y
limitación del uso de datos por parte de las empresas participantes. En el ejemplo anterior sobre
el mantenimiento predictivo de los motores de aeronaves, Roll-Royce ve su valor operacional en
los datos agregados de todos los motores, mientras que la aerolínea y/o el fabricante de
aeronaves solo tiene o tienen acceso a una fracción de los datos recopilados sin elaborar y no
tiene o tienen acceso a un panorama más amplio. Es posible que las empresas industriales no
quieran compartir sus datos por razones de cumplimiento (por ejemplo, máquinas médicas) o
problemas de competencia, lo que limita las capacidades de aprendizaje de la máquina (es decir,
reduce el conjunto de datos de entrenamiento del equipo gestionado por la organización). Con
el fin de armonizar las preocupaciones de las empresas industriales sobre compartir sus datos
debido a la preocupación de compartir información valiosa sobre sus productos, algunas
organizaciones han decidido compartir los datos con el único fin de usarlos como un conjunto
de datos de entrenamiento para algoritmos de IA. Sin embargo, conservan la propiedad de los
datos para estar protegidos de los riesgos de cumplimiento y seguridad.

4.1.3. Fiabilidad
La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que
utilizan los algoritmos de IA es importante y, por otro lado, la fiabilidad del software de esos
algoritmos representa desafíos. Asegurar la calidad de los datos está relacionado con la
gobernanza de estos, que se tratará más adelante en este capítulo. En referencia a la fiabilidad
de los algoritmos de IA, es importante tener en cuenta no solo sus posibilidades, sino también
sus limitaciones. Abordar la calidad de los datos y los problemas de fiabilidad del algoritmo
dentro de las empresas ayudará a las organizaciones a descartar inversiones sin retorno alguno.
También les ayudará a no alabar los resultados de los proyectos relacionados con la IA para
evitar decepciones y escepticismo con respecto a la utilidad de la IA.
Las técnicas de aprendizaje del algoritmo de IA (Zamora y Herrera, 2018) se basan en el
entrenamiento de un modelo con datos. Sin estos datos, el entrenamiento no es posible y, por
lo tanto, no es posible generar ningún modelo. Muchas veces las empresas solicitan una
evaluación sobre la cantidad de datos que se necesitan para entrenar un modelo. Esto depende
del caso particular y de la complejidad del algoritmo. Sin embargo, la pregunta correcta que
2 El RGPD se centra específicamente en proteger los datos y garantizar su privacidad. Cualquier organización que opere
dentro de la UE estará obligada a recopilar datos legalmente y bajo condiciones estrictas y protegerlos de un uso indebido
por parte de terceros; de lo contrario, se le multará. Las organizaciones necesitan usar la configuración de privacidad más
alta, para que los datos no se hagan públicos. La RGPD permite a las personas desafiar a las organizaciones para revelar o
eliminar sus datos personales.

16 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

deben abordar los ejecutivos de negocios no debe estar relacionada con la cantidad de datos
necesarios, sino más bien con qué problema se puede resolver con los datos disponibles. Si una
organización no tiene muchos datos, es recomendable utilizar aquellos algoritmos que sean más
resistentes al aprendizaje con menos datos, pero que sin embargo, impliquen niveles de
confianza más bajos. Por ejemplo, si necesita un modelo de predicción para las ventas semanales
de productos en una tienda de venta al por menor, es lógico solicitar los datos de ventas de
varios años de cada producto por semana, así como las series de tiempo con variables
potencialmente explicativas (por ejemplo, días festivos, clima, indicadores macroeconómicos,
canal de ventas etc.).
Un sistema de IA con una alta calidad de predicción puede dejar de funcionar tan bien en
cualquier momento, o, dicho de otra manera, un sistema de IA debidamente entrenado con
datos anteriores puede dejar de ser correcto con las circunstancias actuales si estas
circunstancias cambian las razones por las cuales ocurrieron los casos anteriores. Por ejemplo,
un consumidor que compra ropa de temporada durante años en una tienda puede cambiar sus
hábitos con la presencia de un competidor que se adapte mejor a sus necesidades y que tenga
mejor precio.
Debido a esta limitación, es esencial en la situación actual crear sistemas de IA con
entrenamiento continuo incorporado, pero también con la capacidad de distinguir el ruido en
los datos; es decir, eventos no relevantes para el entrenamiento pero que pueden distorsionar
los resultados.
El grado de confianza del modelo resultante construido con un algoritmo de aprendizaje
automático se puede medir, comparando la predicción del modelo con lo que sucedió en el
pasado. Cuanto mayor sea el número de casos en los que la predicción coincida con la realidad,
mayor será el grado de confianza en el modelo. No obstante, en ningún caso el grado de
confianza de un modelo garantiza plenamente su éxito en una aplicación práctica futura, ya que
muchos modelos sufren lo que se conoce como sobreentrenamiento; es decir, el proceso de
aprendizaje se ha adaptado demasiado a los datos de entrenamiento y, a pesar de su alto grado
de confianza, la aparición de circunstancias que generan relaciones entre datos que difieren del
pasado impide que el modelo funcione bien en la práctica.

4.1.4. Seguridad
Una de las consecuencias de un mundo hiperconcetado es que la superficie de ataque de una
organización crece de manera exponencial. Por esta razón, proteger la integridad de los datos
de los ciberataques es de particular importancia cuando los datos activan los algoritmos de IA.
Por lo tanto, la seguridad en el contexto de las propuestas de valor basadas en la IA van más allá
del tipo de ciberataques (Sieber y Zamora, 2009) que hemos experimentado hasta ahora, algo
que se denomina aprendizaje automático adverso. Este tipo de ataque saca provecho de las
limitaciones del diseño de la red neuronal utilizada en muchos algoritmos, que no operan de la
misma forma en que lo hace el cerebro humano. Un pirata informático (es decir, un adversario
malintencionado) puede manipular los datos de entrada de un algoritmo de IA, ya sea en la fase
de entrenamiento o en la de operación, para engañar a los sistemas para que vean o escuchen
algo que comprometa a todo el sistema de seguridad.
Un ataque en tiempo de entrenamiento puede suceder en una etapa de construcción de un
modelo de aprendizaje mediante el uso de datos maliciosos. Un ataque en el tiempo de
inferencia utiliza entradas específicamente sintetizadas que afectan al modelo. Algunos
ejemplos de piratería informática sobre la IA pueden parecer inocentes, como una red neuronal

IESE Business School-University of Navarra 17


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

que confunde a una tortuga con un fusil en una foto. Sin embargo, algunos errores de IA pueden
provocar mayores alteraciones, como un coche de conducción autónoma que no se detenga en
una señal de detención obligatoria, porque estaba parcialmente cubierto por adhesivos en
blanco y negro cuidadosamente diseñados (Eykholt et al., 2018).
Dado que cada vez más propuestas de valor dependen del uso de la tecnología de IA, es
importante identificar los riesgos potenciales relacionados con los ataques adversos con
anticipación (es decir, los principios de diseño seguro) y construir ciertas defensas para
protegerlos.

4.2. Nuevas capacidades al adoptar la IA


Cuando una organización considera la puesta en marcha de nuevas tecnologías de IA, es
recomendable hacerlo de forma progresiva para evaluar su idoneidad y preparar la estructura
organizativa y las capacidades tanto a nivel operativo como de gestión para integrar con éxito la
tecnología y preparar la tecnología de IA en su modelo de negocio.
Con bastante frecuencia, las organizaciones comienzan con una prueba donde la IA se puede
utilizar para crear una nueva propuesta de valor para la automatización, la anticipación, la
coordinación y la personalización. En estas fases iniciales, el énfasis debe ponerse en el
experimento interactivo, en la construcción de un producto mínimo viable y métricas de
seguimiento, que permiten probar hipótesis iniciales o indicadores de éxito. Una vez que la
propuesta de valor se haya validado en el proyecto piloto, las organizaciones pueden comenzar
a ponerla en marcha a mayor escala al reemplazar o mejorar los procesos actuales. Esto
comportará la reducción de costes y/o la generación de nuevas fuentes de ingresos. Además,
los nuevos datos generados por el cliente que utiliza estos nuevos productos y servicios se
pueden usar, a su vez, para descubrir o mejorar las nuevas propuestas de valor —mediante el
uso de la IA como impulsor de la innovación— cerrando un círculo virtuoso.
De hecho, la mayoría de los algoritmos de la IA pueden obtenerse con facilidad. Sin embargo, el
acceso a los datos de calidad es la principal barrera de entrada para conseguir un modelo de
negocio sostenible y competitivo. Por esta razón, es fundamental definir una estrategia de
adquisición continua de datos (por ejemplo, tener un almacén de datos unificado), no solo con
la finalidad de formación en IA, sino también como fuente para futuras innovaciones. Esto
requiere el desarrollo de nuevas capacidades operativas en la organización relativas a la
aplicación y al uso correcto de las técnicas de IA.
En este sentido, muchas organizaciones incorporan nuevos perfiles profesionales, como
científico de datos (Zamora y Herrera, 2018). Un científico de datos ideal debería tener
formación en matemáticas aplicadas y un buen conocimiento de los lenguajes de programación
y de gestión de base de datos. Además, un científico de datos debe orientarse hacia resultados
prácticos pero con un gran componente de creatividad, especialmente cuando se trata de definir
el entrenamiento de datos de un algoritmo de IA.
Sin embargo, las organizaciones afrontan algunos problemas para ocupar este puesto. Entre las
dificultades con las que se encuentran las organizaciones cuando buscan un científico de datos,
cabe citar: dominio del conocimiento del negocio, habilidades de comunicación y comprensión
e identificación de los diferentes y heterogéneos repositorios de datos de la empresa. Para
superar estas limitaciones, el rol de un científico de datos a menudo se ofrece conjuntamente
con otros roles, como los traductores comerciales que interpretan los desafíos del negocio, los

18 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

puntos de mejora y las oportunidades, y los traducen en propuestas que pueden ponerse en
marcha utilizando IA.
Además, las organizaciones deben incorporar perfiles especializados para la búsqueda de los
datos de entrenamiento necesarios de una manera más eficiente. En algunos casos, la
disponibilidad de un almacén de datos unificado o cualquier otro repositorio centralizado de
información simplifica la tarea, pero siempre existe la enorme tarea de búsqueda posterior entre
los diferentes atributos comerciales de los cuales se compone el conjunto de datos de
entrenamiento. El conocimiento de que este perfil debe actuar de acuerdo con los requisitos
reglamentarios siempre que procese datos personales (por ejemplo, RGDP) merece una
mención especial.
La tecnología de IA se convierte en una tecnología central en los modelos de negocios de las
organizaciones, las nuevas funcionalidades (Daugherty y Wilson, 2018) relativas a todo lo que
necesitará la gobernanza de la IA. Se describirá más detalladamente en el próximo apartado.

4.3. Algunos principios de gobernanza con la IA


Como se describió en los apartados anteriores, la presentación de la tecnología de IA como parte
de unas nuevas propuestas de valor hará frente a desafíos específicos de privacidad, integración,
fiabilidad y seguridad, a la vez que a las dificultades para adquirir nuevas capacidades necesarias
para gestionarlas. Sin embargo, dado que la tecnología de IA se utiliza tanto para sustituir como
para aumentar la capacidad humana, los directores generales deben tener cuidado con el
impacto de la IA en sus propios procesos de decisiones, en empleados, en clientes que usan sus
productos y en la sociedad en general. Por estas razones, los directores generales deben tener
cuidado y actuar en consecuencia con respecto a las repercusiones externas de la IA,
especialmente las que son negativas, más allá de su impacto sobre los modelos empresariales.
En primer lugar, las organizaciones se enfrentarán a cuestiones importantes relacionadas con la
equidad de los algoritmos implementados según el sesgo3 incorporado en el conjunto de datos
de entrenamiento. En segundo lugar, dado que los algoritmos de IA se integrarán en el proceso
de toma de decisiones, deberán afrontarse los asuntos relacionados con la responsabilidad en
el caso de resultados no deseados. En tercer lugar, los directores generales confiarán en los
sistemas de IA solo si estos sistemas pueden ser transparentes y explicables (por ejemplo,
pueden explicar la forma en la que se obtuvieron ciertos resultados) en lugar de ser simplemente
una caja negra. En cuarto lugar, los directores generales deben ser conscientes de las
implicaciones éticas del uso de sistemas basados en los valores (función de utilidad) con los que
se diseñaron los algoritmos de IA. Por último, los directores generales deben seguir la sabiduría
práctica, actuando sobre la base de lo que es correcto para todas las partes interesadas.
Con la tecnología de vanguardia actual de IA, los problemas actuales a los que se enfrentan las
organizaciones no se relacionan con la posibilidad de que los sistemas de IA alcancen un poder
de inteligencia superior (Bostrom, 2014) que anule cualquier control humano, sino todo lo
contrario, se basan en las deficiencias de la tecnología de IA de hoy en día, que carece de
capacidades humanas inherentes, como la generalización, el pensamiento abstracto y la
capacidad de hacer analogías. En palabras de Pedro Domingos, profesor de la Universidad de
Washington y un investigador líder en IA, “la gente se preocupa de que los ordenadores son
demasiado inteligentes y controlan el mundo, pero el problema real es que son demasiado

3 Eneste contexto, los sesgos no se refieren a su significado estadístico sino a la inclinación o perjuicio por o contra otra
persona o grupo, especialmente de una manera considerada injusta.

IESE Business School-University of Navarra 19


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

estúpidos y ya tienen el control del mundo” (Domingos, 2015). Esto significa que los algoritmos
de IA todavía no poseen la capacidad de entender las cosas como lo hacen los humanos, lo que
puede tener consecuencias arriesgadas.
Estas limitaciones de IA están directamente relacionadas con la calidad de los datos utilizados y
el diseño de los algoritmos. Por lo tanto, las organizaciones deben conocer sus datos y confiar
en ellos antes de comenzar a utilizar la tecnología de IA. Data for good (‘datos para siempre’)
(Wing, 2018) se ha defendido en el campo científico y tecnológico como principio rector del uso
de datos a lo largo de todo el ciclo de vida de estos. En el mundo de la gestión, debe utilizarse
un principio similar al adoptar la IA en el proceso de toma de decisiones e integrar la IA en la
oferta de la empresa. Este principio rector del diseño de algoritmos de uso y diseño de datos
también se conoce con el acrónimo FATE, por las siglas en inglés (equidad, responsabilidad,
transparencia y ética) (FAT/ML 2018) (Microsoft, 2018). En el contexto específico de la dirección
general, proponemos añadir unos principios rectores suplementarios, basados en la sabiduría
práctica, para abordar los temas de:
 Equidad, relacionada con el sesgo introducido por el conjunto de datos de
entrenamiento de los algoritmos de IA.
 Responsabilidad, relacionada con la responsabilidad de las decisiones basadas en los
modelos de IA.
 Transparencia, relacionada con el aprovechamiento de los modelos de IA.
 La ética, relacionada con los valores sobre los que se construyen los sistemas de IA.
 Sabiduría práctica, relacionada con el buen juicio de la dirección general tanto si se usa
como si no la IA sobre la base de lo que es correcto para las partes interesadas.

4.3.1. Equidad
Como hemos visto en este capítulo, la IA es una poderosa tecnología, capaz de atender mejor a
los clientes y obtener una mejor perspectiva en la organización. Sin embargo, deben obtenerse
estas ventajas mientras se evita exponer a las personas a cualquier clase de injusticia como
resultado de posibles sesgos presentados mediante la adopción de IA. En este contexto, la
equidad significa que los modelos de IA deben dar lugar a clasificaciones o predicciones
imparciales. Un ejemplo trivial se puede encontrar en el buscador de imágenes de Google
Images. Para la consulta de CEO, se obtienen de forma abrumadora imágenes de hombres
trajeados, que reflejan el hecho de que, históricamente, las mujeres han tenido dificultades para
acceder a puestos ejecutivos de categoría superior con condiciones equivalentes a los hombres.
En este caso, el conjunto de datos de entrenamiento contiene el sesgo de género de tener
muchos más hombres que mujeres en los cargos de CEO.
Dado que un modelo de IA es el resultado de entrenar un algoritmo con datos, el sesgo proviene
de los datos utilizados o del propio algoritmo. Sin embargo, los algoritmos reflejan los valores
de las personas que los diseñaron y codificaron. Esto es algo que incluiremos más adelante, al
considerar las implicaciones éticas de la IA. Por esta razón, las organizaciones deben prestar
especial atención a los sesgos que contiene el conjunto de datos de entrenamiento que utilizan
los algoritmos de IA. Aunque muchos sistemas de IA se crearon con las mejores intenciones,
estos sistemas de IA tienen cada vez más un impacto directo sobre la vida de las personas
(O’Neil, 2016). En consecuencia, los datos sesgados deben ser un motivo de preocupación para
muchas organizaciones, debido a las consecuencias importantes en materia de responsabilidad
en áreas como el acceso a la vivienda, la aplicación de la ley y el empleo.

20 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

Un estudio reciente (Buolamwini y Gebru, 2018) evaluó el riesgo de tres aplicaciones


comerciales de software de reconocimiento facial (Microsoft, Face++ e IBM). El estudio mostró
que el software estaba en lo correcto para el 99 % de las imágenes de fotos de hombres blancos.
Sin embargo, el porcentaje de error estaba prácticamente en el 35 % para las imágenes de
mujeres con la piel más oscura. El estudio concluyó que los sesgos de género y raza se debían al
conjunto de datos utilizado para entrenar estos programas de software. De hecho, se estimó
que, en el conjunto de datos de entrenamiento utilizado por el software de reconocimiento
facial, cerca del 75 % de las imágenes mostraban a los hombres y más del 80 % de ellos eran
hombres blancos. Estos resultados indican que hay una necesidad urgente de corregir los datos
sesgados por género y raza si las empresas desean incorporar este tipo de software en sus
propuestas comerciales.
No obstante, el sesgo del modelo de IA puede tener consecuencias aún más graves y causar la
estigmatización social por fortalecimiento de estereotipos. Este parece ser el caso del software
COMPAS (perfil de gestión de delincuentes correccionales para sanciones alternativas),
desarrollado por la empresa estadounidense Northpointe, que se utiliza en los tribunales de los
EE. UU. para predecir la reincidencia de los delincuentes. COMPAS se ha convertido en una
herramienta utilizada por los jueces para guiarlos al elaborar las sentencias mediante la
identificación de posibles reincidentes en un crimen futuro. Según un estudio reciente publicado
en ProPublica (Angwin, 2016), COMPAS predijo las reincidencias correctamente en el 61 % de
los casos. Sin embargo, mostró un fuerte sesgo hacia las personas de raza negra, que fueron
calificadas con un alto riesgo de reincidencia en el 44 % de los casos, pero finalmente no
reincidieron. Por otra parte, se calificó de alto riesgo a las personas blancas que no reincidieron
solo en el 23 % de los casos.
Por estas razones, los directores deben tener en cuenta antes del desarrollo y despliegue de la
IA la calidad de los datos utilizados por los algoritmos. Intel, en su artículo técnico Public Policy
Opportunity (Intel, 2017), sugiere mitigar el sesgo mediante el uso de algoritmos verificados,
modelos de datos y conjuntos de entrenamiento bien revisados, realizando una extensa
validación de los sistemas de IA y estando alerta sobre las posibles implicaciones de equidad de
las decisiones basadas en IA. En este sentido, dado que las empresas están utilizando varias
fuentes de datos para alimentar sus algoritmos de IA, se requerirá un rol de higienista de datos
(Daugherty y Wilson, 2018). Su papel será liberar los datos de cualquier ruido o sesgo oculto.

4.3.2. Responsabilidad
La responsabilidad siempre ha sido un concepto crucial en la gestión. Según Peter Drucker
(Drucker, 1973), los líderes en una organización son responsables del cumplimento de sus
instituciones y deben rendir cuentas sobre él, y también son responsables de la comunidad en
general. Por lo tanto, la responsabilidad implica el conocimiento y la asunción de responsabilidad
por las acciones, productos y decisiones dentro del alcance de la función de gestión. Sin
embargo, en el contexto de la IA, la responsabilidad puede ser más desafiante, ya que detrás de
una decisión o un producto también hay datos y algoritmos. Un ejemplo es el estudio de 2015
(Datta, Tschantz y Datta, 2015) de Google Ads, utilizando una herramienta que se llama AsFisher,
desarrollada por la Universidad Carnegie Mellon, que realiza experimentos usando perfiles de
usuario simulados. El estudio reveló que los anuncios de empleos bien remunerados se
mostraban más para hombres que para mujeres en Google. Sin embargo, en esta situación, no
está claro quién es responsable de este resultado de discriminación. Podrían ser los anunciantes
dirigidos al anuncio, o el diseño de la plataforma de publicidad de Google, o el hecho de que los
hombres hagan más clic en este tipo de anuncio —lo que lleva a un aumento en la frecuencia

IESE Business School-University of Navarra 21


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

de aparición de estos anuncios en los hombres, o incluso a una mayor competencia por el
espacio publicitario para las mujeres—, lo que da como resultado una reducción en la frecuencia
de aparición de estos anuncios para las mujeres.
Anteriormente en este capítulo, se mencionó la forma en la que IBM Watson ayuda a los
oncólogos en el diagnóstico y el tipo de tratamiento de sus pacientes. Sin embargo, si Watson
proporciona una recomendación de tratamiento con consecuencias fatales para el paciente,
¿quién será responsable de este resultado no deseado: el oncólogo, el hospital o IBM? Este
escenario puede suceder hipotéticamente, como se señaló en el sitio web de noticias orientado
a la salud STAT (Ross y Swetlitz, 2018). En julio de 2018, STAT informó sobre “varios ejemplos de
recomendaciones de tratamiento peligrosos e incorrectos” en los tratamientos para el cáncer
elaborador por Watson.
Reflexionando sobre estos temas de responsabilidad, el Future of Life Institute llevó a cabo la
conferencia Asilomar (Future of Life Institute, 2017) sobre los beneficios de la IA en 2017,
creando un conjunto de veintitrés pautas para los investigadores de IA. Estas pautas pueden
extenderse a los directores de las organizaciones, ya que son las principales partes interesadas
en las repercusiones morales del uso, el mal uso y las acciones relacionadas con la tecnología de
IA. Las organizaciones deben comprometerse con la responsabilidad de dar forma a esas
repercusiones y adoptar políticas internas coherentes con los criterios sociales externos. Las
empresas deben poner en marcha los sistemas necesarios y los programas de formación para
que los directores utilicen las herramientas de IA y sean responsables de los resultados.

4.3.3. Transparencia
El tercer principio rector en el uso de la IA es la transparencia. Las organizaciones solo pondrán
en marcha sistemas de IA si esos sistemas pueden ser transparentes y explican la forma en la
que alcanzan un resultado, en lugar de actuar simplemente como una caja negra o un sistema
para el cual solo podemos observar entradas y salidas. Hasta ese punto, la transparencia puede
facilitar la responsabilidad en el uso de la tecnología de IA. Cuando las organizaciones y los
directores comienzan a confiar en gran medida en los algoritmos para tomar decisiones cada
vez más importantes, se les pedirá que cuenten con los mecanismos correctos de explicación si
los resultados resultan inaceptables o difíciles de entender. Por ejemplo, si IBM Watson
recomienda a un paciente un tratamiento que parece incorrecto para el médico, el médico
confiará en la recomendación de Watson (IBM, 2018) si el sistema explica, en términos
comprensibles, los factores (por ejemplo, resonancias magnéticas, documentos científicos, etc.)
que contribuyen al resultado final.
Además, también se necesita transparencia para brindar un trato justo a cualquier persona
afectada por el resultado de la IA. Este es el caso de Sarah Wysocki (O’Neil, 2016), una profesora
de quinto curso en la MacFarland Middle School de Washington D. C. Tras dos años en el colegio,
recibía excelentes evaluaciones por parte del director y de los padres de los estudiantes. Sin
embargo, a finales del año académico 2010-2011, se despidió a Wysocki por una puntuación
muy baja en su evaluación por parte de IMPACT. IMPACT es una herramienta de IA, que aprobó
en 2009 el rector de los colegios de Washington con el objetivo de dar la vuelta a los colegios
con bajo rendimiento de la ciudad. IMPACT trata de medir la efectividad de un educador
determinado en la enseñanza de las habilidades de matemáticas e idiomas. Aunque la intención
inicial de IMPACT era minimizar el sesgo humano, como “los profesores malos que pueden
parecer buenos”, al fin y al cabo, es extremadamente complejo calcular el impacto que una
persona puede tener en otra durante un año, dado que existen muchos otros impactos sociales
que intervienen en la ecuación. Sin embargo, cuando Wysocki, al igual que otros maestros

22 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

despedidos, exigieron detalles de los criterios de evaluación, muchos directores de los centros
escolares fueron incapaces de proporcionar una explicación detallada, ya que no conocían el
funcionamiento interno de IMPACT.
La transparencia es un desafío para las organizaciones, ya que puede requerir revelar la
propiedad intelectual mediante la obligada publicación de los modelos de IA. Por lo tanto, es
importante aclarar las situaciones cuando se deben dar explicaciones y si necesitan una
descripción detallada del funcionamiento interno de la IA o, más bien, una justificación para el
resultado particular (Doshi-Velez y Kortz, 2017). Además, el nuevo RGPD de la UE incluye el
“derecho a explicar” al proporcionar “información significativa sobre la lógica implícita”.
Debido a la naturaleza de los algoritmos actuales de IA, especialmente aquellos basados en redes
neuronales profundas, ha sido casi imposible entender la forma en la que la IA alcanza sus
impresionantes resultados. Sin embargo, a medida que el aprovechamiento es cada vez más
importante, los investigadores (Binder et al., 2016) están estudiando los mecanismos de
explicación para los algoritmos de IA, como la propagación de relevancia por capas (LRP, por sus
siglas en inglés). Estos mecanismos pueden adoptar un resultado de IA y trabajar hacia atrás a
través de la red neuronal del programa para revelar la forma en la que se tomó una decisión.
Además, las organizaciones deberán contratar un nuevo tipo de profesional de IA denominado
explicador de IA (Daugherty y Wilson, 2018), cuya función principal será explicar el
funcionamiento interno de los algoritmos complejos de IA. En algunos casos, estos profesionales
podrían actuar como analistas forenses de algoritmos para proporcionar una explicación
satisfactoria, auditable por una autoridad competente, del sistema de AI de una organización.

4.3.4. Ética
El cuarto principio rector en el uso de la IA es la ética. A medida que los humanos delegan cada
vez más decisiones en los sistemas de IA, tarde o temprano nos enfrentaremos a dilemas
morales. Una versión adaptada del llamado problema del trolley (Thomson, 1976) se puede
encontrar en los vehículos autónomos. Imagine que un vehículo autónomo tiene un fallo
mecánico y es incapaz de parar. El sistema de IA (que actúa como conductor) tiene dos opciones:
o bien el coche continúa y corre y mata a una familia que cruza la calle o bien se desvía, choca
contra una pared y golpea a un transeúnte. ¿Cuál es la opción moral, ética? ¿Matar a dos
personas (el pasajero y el espectador) o a cinco (la familia)? En el caso de un conductor humano,
el dilema se resolvería a juicio del conductor. Sin embargo, en el caso de un vehículo autónomo
utilizando IA, las decisiones éticas —algunas de ellas sin el derecho a una respuesta correcta o
incorrecta— deben programarse con antelación. En estas situaciones, sería necesaria la
regulación para reflejar la forma en la que la sociedad (Edmond, 2017) en su conjunto quiere
tratar con estos dilemas éticos.
En ese sentido, e inspirado en las muy conocidas tres leyes de robótica de Asimov (Asimov,
1950), Oren Etzioni, profesor de la Universidad de Washington y director ejecutivo del Institute
for Artificial Intelligence, propone tres leyes de IA (Etzioni, 2017) relacionadas con los problemas
éticos que está creando esta tecnología. La primera es: “Un sistema de IA debe estar sujeto a
toda la gama de leyes que se aplican a su operador humano”. La segunda es: “Un sistema de IA
debe revelar claramente que no es humano”. Y la tercera es: “Un sistema de IA no puede retener
o divulgar información confidencial sin la aprobación explícita de la fuente de información”.

IESE Business School-University of Navarra 23


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

4.3.5. Sabiduría práctica


Los cuatro principios anteriores de FATE ponen el foco principal en las repercusiones externas
de IA en los empleados, los clientes y la sociedad en general. Sin embargo, desde la perspectiva
de la dirección general, proponemos introducir un principio añadido: de sabiduría práctica. Un
concepto de la ética de la virtud (Hursthouse y Pettigrove, 2018) que se entiende como el
conocimiento o la comprensión que permite a su dueño “hacer lo correcto” en cualquier
situación dada.
En ese sentido, los problemas éticos también están presentes cuando se deciden los ámbitos en
los que las organizaciones pueden aplicar la tecnología de IA (por ejemplo, el desarrollo de armas
letales dirigidas por IA). En noviembre de 2018, el Foro Económico Mundial, en su reunión anual
de los consejos de futuro global (Sutcliffe y Allgrove, 2018), declaró: “Se necesita una definición
más clara de marcos éticos, estándares normativos y modelos de gobierno basados en valores
para ayudar a guiar a las organizaciones en el desarrollo y uso de estas herramientas poderosas
en la sociedad, y para permitir un enfoque del desarrollo centrado en el ser humano que vaya
más allá de las fronteras geográficas y políticas”, es decir, ser conscientes de que el enfoque
debería ser el impacto de la IA en las personas, extendiendo el concepto de derechos humanos
a la esfera digital. Algo que también se refleja en el undécimo principio ASILOMAR de IA (Future
of Life Institute, 2017): “Los sistemas de IA deben estar diseñados y dirigidos para ser
compatibles con los ideales de la dignidad de la persona humana, los derechos, las libertades y
la diversidad cultural”.
Por lo tanto, las organizaciones que utilizan la tecnología de IA en sus propuestas de valor, así
como el proceso de toma de decisiones, necesitarán el nuevo rol de los sustentadores de IA
(Daugherty y Wilson, 2018) para garantizar que cada uno de los sistemas de IA satisfaga su
propósito de servir a los seres humanos. Sus actividades generales podrían incluir la creación de
unos límites para que la IA cumpla legal y éticamente, la gestión del cumplimiento de la IA y la
verificación de la calidad de salida. Los futuros roles sustentadores, como el gestor de
cumplimiento de ética y el especialista en ética de automatización, también incluirán roles
relacionados con el cumplimiento del requisito de los algoritmos de IA para operar dentro de las
reglas morales y éticas humanas. Los seres humanos que decidan qué sistemas de inteligencia
artificial deben degradarse o, por el contrario, deben promoverse —en función de su
cumplimiento— desempeñarán un papel similar al de la gestión de recursos humanos. Sin
embargo, en este caso se aplica a la IA.
En el contexto de la gestión, más allá de controlar los resultados del uso de la IA en una
organización, el uso o no de la IA también debe guiarse por el buen criterio del director general,
quien debe actuar sobre la base de lo que es correcto para todas las partes interesadas. Esto se
traduce en la gestión de un sistema complejo e interconectado: la configuración institucional, el
contexto interno, el entorno externo y el negocio, que constituyen las cuatro responsabilidades
genuinas de la dirección general (Andreu y Ricart, 2014). Esta decisión debe informarse por parte
del cometido de la organización o la razón de ser de la empresa.
Por lo tanto, proponemos ampliar los principios rectores del uso de datos y el algoritmo de
diseño con la inclusión del principio de sabiduría práctica relacionado con las responsabilidades
genuinas de la dirección general.

24 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

5. Conclusiones
Hemos visto en este capítulo que las organizaciones no deberían considerar la IA una tecnología
de forma aislada. La IA se está convirtiendo en una realidad como consecuencia de vivir en un
mundo con un aumento exponencial de la densidad digital, donde hay cada vez más datos
disponibles de la actividad de las empresas, las personas y los objetos. El aumento de la densidad
digital es la fuerza motriz subyacente para el proceso de transformación digital que están
experimentando actualmente las unidades de negocios, las organizaciones, los sectores y la
sociedad en general. Esta transformación afecta a diferentes dimensiones de la organización: la
plataforma tecnológica, el modelo de negocio y el modelo organizativo. Una vez que la
organización cuenta con la infraestructura de TI requerida creada para gestionar la tecnología
de IA (es decir, algoritmos y datos), las empresas pueden aprovechar los beneficios de la IA al
utilizarla en nuevas propuestas de valor como parte de sus modelos de negocio, como una
combinación de automatización, anticipación, coordinación y personalización de las
interacciones. En este sentido, no solo la IA es una tecnología poderosa para fines de
automatización en muchas industrias, sino que la IA también puede ponerse en marcha como
una interacción de anticipación para predecir resultados o recomendar acciones en una variedad
de escenarios. Además, como las propuestas de valor son a menudo el resultado de la
participación de muchos agentes (empresas, personas, objetos), la inteligencia artificial puede
desempeñar un papel importante como una interacción de coordinación de ecosistemas
complejos y heterogéneos. Por último, la tecnología de IA como una interacción de
personalización se puede utilizar para ofrecer productos y servicios asequibles y altamente
personalizados.
Sin embargo, para poder integrar con éxito la tecnología de la IA en un modelo de negocio, los
directores deben conocer las implicaciones de la IA en su organización en tres niveles: retos,
capacidades y gobernanza. A su vez, estos retos se clasifican en cuatro categorías: privacidad,
integración, fiabilidad y seguridad. En primer lugar, manejar un modelo de negocio con nuevas
propuestas de valor basadas en la IA requiere abordar los problemas relacionados con la
privacidad de los datos derivados de la actividad humana. En segundo lugar, las organizaciones
deben establecer la propiedad de los datos utilizados para entrenar los modelos de IA,
especialmente cuando la propuesta de valor requiere la participación e integración de muchos
participantes. En tercer lugar, las organizaciones deben garantizar la fiabilidad de los resultados
de un modelo de IA, tanto cuando se utiliza en nuevas propuestas de valor como en el proceso
de toma de decisiones de la organización. Por último, las organizaciones deben abordar las
preocupaciones de seguridad específicas que la IA plantea más allá de los ciberataques
tradicionales.
Además, a medida que los datos se convierten en un activo crítico para crear y registrar valor,
las organizaciones deben adquirir las capacidades necesarias, tanto a nivel operativo como de
gestión, para integrar con éxito la IA en su modelo de negocio. Finalmente, aunque no por ello
menos importante, los directores deben ser conscientes de los posibles factores externos de la
IA sobre sus empleados, clientes y sociedad en general. En ese sentido, la gobernanza de la IA
debe seguir los cinco principios de equidad, responsabilidad, transparencia, ética y sabiduría
práctica. Solo al comprender completamente los beneficios potenciales, así como las
implicaciones para la organización, la tecnología de IA cumplirá su promesa de convertirse en
una tecnología de transformación positiva para las empresas, los sectores y la sociedad.
La Tabla 2 resume el impacto de la IA sobre las dimensiones del modelo de negocio y organizativo
que la dirección general debe tener presente cuando gestione la IA de manera global dentro del
contexto de densidad digital.

IESE Business School-University of Navarra 25


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

Tabla 2
El impacto de la IA en el modelo de negocio y las dimensiones del modelo
organizativo
Hacer más con menos recursos al reducir las operaciones manuales de las
Automatización tareas rutinarias.

Conocer el estado del mundo físico en tiempo real mediante la


Anticipación descripción, la predicción y/o las prescripción de medidas que se incluirán
Propuesta de valor como parte de un modelo de negocio.
basadas en la IA Conseguir que los diversos participantes trabajen juntos en nuevas
Coordinación propuestas de valor sin las limitaciones del tamaño o la ubicación física.

Satisfacer mejor las necesidades de los clientes mediante el uso de datos


Personalización que reflejen los hábitos y las preferencias de un cliente determinado.

Establecer políticas transparentes sobre el uso de los datos personales


Privacidad para mantener una relación de confianza con los clientes. Realización de
los requisitos de cumplimiento normativo sobre datos personales.
Establecer cláusulas de datos sobre la propiedad y el derecho del uso de
Integración los datos cuando la propuesta de valor se deriva de la participación de
diversos participantes.
Retos de la IA Comprender el impacto de la cantidad y la calidad de los datos utilizados
Fiabilidad para preparar los algoritmos de IA, además de las limitaciones y la
aplicabilidad de esos algoritmos.
Incluir los riesgos potenciales relacionados con los ataques conflictivos en
Seguridad las políticas de ciberseguridad (prevención, detención y reacción ) de la
organización.

Identificar y eliminar el ruido previo o los sesgos ocultos en los orígenes


Equidad de datos (internos y externos) que alimentan los algoritmos de IA.

Programas de formación para que los directores asuman la


Responsabilidad responsabilidad en el uso, el uso erróneo y las acciones relacionadas con
la tecnología de IA.
Principios de la Excluir el uso de los sistemas de IA si los resultados son inaceptables o
gobernanza Transparencia difíciles de entender.

de la IA Asegurar que todos los sistemas de IA estén diseñados y dirigidos para ser
Ética compatibles con las ideas de la dignidad de la persona humana, los
derechos, las libertades y la diversidad cultural.
La IA también debe guiarse por el buen criterio de la dirección general,
Sabiduría práctica quien debe actuar a partir de lo que es correcto para todos las partes
interesadas.

Fuente: Elaboración propia.

De la misma forma que la IA actualmente tiene más potencial como un aumento en lugar de una
sustitución de la actividad humana, los directores generales deben ser conscientes de que la IA
no tiene nada de artificial, ya que los valores de la máquina se derivan de los valores humanos
que los diseñaron y cualquier sesgo en la entrada de los sistemas de IA comportará en un sesgo
en la salida. En este sentido, los directores generales no deben considerar la tecnología de IA
solo como una herramienta para ganar eficiencia en la organización. Deben comprender las
consecuencias más allá del modelo de negocio, como el contexto externo e interno y la
configuración institucional. Estas implicaciones requieren que los directores generales
desarrollen una mentalidad digital para permitirles gestionar la IA de forma global, preparando
la infraestructura de TI, y adquiriendo y desarrollando las nuevas capacidades requeridas,
creando y registrando valor a través de las nuevas propuestas de valor basadas en la IA,
abordando los nuevos retos específicos que la IA plantea a la organización, y poniendo en
marcha una buena gobernanza de la IA basada en los principios de equidad, responsabilidad,
transparencia, ética y sabiduría práctica.

26 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

Bibliografía

AGRAWAL, Ajay, GANS, Joshua y GOLDFARB, Avi. Prediction Machines: The Simple Economics of Artificial
Intelligence. Boston: Harvard Business Review Press, 2018.

ALIBABA CLOUD. “ET City Brain.” Consulta del 27 de diciembre, 2018. https://www.alibabacloud.com/et/city.

ANDERSON, Chris. The Long Tail: Why the Future of Business is Selling Less of More. Nueva York: Hyperion
Books, 2006.

ANDREU, Rafael y RICART, Joan Enric. “The Genuine Responsibilities of the CEO.” IESE Insight (cuarto
trimestre, 2014).

ANGWIN, Julia et al. “Machine Bias.” ProPublica (mayo 2016).

ASIMOV, Isaac. I Robot. Nueva York: Gnome Press, 1950.

BINDER, Alexander et al. “Layer-Wise Relevance Propagation for Deep Neural Network Architectures.”
Proceeding of Information Science and Applications (ICISA), 2016.

BOSTROM, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.

BUOLAMWINI, Joy y GEBRU, Timnit. “Gender Shades: Intersectional Accuracy Disparities in Commercial
Gender Classification.” Proceedings of Machine Research. Conference on Fairness, Accountability, and
Transparency, 2018.

CASADESÚS-MASANELL, Ramon y RICART, Joan Enric. “How to Design a Winning Business Model.” Harvard
Business Review (enero-febrero 2011).

DATTA, Amit, TSCHANTZ, Michael Carl y DATTA, Anupam. “Automated Experiments on Ad Privacy Setting.”
Proceedings on Privacy Enhancing Technologies, 2015.

DAUGHERTY, Paul R. y WILSON, H. James. 2018 Human + Machine: Reimagining Work in the Age of AI.
Boston: Harvard Business Review Press, 2018.

DOMINGOS, Pedro. The Master Algorithm. Londres: Allen Lane, 2015.

DOSHI-VELEZ, Finale y KORTZ, Mason. “Accountability of AI Under the Law: The Role of Explanation.”
Berkman Klein Center Working Group on Explanation and the Law, Berkman Klein Center for Internet &
Society, artículo en preparación, 2017.

DRUCKER, Peter F. Management: Tasks, Responsibilities, Practices. Nueva York: Harper & Row, 1973.

EDMOND, Awad. “Moral Machine: Perception of Moral Judgement Made by Machines,”tesis de doctorado.
MIT, mayo 2017.

ETZIONI, Oren. “How to Regulate Artificial Intelligence.” New York Times, 1 de septiembre, 2017. Consulta del
27 de diciembre, 2018. https://www.nytimes.com/2017/09/01/opinion/artificial-intelligence-regulations-
rules.html.

EYKHOLT, Kevin et al. “Robust Physical-World Attacks on Deep Learning Visual Classification.” Proceeding of
the Conference of Computer Vision and Pattern Recognition, abril 2018.

IESE Business School-University of Navarra 27


WP-1211 Gestión de la inteligencia artificial en un contexto de densidad digital

FAT/ML: Fairness, Accountability, and Transparency in Machine Learning. Consulta del 27 de diciembre,
2018. https://www.fatml.org/.

FUTURE OF LIFE INSTITUTE. “Asilomar AI Principles.” 2017. Consulta del 27 de diciembre, 2018.
https://futureoflife.org/ai-principles/.

HEALTH eHEART. Consulta del 27 de diciembre, 2018. https://www.health-eheartstudy.org/study.

HURSTHOUSE, Rosalind y PETTIGROVE, Glen. “Virtue Ethics.” The Stanford Encyclopedia of Philosophy
(Edición de invierno 2018), ed. Edward N. Zalta. Consulta del 20 de enero, 2019.
https://plato.stanford.edu/archives/win2018/entries/ethics-virtue/.

IBM WATSON. “Trust and Transparency in AI.” Consulta del 27 de diciembre, 2018.
https://www.ibm.com/watson/trust-transparency/.

INTEL. “Artificial Intelligence: The Public Opportunity.” 2017.


https://blogs.intel.com/policy/files/2017/10/Intel-Artificial-Intelligence-Public-Policy-White-Paper-2017.pdf.

KÁGANER, Evgeny, ZAMORA, Javier y SIEBER, Sandra. “The Digital Mindset: 5 Skills Every Leader Needs to
Succeed in the Digital World.” IESE Insight Review, n.º 18 (tercer trimestre 2013).

KHANDANI, Amir E., KIM, Adlar J. y LO, Andrew W. “Consumer Credit Risk Models via Machine-Learning
Algorithms.” Journal of Banking & Finance, n.º 34 (2010): 2767-2787.

MALONE, Thomas. Superminds: The Surprising Power of People and Computers Thinking Together. Nueva
York: Little, Brown and Company, mayo 2018.

MICROSOFT. “FATE: Fairness, Accountability, Transparency, and Ethics in AI.” Consulta del 27 de diciembre,
2018. https://www.microsoft.com/en-us/research/group/fate/.

O’NEIL, Cathy. Weapons of Math Destruction. Nueva York: Broadway Books, 2016.

OSTERWALDER, Alexander y PIGNEUR, Yves. Business Model Generation: A Handbook for Visionaries, Game
Changers, and Challengers. Nueva Jersey: John Wiley & Sons, 2010.

PORTER, Michael E. “How Competitive Forces Shape Strategy.” Harvard Business Review (marzo 1979).

RICART, Joan Enric. “Strategy in the 21st Century: Business Models in Action.” IESE Technical Note,
SMN-685-E, 2012.

ROSS, Casey y SWETLITZ, Ike. “IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer
treatments, internal documents show.” STAT. 25 de julio de 2018. Consulta del 27 de diciembre, 2018.
https://www.statnews.com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments/.

SIEBER, Sandra y ZAMORA, Javier. “The Cybersecurity Challenge in a High Digital Density World.” The
European Business Review (enero-febrero2019).

STEADMAN, Ian. “IBM’s Watson is better at diagnosing cancer than human doctors.” Wired. 11 de febrero de
2013. Consulta del 27 de diciembre, 2018. https://www.wired.co.uk/article/ibm-watson-medical-doctor.

SUTCLIFFE, Hilary y ALLGROVE, Anne-Marie. “How do we build an ethical framework for the Fourth Industrial
Revolution?” World Economic Forum. 7 de noviembre de 2018. Consulta del 1 de diciembre, 2018.
https://www.weforum.org/agenda/2018/11/ethical-framework-fourth-industrial-revolution/.

THOMSON, Judith, J. “Killing, Letting Die, and the Trolley Problem.” Monist: An International Quarterly
Journal of General Philosophical Inquiry, vol. 59, 1976.

28 IESE Business School-University of Navarra


Gestión de la inteligencia artificial en un contexto de densidad digital WP-1211

WING, Jeannette, M. “Data for Good: FATES, Elaborated.” Data Science Institute, Columbia University, 23 de
enero, 2018. Consulta del 27 de diciembre, 2018. https://datascience.columbia.edu/FATES-Elaborated.

WRZESZCZYNSKI, Kazimierz, O. et al. “Comparing sequencing assays and human-machine analyses in


actionable genomics for glioblastoma.” Neurology Genetics (agosto 2017).

ZAMORA, Javier. “Making Better Decisions Using Big Data.” Harvard Deusto Business Review (mayo 2016),
ref. 016197-E.

ZAMORA, Javier. “Programming Business Models Through Digital Density,” IESE Insight (segundo trimestre
2017).

ZAMORA, Javier y HERRERA P. “How prepared is your business to make the most of AI?” IESE Business School
Insight, N.º 151, (invierno 2018).

ZAMORA, Javier, TATARINOV, Katherine y SIEBER, Sandra. “The Centrifugal and Centripetal Forces Affecting
the Digital Transformation of Industries.” Harvard Deusto Business Review, n.º 279 (junio 2018), ref. 018189.

IESE Business School-University of Navarra 29

También podría gustarte