Documentos de Académico
Documentos de Profesional
Documentos de Cultura
GestioL - N de La Inteligencia Artificial
GestioL - N de La Inteligencia Artificial
Febrero de 2019
Resumen
La IA es una nueva tecnología que permite a las organizaciones aprovechar sus datos para crear
nuevas propuestas de valor. Por otra parte, la incorporación de la IA en la organización plantea
nuevos desafíos, puesto que los datos, tanto de entrada como de salida de los modelos de IA,
necesitan una gobernanza específica. Este capítulo describe las directrices globales que debe
seguir la dirección general para conseguir una buena gobernanza de la IA en un contexto de
densidad digital.
Palabras clave: inteligencia artificial, densidad digital, gobernanza, propuesta de valor, modelo
organizativo, modelo de negocio
1 Este documento de trabajo es una versión anterior de un capítulo del libro The Future of Management in an Artificial
Intelligence World, J. Canals y F. Heukamp, ed., 2019, Palgrave Macmillawn, Houndmills, Basingtoke, Hampshire.
Índice
1. Introducción ........................................................................................................................ 3
2. La IA dentro del contexto de la densidad digital .................................................................... 5
3. Nuevas propuestas de valor utilizando la IA .......................................................................... 8
3.1. Automatización utilizando IA ............................................................................................... 10
3.2. Anticipación utilizando IA ..................................................................................................... 11
3.3. Coordinación utilizando IA ................................................................................................... 13
3.4. Personalización utilizando IA ............................................................................................... 14
4. Implicaciones de la IA en las organizaciones ....................................................................... 15
4.1. Retos al presentar la IA ........................................................................................................ 15
4.1.1. Privacidad ............................................................................................................................... 15
4.1.2. Integración ............................................................................................................................. 16
4.1.3. Fiabilidad ................................................................................................................................ 16
4.1.4. Seguridad ............................................................................................................................... 17
4.2. Nuevas capacidades al adoptar la IA ................................................................................... 18
4.3. Algunos principios de gobernanza con la IA......................................................................... 19
4.3.1. Equidad .................................................................................................................................. 20
4.3.2. Responsabilidad ..................................................................................................................... 21
4.3.3. Transparencia ......................................................................................................................... 22
4.3.4. Ética........................................................................................................................................ 23
4.3.5. Sabiduría práctica ................................................................................................................... 24
5. Conclusiones...................................................................................................................... 25
1. Introducción
La incorporación de la inteligencia artificial (lA) en una organización no se debe considerar una
nueva tecnología de forma aislada, sino asociada a otras nuevas tecnologías, como las redes
sociales, los móviles, la computación en la nube, los macrodatos y el Internet de las cosas (IoT, por
sus siglas en inglés), entre otras. Juntas, constituyen meras manifestaciones en un entorno con
una densidad digital en crecimiento exponencial (Zamora, 2017), que definí como el porcentaje
de datos conectados que está disponible por unidad de actividad —una unidad de actividad es un
país, una región, una industria, una organización o una unidad de negocio. En otras palabras, la
densidad digital es un indicador de cuántos de los procesos que se realizan en una determinada
unidad de actividad se basan en datos a los que se puede acceder de manera remota (es decir,
datos conectados). En este sentido, los datos conectados se convierten en una abstracción de la
entidad física en sí misma, que se puede observar, supervisar y/o controlar de forma remota.
Este aumento de la densidad digital se utiliza a menudo para calcular el potencial de una
organización para generar nuevos modelos de negocios. A medida que la densidad digital se
intensifica, las líneas una vez definidas entre el mundo físico y el digital comienzan a
desaparecer, forjando un nuevo entorno combinado, en un proceso conocido como
transformación digital. Por lo tanto, no debemos considerar la IA una simple infraestructura
tecnológica. La IA tiene un impacto sobre el modelo de negocio (Casadesús-Masanell y Ricart,
2011) al permitir nuevas propuestas de valor y, por otro lado, un impacto en la organización en
materia de gobernanza, capacidades y cambio cultural. La Tabla 1 resume las dimensiones
empresariales y organizativas que un director debe tener en cuenta al presentar la tecnología
de IA en una organización.
Tabla 1
Modelo empresarial y dimensiones del modelo organizativo de IA
Automatización
Anticipación
Propuestas de valor
basadas en la IA
Coordinación
Personalización
Privacidad
Integración
Retos de la IA
Fiabilidad
Seguridad
Equidad
Responsabilidad
Principios de la
gobernanza Transparencia
de la IA
Ética
Sabiduría práctica
El alcance y el calendario del impacto de la IA varían de una industria a otra. Por este motivo,
utilizaremos ejemplos de diferentes sectores (por ejemplo, sanitario, financiero, sector público
minorista, etc.) para destacar los diferentes grados de complejidad y riesgo que implican el uso
de nuevas propuestas de valor basadas en la IA. Primero revisaremos por qué la IA es una
realidad hoy en aquellos sectores, identificando nuevas fuentes de datos (a gran escala o
macrodatos). En segundo lugar, contestaremos qué clase de nuevas propuestas de valor basadas
en IA son posibles en diferentes sectores. Consideramos los ejemplos de IA en el contexto de
cuatro tipos de interacciones; concretamente, automatización, anticipación, coordinación y/o
personalización de interacciones. Finalmente, abordaremos los nuevos retos en términos de
privacidad, interacción, fiabilidad y seguridad que la puesta en práctica de la IA (la manera)
representa para cualquier organización.
Como los datos conectados —tanto las entradas como las salidas de los algoritmos de IA— se
convierten en uno de los principales activos de las organizaciones, necesitamos entender la mejor
forma de incorporar esta tecnología en los modelos de negocios de las empresas. La mayoría de
las veces, hacer uso de cualquier nueva tecnología en una organización requiere un periodo de
transición durante el cual coexisten las dos modalidades: una modalidad de aprendizaje a través
de pruebas, y una modalidad de ganancia, mediante la ejecución del modelo de negocio actual.
Durante este periodo de transición, la organización debe identificar las nuevas capacidades
operativas requeridas para gestionar con éxito la tecnología de IA. Además, la dirección general
(Andreu y Ricart, 2014) debe ser consciente de los nuevos desafíos de gestión a los que se
enfrentarán a medida que la IA se vuelva más presente en sus organizaciones.
En primer lugar, las organizaciones se enfrentarán a cuestiones importantes relacionadas con la
equidad de los modelos de IA, según el sesgo introducido por el conjunto de datos de
entrenamiento. En segundo lugar, dado que la IA se integrará en el proceso de toma de decisiones,
se deberán abordar los asuntos relacionados con la responsabilidad en el caso de resultados no
deseados. En tercer lugar, los directores generales confiarán en aquellos sistemas de IA solo si son
transparentes para ellos, en lugar de convertirse simplemente en una caja negra; es decir, sistemas
que se explican respecto a cómo llegan a ciertas recomendaciones. En cuarto lugar, la IA debe
tener en cuenta cualquier decisión que se tome sobre cuestiones éticas basadas en valores
(función de utilidad) cuando se diseñan esos algoritmos. Por último, aunque no menos importante,
el uso de la IA debe también guiarse por el buen criterio de la dirección general, quien debe actuar
sobre la base de lo que es correcto para todos los interesados, a partir de la sabiduría práctica que
está alineada con el cometido de la organización.
Este capítulo comienza con la presentación de la IA en el contexto de la densidad digital, que
incluye tres dimensiones diferentes: el modelo tecnológico, el modelo de negocio y el modelo
organizativo. Después, utilizando ejemplos de varias industrias, ilustramos el nuevo tipo de
propuestas de valor empleando la IA que es viable hoy en día. Estas nuevas propuestas de valor
son el resultado de combinar la tecnología de IA en uno o más de cuatro tipos de interacciones:
automatización, anticipación, coordinación y personalización. A continuación, abordamos los
retos de IA en las organizaciones en términos de privacidad, integración, fiabilidad y seguridad
que plantean para la organización estas nuevas propuestas de valor basadas en la IA. Tras estos
retos, identificamos las nuevas capacidades que necesitamos para poner en práctica con éxito
la IA en la empresa. A partir de entonces, identificamos los principios de la gobernanza de la IA
en términos de equidad, responsabilidad, transparencia, ética y sabiduría práctica que un
director general debe conocer, para poder actuar en consecuencia, con respecto a las
repercusiones externas de la IA, más allá de su impacto en sus modelos de negocio. Por último,
la dirección general debe gestionar la IA de manera global en la organización, no solo
aprovechando los beneficios de la IA en el diseño de nuevas propuestas de valor, sino también
entendiendo las limitaciones actuales de la IA para abordar nuevos retos y minimizar las
repercusiones externas negativas del uso de la IA con clientes, con empleados y con la sociedad
en general.
organizaciones, sino en tener los datos para entrenar y probar algoritmos para construir y validar
un modelo que se usará más adelante con nuevos datos. Por consiguiente, en un mundo de alta
densidad digital, los datos (Zamora, Tatarinov y Sieber, 2018) se convierten en uno de los activos
fundamentales de la organización. Por lo tanto, la infraestructura TI también comprende todos
los sistemas de información necesarios para tener una gestión eficiente de los datos (es decir,
el registro, la conservación, la búsqueda y la protección).
Figura 1
Contexto para la transformación digital (lado izquierdo) y su aplicación en IA (lado derecho)
Propuesta de valor
Modelo de negocio Automatización Anticipación Coordinación Personalización
Modelo organizativo
IA Organización
Infraestructura de TI
Plataforma tecnológica Algoritmos de IA Gestión de los datos
Figura 2
Arquitectura de densidad digital
MODELO DE NEGOCIO
NUEVAS PROPUESTAS DE VALOR
LÓGICA DE NEGOCIO
AUTOMATIZACIÓN ANTICIPACIÓN COORDINACIÓN PERSONALIZACIÓN
PROCESOS
INTERFACES
DE
HOMBRE-MÁQUINA
SENSORES IMPULSORES CAPA DE CONEXIÓN
DIGITALIZACIÓN
OBJETOS
ORGANIZACIONES PERSONAS MUNDO FÍSICO
Hardware/Dispositivos
A medida que aumenta la densidad digital, la capa de datos representa mejor el mundo físico.
En este escenario, los datos se están convirtiendo en el activo principal de la organización, ya
que los datos se han convertido en materia prima para crear nuevas propuestas de valor y, a su
vez, para construir nuevos modelos de negocio. En un sentido metafórico, si los datos se
consideran el nuevo petróleo de la economía, la IA se convierte en una de las máquinas que
transforma estos datos en nuevas propuestas de valor.
Un ejemplo de incremento de la densidad digital en el sector de salud es el Biobank Data del
Reino Unido, donde se han recopilado los datos de más de 500.000 personas durante los últimos
treinta años, incluido su historial médico, imágenes y datos genéticos —a través del Archivo
Europeo del Genoma-Fenoma (EGA, por sus siglas en inglés)— y la actividad física y médica a
través de vigilancia móvil. Los investigadores del campo de la salud, mediante tecnología de IA,
están trabajando con este repositorio de datos para mejorar la prevención, el diagnóstico y el
tratamiento de una amplia gama de enfermedades graves y potencialmente mortales. Su trabajo
se plasma en el despliegue de sistemas inteligentes en la asistencia médica, donde los médicos
pueden ya aplicar los datos del cliente, incluido lo que comen, cuánto ejercicio realizan y qué
hay en su genética; cotejar ese material frente a la gran cantidad de estudios para realizar un
diagnóstico; acceder a las últimas investigaciones sobre productos farmacéuticos y otros
tratamientos; consultar algoritmos de aprendizaje automático que examinan alternativas de
actuación, y crear recomendaciones de tratamiento personalizadas para el paciente.
A raíz de los informes de los medios de comunicación, en 2013, IBM constituyó una asociación
con el Memorial Sloan Kettering Cancer Center en Nueva York para emplear a Watson en las
decisiones de tratamientos de cáncer de pulmón y de mama. Al tomar decisiones, Watson trata
más de dos millones de páginas de artículos de investigación de revistas médicas, además de un
archivo de más de 1,5 millones de registros médicos de pacientes. Para ayudar a los médicos en
el tratamiento de sus pacientes, una vez que el médico ha planteado una consulta al sistema
describiendo los síntomas y otros factores relacionales, Watson analiza primero la información
para identificar los datos más importantes y después extrae datos del paciente para encontrar
los factores relevantes de la historia médica y hereditaria de este, luego examina las fuentes de
datos disponibles para formular y probar hipótesis; y, finalmente, proporciona una lista
de recomendaciones individualizadas y calificadas de confianza. Basado en la totalidad de los
ensayos realizados en los casos anteriores, el porcentaje de tratamientos eficaces que recetó
Watson para el cáncer de pulmón es de un 90 %, mucho mayor que el 50 % que lograron los
médicos (Steadman, 2013).
La ventaja de Watson sobre los seres humanos es, obviamente, su capacidad para absorber
información. De hecho, en un estudio de 2017 (Wrzeszczynski et al., 2017) a IBM Watson le llevó
solo 10 minutos analizar el genoma de un paciente con un tumor cerebral y sugerir un plan de
tratamiento en comparación con las 160 horas que los especialistas necesitan para hacer un
plan comparable. En comparación con el software tradicional, que se basa en algoritmos
predeterminados y siempre genera la misma salida si se le da la misma entrada, Watson utiliza
tecnología basada en el aprendizaje automático, donde el algoritmo se adapta como resultado
del aprendizaje que produce durante el proceso de entrenamiento. En el caso de Watson, esto
consiste en analizar la efectividad de un tratamiento entre los pacientes que lo han recibido.
En el sector financiero, la IA puede aplicarse para mejorar la calificación crediticia de un cliente
determinado. Los algoritmos tradicionales no van bien para predecir el deterioro de la
calificación crediticia en los últimos años. En un estudio de 2010 (Khandani, Kimz y Lo, 2010) se
usó como una alternativa a la calificación crediticia tradicional un clasificador de riesgo utilizando
el aprendizaje automático. Se usó un conjunto de datos de 1 terabyte compuesto por las
transacciones diarias (por ejemplo, a través de tarjetas de crédito, cajeros automáticos, etc.), los
datos de la agencia de calificación crediticia y el balance de cuentas para un conjunto de clientes
de un banco comercial, que representaron el 1 % de los datos que generó el banco para el
periodo comprendido entre enero de 2005 y abril de 2009. El estudio mostró que el aprendizaje
automático funcionó mejor como un clasificador de riesgo que los algoritmos tradicionales de
calificación crediticia.
Anteriormente se podía rechazar a algunos clientes buenos a causa de una baja puntuación
utilizando los algoritmos tradicionales y, en cambio, se podía aceptar a algunos clientes malos,
ya que obtenían una puntuación alta. Usando este método alternativo, los bancos pueden
conseguir una reducción de costes, mediante una mejor identificación de las operaciones de
más riesgo, y al mismo tiempo, generar un nuevo negocio con personas que de otra forma no
tendrían ocasión de convertirse en clientes.
En todos los ejemplos anteriores, la utilización de la IA es la forma de interacción de anticipación
que permite a las organizaciones predecir el estado del mundo físico, que es un factor crítico en
el desarrollo de nuevas propuestas de valor. Los impulsores empresariales principales son:
descripción, predicción y prescripción. En primer lugar, podemos utilizar la IA para describir un
proceso complejo que de otra forma no sería evidente detectar —como si se estuviese utilizando
un microscopio digital—, como en el caso de la aplicación de Cardiogram para detectar la
fibrilación articular. En segundo lugar, podemos utilizar la IA para predecir patrones futuros
determinado), como la entrada para cambiar el comportamiento (es decir, un conductor que
cambia su ruta siguiendo las recomendaciones de Waze). Otro ejemplo es el motor de
recomendaciones de Amazon, que analiza todas las transacciones del cliente y las agrupa en
conjuntos de clientes con comportamientos y gustos similares (es decir, anticipación) para
recomendar productos potenciales a un cliente determinado (es decir, personalización). A
medida que los algoritmos de IA para anticipación y personalización continúan mejorando,
Amazon a la larga puede cambiar su modelo de negocio de comprar y luego enviar por
transporte y después comprar, como insinuó la patente que Amazon presentó en 2013 para lo
que denominó “envío anticipado”.
4.1.1. Privacidad
Sin embargo, una mejor personalización implica recopilar y almacenar cada vez más datos
individuales del cliente, por lo que se incrementa el desafío de la privacidad. Un escenario de
futuro cercano puede involucrar a una empresa que puede predecir, a través de biosensores, la
probabilidad de que una persona desarrolle una enfermedad grave. Por lo tanto, un proveedor
de seguros de salud podría potencialmente discriminar a un cliente al negar la cobertura a las
personas con mayores riesgos. Esta tensión de personalización y privacidad incluso se puede
encontrar en un simple robot aspirador que crea un mapa de un apartamento para saber qué
partes ya se han limpiado. Por esta razón, los consumidores solo aceptarán estas nuevas
propuestas de valor si confían en la organización que las proporciona y es transparente en el uso
de los datos personales. Se han dado los primeros pasos para aumentar los niveles de privacidad
de los datos personales mediante la introducción de nuevas regulaciones y requisitos de
cumplimiento, como el Reglamento General de Protección de Datos (RGPD) adoptado por la
Unión Europea (UE), que también limita el tipo de datos que puede utilizar una organización
para entrenar sus algoritmos de IA.2
4.1.2. Integración
En un mundo de alta densidad digital, las propuestas de valor son a menudo el resultado de la
cooperación de varias organizaciones dentro de ecosistemas más ricos. Por esta razón, tales
asociaciones necesitan el establecimiento de cláusulas de datos con respecto a la propiedad y
limitación del uso de datos por parte de las empresas participantes. En el ejemplo anterior sobre
el mantenimiento predictivo de los motores de aeronaves, Roll-Royce ve su valor operacional en
los datos agregados de todos los motores, mientras que la aerolínea y/o el fabricante de
aeronaves solo tiene o tienen acceso a una fracción de los datos recopilados sin elaborar y no
tiene o tienen acceso a un panorama más amplio. Es posible que las empresas industriales no
quieran compartir sus datos por razones de cumplimiento (por ejemplo, máquinas médicas) o
problemas de competencia, lo que limita las capacidades de aprendizaje de la máquina (es decir,
reduce el conjunto de datos de entrenamiento del equipo gestionado por la organización). Con
el fin de armonizar las preocupaciones de las empresas industriales sobre compartir sus datos
debido a la preocupación de compartir información valiosa sobre sus productos, algunas
organizaciones han decidido compartir los datos con el único fin de usarlos como un conjunto
de datos de entrenamiento para algoritmos de IA. Sin embargo, conservan la propiedad de los
datos para estar protegidos de los riesgos de cumplimiento y seguridad.
4.1.3. Fiabilidad
La fiabilidad en el contexto de la IA abarca dos aspectos. Por un lado, la calidad de los datos que
utilizan los algoritmos de IA es importante y, por otro lado, la fiabilidad del software de esos
algoritmos representa desafíos. Asegurar la calidad de los datos está relacionado con la
gobernanza de estos, que se tratará más adelante en este capítulo. En referencia a la fiabilidad
de los algoritmos de IA, es importante tener en cuenta no solo sus posibilidades, sino también
sus limitaciones. Abordar la calidad de los datos y los problemas de fiabilidad del algoritmo
dentro de las empresas ayudará a las organizaciones a descartar inversiones sin retorno alguno.
También les ayudará a no alabar los resultados de los proyectos relacionados con la IA para
evitar decepciones y escepticismo con respecto a la utilidad de la IA.
Las técnicas de aprendizaje del algoritmo de IA (Zamora y Herrera, 2018) se basan en el
entrenamiento de un modelo con datos. Sin estos datos, el entrenamiento no es posible y, por
lo tanto, no es posible generar ningún modelo. Muchas veces las empresas solicitan una
evaluación sobre la cantidad de datos que se necesitan para entrenar un modelo. Esto depende
del caso particular y de la complejidad del algoritmo. Sin embargo, la pregunta correcta que
2 El RGPD se centra específicamente en proteger los datos y garantizar su privacidad. Cualquier organización que opere
dentro de la UE estará obligada a recopilar datos legalmente y bajo condiciones estrictas y protegerlos de un uso indebido
por parte de terceros; de lo contrario, se le multará. Las organizaciones necesitan usar la configuración de privacidad más
alta, para que los datos no se hagan públicos. La RGPD permite a las personas desafiar a las organizaciones para revelar o
eliminar sus datos personales.
deben abordar los ejecutivos de negocios no debe estar relacionada con la cantidad de datos
necesarios, sino más bien con qué problema se puede resolver con los datos disponibles. Si una
organización no tiene muchos datos, es recomendable utilizar aquellos algoritmos que sean más
resistentes al aprendizaje con menos datos, pero que sin embargo, impliquen niveles de
confianza más bajos. Por ejemplo, si necesita un modelo de predicción para las ventas semanales
de productos en una tienda de venta al por menor, es lógico solicitar los datos de ventas de
varios años de cada producto por semana, así como las series de tiempo con variables
potencialmente explicativas (por ejemplo, días festivos, clima, indicadores macroeconómicos,
canal de ventas etc.).
Un sistema de IA con una alta calidad de predicción puede dejar de funcionar tan bien en
cualquier momento, o, dicho de otra manera, un sistema de IA debidamente entrenado con
datos anteriores puede dejar de ser correcto con las circunstancias actuales si estas
circunstancias cambian las razones por las cuales ocurrieron los casos anteriores. Por ejemplo,
un consumidor que compra ropa de temporada durante años en una tienda puede cambiar sus
hábitos con la presencia de un competidor que se adapte mejor a sus necesidades y que tenga
mejor precio.
Debido a esta limitación, es esencial en la situación actual crear sistemas de IA con
entrenamiento continuo incorporado, pero también con la capacidad de distinguir el ruido en
los datos; es decir, eventos no relevantes para el entrenamiento pero que pueden distorsionar
los resultados.
El grado de confianza del modelo resultante construido con un algoritmo de aprendizaje
automático se puede medir, comparando la predicción del modelo con lo que sucedió en el
pasado. Cuanto mayor sea el número de casos en los que la predicción coincida con la realidad,
mayor será el grado de confianza en el modelo. No obstante, en ningún caso el grado de
confianza de un modelo garantiza plenamente su éxito en una aplicación práctica futura, ya que
muchos modelos sufren lo que se conoce como sobreentrenamiento; es decir, el proceso de
aprendizaje se ha adaptado demasiado a los datos de entrenamiento y, a pesar de su alto grado
de confianza, la aparición de circunstancias que generan relaciones entre datos que difieren del
pasado impide que el modelo funcione bien en la práctica.
4.1.4. Seguridad
Una de las consecuencias de un mundo hiperconcetado es que la superficie de ataque de una
organización crece de manera exponencial. Por esta razón, proteger la integridad de los datos
de los ciberataques es de particular importancia cuando los datos activan los algoritmos de IA.
Por lo tanto, la seguridad en el contexto de las propuestas de valor basadas en la IA van más allá
del tipo de ciberataques (Sieber y Zamora, 2009) que hemos experimentado hasta ahora, algo
que se denomina aprendizaje automático adverso. Este tipo de ataque saca provecho de las
limitaciones del diseño de la red neuronal utilizada en muchos algoritmos, que no operan de la
misma forma en que lo hace el cerebro humano. Un pirata informático (es decir, un adversario
malintencionado) puede manipular los datos de entrada de un algoritmo de IA, ya sea en la fase
de entrenamiento o en la de operación, para engañar a los sistemas para que vean o escuchen
algo que comprometa a todo el sistema de seguridad.
Un ataque en tiempo de entrenamiento puede suceder en una etapa de construcción de un
modelo de aprendizaje mediante el uso de datos maliciosos. Un ataque en el tiempo de
inferencia utiliza entradas específicamente sintetizadas que afectan al modelo. Algunos
ejemplos de piratería informática sobre la IA pueden parecer inocentes, como una red neuronal
que confunde a una tortuga con un fusil en una foto. Sin embargo, algunos errores de IA pueden
provocar mayores alteraciones, como un coche de conducción autónoma que no se detenga en
una señal de detención obligatoria, porque estaba parcialmente cubierto por adhesivos en
blanco y negro cuidadosamente diseñados (Eykholt et al., 2018).
Dado que cada vez más propuestas de valor dependen del uso de la tecnología de IA, es
importante identificar los riesgos potenciales relacionados con los ataques adversos con
anticipación (es decir, los principios de diseño seguro) y construir ciertas defensas para
protegerlos.
puntos de mejora y las oportunidades, y los traducen en propuestas que pueden ponerse en
marcha utilizando IA.
Además, las organizaciones deben incorporar perfiles especializados para la búsqueda de los
datos de entrenamiento necesarios de una manera más eficiente. En algunos casos, la
disponibilidad de un almacén de datos unificado o cualquier otro repositorio centralizado de
información simplifica la tarea, pero siempre existe la enorme tarea de búsqueda posterior entre
los diferentes atributos comerciales de los cuales se compone el conjunto de datos de
entrenamiento. El conocimiento de que este perfil debe actuar de acuerdo con los requisitos
reglamentarios siempre que procese datos personales (por ejemplo, RGDP) merece una
mención especial.
La tecnología de IA se convierte en una tecnología central en los modelos de negocios de las
organizaciones, las nuevas funcionalidades (Daugherty y Wilson, 2018) relativas a todo lo que
necesitará la gobernanza de la IA. Se describirá más detalladamente en el próximo apartado.
3 Eneste contexto, los sesgos no se refieren a su significado estadístico sino a la inclinación o perjuicio por o contra otra
persona o grupo, especialmente de una manera considerada injusta.
estúpidos y ya tienen el control del mundo” (Domingos, 2015). Esto significa que los algoritmos
de IA todavía no poseen la capacidad de entender las cosas como lo hacen los humanos, lo que
puede tener consecuencias arriesgadas.
Estas limitaciones de IA están directamente relacionadas con la calidad de los datos utilizados y
el diseño de los algoritmos. Por lo tanto, las organizaciones deben conocer sus datos y confiar
en ellos antes de comenzar a utilizar la tecnología de IA. Data for good (‘datos para siempre’)
(Wing, 2018) se ha defendido en el campo científico y tecnológico como principio rector del uso
de datos a lo largo de todo el ciclo de vida de estos. En el mundo de la gestión, debe utilizarse
un principio similar al adoptar la IA en el proceso de toma de decisiones e integrar la IA en la
oferta de la empresa. Este principio rector del diseño de algoritmos de uso y diseño de datos
también se conoce con el acrónimo FATE, por las siglas en inglés (equidad, responsabilidad,
transparencia y ética) (FAT/ML 2018) (Microsoft, 2018). En el contexto específico de la dirección
general, proponemos añadir unos principios rectores suplementarios, basados en la sabiduría
práctica, para abordar los temas de:
Equidad, relacionada con el sesgo introducido por el conjunto de datos de
entrenamiento de los algoritmos de IA.
Responsabilidad, relacionada con la responsabilidad de las decisiones basadas en los
modelos de IA.
Transparencia, relacionada con el aprovechamiento de los modelos de IA.
La ética, relacionada con los valores sobre los que se construyen los sistemas de IA.
Sabiduría práctica, relacionada con el buen juicio de la dirección general tanto si se usa
como si no la IA sobre la base de lo que es correcto para las partes interesadas.
4.3.1. Equidad
Como hemos visto en este capítulo, la IA es una poderosa tecnología, capaz de atender mejor a
los clientes y obtener una mejor perspectiva en la organización. Sin embargo, deben obtenerse
estas ventajas mientras se evita exponer a las personas a cualquier clase de injusticia como
resultado de posibles sesgos presentados mediante la adopción de IA. En este contexto, la
equidad significa que los modelos de IA deben dar lugar a clasificaciones o predicciones
imparciales. Un ejemplo trivial se puede encontrar en el buscador de imágenes de Google
Images. Para la consulta de CEO, se obtienen de forma abrumadora imágenes de hombres
trajeados, que reflejan el hecho de que, históricamente, las mujeres han tenido dificultades para
acceder a puestos ejecutivos de categoría superior con condiciones equivalentes a los hombres.
En este caso, el conjunto de datos de entrenamiento contiene el sesgo de género de tener
muchos más hombres que mujeres en los cargos de CEO.
Dado que un modelo de IA es el resultado de entrenar un algoritmo con datos, el sesgo proviene
de los datos utilizados o del propio algoritmo. Sin embargo, los algoritmos reflejan los valores
de las personas que los diseñaron y codificaron. Esto es algo que incluiremos más adelante, al
considerar las implicaciones éticas de la IA. Por esta razón, las organizaciones deben prestar
especial atención a los sesgos que contiene el conjunto de datos de entrenamiento que utilizan
los algoritmos de IA. Aunque muchos sistemas de IA se crearon con las mejores intenciones,
estos sistemas de IA tienen cada vez más un impacto directo sobre la vida de las personas
(O’Neil, 2016). En consecuencia, los datos sesgados deben ser un motivo de preocupación para
muchas organizaciones, debido a las consecuencias importantes en materia de responsabilidad
en áreas como el acceso a la vivienda, la aplicación de la ley y el empleo.
4.3.2. Responsabilidad
La responsabilidad siempre ha sido un concepto crucial en la gestión. Según Peter Drucker
(Drucker, 1973), los líderes en una organización son responsables del cumplimento de sus
instituciones y deben rendir cuentas sobre él, y también son responsables de la comunidad en
general. Por lo tanto, la responsabilidad implica el conocimiento y la asunción de responsabilidad
por las acciones, productos y decisiones dentro del alcance de la función de gestión. Sin
embargo, en el contexto de la IA, la responsabilidad puede ser más desafiante, ya que detrás de
una decisión o un producto también hay datos y algoritmos. Un ejemplo es el estudio de 2015
(Datta, Tschantz y Datta, 2015) de Google Ads, utilizando una herramienta que se llama AsFisher,
desarrollada por la Universidad Carnegie Mellon, que realiza experimentos usando perfiles de
usuario simulados. El estudio reveló que los anuncios de empleos bien remunerados se
mostraban más para hombres que para mujeres en Google. Sin embargo, en esta situación, no
está claro quién es responsable de este resultado de discriminación. Podrían ser los anunciantes
dirigidos al anuncio, o el diseño de la plataforma de publicidad de Google, o el hecho de que los
hombres hagan más clic en este tipo de anuncio —lo que lleva a un aumento en la frecuencia
de aparición de estos anuncios en los hombres, o incluso a una mayor competencia por el
espacio publicitario para las mujeres—, lo que da como resultado una reducción en la frecuencia
de aparición de estos anuncios para las mujeres.
Anteriormente en este capítulo, se mencionó la forma en la que IBM Watson ayuda a los
oncólogos en el diagnóstico y el tipo de tratamiento de sus pacientes. Sin embargo, si Watson
proporciona una recomendación de tratamiento con consecuencias fatales para el paciente,
¿quién será responsable de este resultado no deseado: el oncólogo, el hospital o IBM? Este
escenario puede suceder hipotéticamente, como se señaló en el sitio web de noticias orientado
a la salud STAT (Ross y Swetlitz, 2018). En julio de 2018, STAT informó sobre “varios ejemplos de
recomendaciones de tratamiento peligrosos e incorrectos” en los tratamientos para el cáncer
elaborador por Watson.
Reflexionando sobre estos temas de responsabilidad, el Future of Life Institute llevó a cabo la
conferencia Asilomar (Future of Life Institute, 2017) sobre los beneficios de la IA en 2017,
creando un conjunto de veintitrés pautas para los investigadores de IA. Estas pautas pueden
extenderse a los directores de las organizaciones, ya que son las principales partes interesadas
en las repercusiones morales del uso, el mal uso y las acciones relacionadas con la tecnología de
IA. Las organizaciones deben comprometerse con la responsabilidad de dar forma a esas
repercusiones y adoptar políticas internas coherentes con los criterios sociales externos. Las
empresas deben poner en marcha los sistemas necesarios y los programas de formación para
que los directores utilicen las herramientas de IA y sean responsables de los resultados.
4.3.3. Transparencia
El tercer principio rector en el uso de la IA es la transparencia. Las organizaciones solo pondrán
en marcha sistemas de IA si esos sistemas pueden ser transparentes y explican la forma en la
que alcanzan un resultado, en lugar de actuar simplemente como una caja negra o un sistema
para el cual solo podemos observar entradas y salidas. Hasta ese punto, la transparencia puede
facilitar la responsabilidad en el uso de la tecnología de IA. Cuando las organizaciones y los
directores comienzan a confiar en gran medida en los algoritmos para tomar decisiones cada
vez más importantes, se les pedirá que cuenten con los mecanismos correctos de explicación si
los resultados resultan inaceptables o difíciles de entender. Por ejemplo, si IBM Watson
recomienda a un paciente un tratamiento que parece incorrecto para el médico, el médico
confiará en la recomendación de Watson (IBM, 2018) si el sistema explica, en términos
comprensibles, los factores (por ejemplo, resonancias magnéticas, documentos científicos, etc.)
que contribuyen al resultado final.
Además, también se necesita transparencia para brindar un trato justo a cualquier persona
afectada por el resultado de la IA. Este es el caso de Sarah Wysocki (O’Neil, 2016), una profesora
de quinto curso en la MacFarland Middle School de Washington D. C. Tras dos años en el colegio,
recibía excelentes evaluaciones por parte del director y de los padres de los estudiantes. Sin
embargo, a finales del año académico 2010-2011, se despidió a Wysocki por una puntuación
muy baja en su evaluación por parte de IMPACT. IMPACT es una herramienta de IA, que aprobó
en 2009 el rector de los colegios de Washington con el objetivo de dar la vuelta a los colegios
con bajo rendimiento de la ciudad. IMPACT trata de medir la efectividad de un educador
determinado en la enseñanza de las habilidades de matemáticas e idiomas. Aunque la intención
inicial de IMPACT era minimizar el sesgo humano, como “los profesores malos que pueden
parecer buenos”, al fin y al cabo, es extremadamente complejo calcular el impacto que una
persona puede tener en otra durante un año, dado que existen muchos otros impactos sociales
que intervienen en la ecuación. Sin embargo, cuando Wysocki, al igual que otros maestros
despedidos, exigieron detalles de los criterios de evaluación, muchos directores de los centros
escolares fueron incapaces de proporcionar una explicación detallada, ya que no conocían el
funcionamiento interno de IMPACT.
La transparencia es un desafío para las organizaciones, ya que puede requerir revelar la
propiedad intelectual mediante la obligada publicación de los modelos de IA. Por lo tanto, es
importante aclarar las situaciones cuando se deben dar explicaciones y si necesitan una
descripción detallada del funcionamiento interno de la IA o, más bien, una justificación para el
resultado particular (Doshi-Velez y Kortz, 2017). Además, el nuevo RGPD de la UE incluye el
“derecho a explicar” al proporcionar “información significativa sobre la lógica implícita”.
Debido a la naturaleza de los algoritmos actuales de IA, especialmente aquellos basados en redes
neuronales profundas, ha sido casi imposible entender la forma en la que la IA alcanza sus
impresionantes resultados. Sin embargo, a medida que el aprovechamiento es cada vez más
importante, los investigadores (Binder et al., 2016) están estudiando los mecanismos de
explicación para los algoritmos de IA, como la propagación de relevancia por capas (LRP, por sus
siglas en inglés). Estos mecanismos pueden adoptar un resultado de IA y trabajar hacia atrás a
través de la red neuronal del programa para revelar la forma en la que se tomó una decisión.
Además, las organizaciones deberán contratar un nuevo tipo de profesional de IA denominado
explicador de IA (Daugherty y Wilson, 2018), cuya función principal será explicar el
funcionamiento interno de los algoritmos complejos de IA. En algunos casos, estos profesionales
podrían actuar como analistas forenses de algoritmos para proporcionar una explicación
satisfactoria, auditable por una autoridad competente, del sistema de AI de una organización.
4.3.4. Ética
El cuarto principio rector en el uso de la IA es la ética. A medida que los humanos delegan cada
vez más decisiones en los sistemas de IA, tarde o temprano nos enfrentaremos a dilemas
morales. Una versión adaptada del llamado problema del trolley (Thomson, 1976) se puede
encontrar en los vehículos autónomos. Imagine que un vehículo autónomo tiene un fallo
mecánico y es incapaz de parar. El sistema de IA (que actúa como conductor) tiene dos opciones:
o bien el coche continúa y corre y mata a una familia que cruza la calle o bien se desvía, choca
contra una pared y golpea a un transeúnte. ¿Cuál es la opción moral, ética? ¿Matar a dos
personas (el pasajero y el espectador) o a cinco (la familia)? En el caso de un conductor humano,
el dilema se resolvería a juicio del conductor. Sin embargo, en el caso de un vehículo autónomo
utilizando IA, las decisiones éticas —algunas de ellas sin el derecho a una respuesta correcta o
incorrecta— deben programarse con antelación. En estas situaciones, sería necesaria la
regulación para reflejar la forma en la que la sociedad (Edmond, 2017) en su conjunto quiere
tratar con estos dilemas éticos.
En ese sentido, e inspirado en las muy conocidas tres leyes de robótica de Asimov (Asimov,
1950), Oren Etzioni, profesor de la Universidad de Washington y director ejecutivo del Institute
for Artificial Intelligence, propone tres leyes de IA (Etzioni, 2017) relacionadas con los problemas
éticos que está creando esta tecnología. La primera es: “Un sistema de IA debe estar sujeto a
toda la gama de leyes que se aplican a su operador humano”. La segunda es: “Un sistema de IA
debe revelar claramente que no es humano”. Y la tercera es: “Un sistema de IA no puede retener
o divulgar información confidencial sin la aprobación explícita de la fuente de información”.
5. Conclusiones
Hemos visto en este capítulo que las organizaciones no deberían considerar la IA una tecnología
de forma aislada. La IA se está convirtiendo en una realidad como consecuencia de vivir en un
mundo con un aumento exponencial de la densidad digital, donde hay cada vez más datos
disponibles de la actividad de las empresas, las personas y los objetos. El aumento de la densidad
digital es la fuerza motriz subyacente para el proceso de transformación digital que están
experimentando actualmente las unidades de negocios, las organizaciones, los sectores y la
sociedad en general. Esta transformación afecta a diferentes dimensiones de la organización: la
plataforma tecnológica, el modelo de negocio y el modelo organizativo. Una vez que la
organización cuenta con la infraestructura de TI requerida creada para gestionar la tecnología
de IA (es decir, algoritmos y datos), las empresas pueden aprovechar los beneficios de la IA al
utilizarla en nuevas propuestas de valor como parte de sus modelos de negocio, como una
combinación de automatización, anticipación, coordinación y personalización de las
interacciones. En este sentido, no solo la IA es una tecnología poderosa para fines de
automatización en muchas industrias, sino que la IA también puede ponerse en marcha como
una interacción de anticipación para predecir resultados o recomendar acciones en una variedad
de escenarios. Además, como las propuestas de valor son a menudo el resultado de la
participación de muchos agentes (empresas, personas, objetos), la inteligencia artificial puede
desempeñar un papel importante como una interacción de coordinación de ecosistemas
complejos y heterogéneos. Por último, la tecnología de IA como una interacción de
personalización se puede utilizar para ofrecer productos y servicios asequibles y altamente
personalizados.
Sin embargo, para poder integrar con éxito la tecnología de la IA en un modelo de negocio, los
directores deben conocer las implicaciones de la IA en su organización en tres niveles: retos,
capacidades y gobernanza. A su vez, estos retos se clasifican en cuatro categorías: privacidad,
integración, fiabilidad y seguridad. En primer lugar, manejar un modelo de negocio con nuevas
propuestas de valor basadas en la IA requiere abordar los problemas relacionados con la
privacidad de los datos derivados de la actividad humana. En segundo lugar, las organizaciones
deben establecer la propiedad de los datos utilizados para entrenar los modelos de IA,
especialmente cuando la propuesta de valor requiere la participación e integración de muchos
participantes. En tercer lugar, las organizaciones deben garantizar la fiabilidad de los resultados
de un modelo de IA, tanto cuando se utiliza en nuevas propuestas de valor como en el proceso
de toma de decisiones de la organización. Por último, las organizaciones deben abordar las
preocupaciones de seguridad específicas que la IA plantea más allá de los ciberataques
tradicionales.
Además, a medida que los datos se convierten en un activo crítico para crear y registrar valor,
las organizaciones deben adquirir las capacidades necesarias, tanto a nivel operativo como de
gestión, para integrar con éxito la IA en su modelo de negocio. Finalmente, aunque no por ello
menos importante, los directores deben ser conscientes de los posibles factores externos de la
IA sobre sus empleados, clientes y sociedad en general. En ese sentido, la gobernanza de la IA
debe seguir los cinco principios de equidad, responsabilidad, transparencia, ética y sabiduría
práctica. Solo al comprender completamente los beneficios potenciales, así como las
implicaciones para la organización, la tecnología de IA cumplirá su promesa de convertirse en
una tecnología de transformación positiva para las empresas, los sectores y la sociedad.
La Tabla 2 resume el impacto de la IA sobre las dimensiones del modelo de negocio y organizativo
que la dirección general debe tener presente cuando gestione la IA de manera global dentro del
contexto de densidad digital.
Tabla 2
El impacto de la IA en el modelo de negocio y las dimensiones del modelo
organizativo
Hacer más con menos recursos al reducir las operaciones manuales de las
Automatización tareas rutinarias.
de la IA Asegurar que todos los sistemas de IA estén diseñados y dirigidos para ser
Ética compatibles con las ideas de la dignidad de la persona humana, los
derechos, las libertades y la diversidad cultural.
La IA también debe guiarse por el buen criterio de la dirección general,
Sabiduría práctica quien debe actuar a partir de lo que es correcto para todos las partes
interesadas.
De la misma forma que la IA actualmente tiene más potencial como un aumento en lugar de una
sustitución de la actividad humana, los directores generales deben ser conscientes de que la IA
no tiene nada de artificial, ya que los valores de la máquina se derivan de los valores humanos
que los diseñaron y cualquier sesgo en la entrada de los sistemas de IA comportará en un sesgo
en la salida. En este sentido, los directores generales no deben considerar la tecnología de IA
solo como una herramienta para ganar eficiencia en la organización. Deben comprender las
consecuencias más allá del modelo de negocio, como el contexto externo e interno y la
configuración institucional. Estas implicaciones requieren que los directores generales
desarrollen una mentalidad digital para permitirles gestionar la IA de forma global, preparando
la infraestructura de TI, y adquiriendo y desarrollando las nuevas capacidades requeridas,
creando y registrando valor a través de las nuevas propuestas de valor basadas en la IA,
abordando los nuevos retos específicos que la IA plantea a la organización, y poniendo en
marcha una buena gobernanza de la IA basada en los principios de equidad, responsabilidad,
transparencia, ética y sabiduría práctica.
Bibliografía
AGRAWAL, Ajay, GANS, Joshua y GOLDFARB, Avi. Prediction Machines: The Simple Economics of Artificial
Intelligence. Boston: Harvard Business Review Press, 2018.
ALIBABA CLOUD. “ET City Brain.” Consulta del 27 de diciembre, 2018. https://www.alibabacloud.com/et/city.
ANDERSON, Chris. The Long Tail: Why the Future of Business is Selling Less of More. Nueva York: Hyperion
Books, 2006.
ANDREU, Rafael y RICART, Joan Enric. “The Genuine Responsibilities of the CEO.” IESE Insight (cuarto
trimestre, 2014).
BINDER, Alexander et al. “Layer-Wise Relevance Propagation for Deep Neural Network Architectures.”
Proceeding of Information Science and Applications (ICISA), 2016.
BOSTROM, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.
BUOLAMWINI, Joy y GEBRU, Timnit. “Gender Shades: Intersectional Accuracy Disparities in Commercial
Gender Classification.” Proceedings of Machine Research. Conference on Fairness, Accountability, and
Transparency, 2018.
CASADESÚS-MASANELL, Ramon y RICART, Joan Enric. “How to Design a Winning Business Model.” Harvard
Business Review (enero-febrero 2011).
DATTA, Amit, TSCHANTZ, Michael Carl y DATTA, Anupam. “Automated Experiments on Ad Privacy Setting.”
Proceedings on Privacy Enhancing Technologies, 2015.
DAUGHERTY, Paul R. y WILSON, H. James. 2018 Human + Machine: Reimagining Work in the Age of AI.
Boston: Harvard Business Review Press, 2018.
DOSHI-VELEZ, Finale y KORTZ, Mason. “Accountability of AI Under the Law: The Role of Explanation.”
Berkman Klein Center Working Group on Explanation and the Law, Berkman Klein Center for Internet &
Society, artículo en preparación, 2017.
DRUCKER, Peter F. Management: Tasks, Responsibilities, Practices. Nueva York: Harper & Row, 1973.
EDMOND, Awad. “Moral Machine: Perception of Moral Judgement Made by Machines,”tesis de doctorado.
MIT, mayo 2017.
ETZIONI, Oren. “How to Regulate Artificial Intelligence.” New York Times, 1 de septiembre, 2017. Consulta del
27 de diciembre, 2018. https://www.nytimes.com/2017/09/01/opinion/artificial-intelligence-regulations-
rules.html.
EYKHOLT, Kevin et al. “Robust Physical-World Attacks on Deep Learning Visual Classification.” Proceeding of
the Conference of Computer Vision and Pattern Recognition, abril 2018.
FAT/ML: Fairness, Accountability, and Transparency in Machine Learning. Consulta del 27 de diciembre,
2018. https://www.fatml.org/.
FUTURE OF LIFE INSTITUTE. “Asilomar AI Principles.” 2017. Consulta del 27 de diciembre, 2018.
https://futureoflife.org/ai-principles/.
HURSTHOUSE, Rosalind y PETTIGROVE, Glen. “Virtue Ethics.” The Stanford Encyclopedia of Philosophy
(Edición de invierno 2018), ed. Edward N. Zalta. Consulta del 20 de enero, 2019.
https://plato.stanford.edu/archives/win2018/entries/ethics-virtue/.
IBM WATSON. “Trust and Transparency in AI.” Consulta del 27 de diciembre, 2018.
https://www.ibm.com/watson/trust-transparency/.
KÁGANER, Evgeny, ZAMORA, Javier y SIEBER, Sandra. “The Digital Mindset: 5 Skills Every Leader Needs to
Succeed in the Digital World.” IESE Insight Review, n.º 18 (tercer trimestre 2013).
KHANDANI, Amir E., KIM, Adlar J. y LO, Andrew W. “Consumer Credit Risk Models via Machine-Learning
Algorithms.” Journal of Banking & Finance, n.º 34 (2010): 2767-2787.
MALONE, Thomas. Superminds: The Surprising Power of People and Computers Thinking Together. Nueva
York: Little, Brown and Company, mayo 2018.
MICROSOFT. “FATE: Fairness, Accountability, Transparency, and Ethics in AI.” Consulta del 27 de diciembre,
2018. https://www.microsoft.com/en-us/research/group/fate/.
O’NEIL, Cathy. Weapons of Math Destruction. Nueva York: Broadway Books, 2016.
OSTERWALDER, Alexander y PIGNEUR, Yves. Business Model Generation: A Handbook for Visionaries, Game
Changers, and Challengers. Nueva Jersey: John Wiley & Sons, 2010.
PORTER, Michael E. “How Competitive Forces Shape Strategy.” Harvard Business Review (marzo 1979).
RICART, Joan Enric. “Strategy in the 21st Century: Business Models in Action.” IESE Technical Note,
SMN-685-E, 2012.
ROSS, Casey y SWETLITZ, Ike. “IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer
treatments, internal documents show.” STAT. 25 de julio de 2018. Consulta del 27 de diciembre, 2018.
https://www.statnews.com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments/.
SIEBER, Sandra y ZAMORA, Javier. “The Cybersecurity Challenge in a High Digital Density World.” The
European Business Review (enero-febrero2019).
STEADMAN, Ian. “IBM’s Watson is better at diagnosing cancer than human doctors.” Wired. 11 de febrero de
2013. Consulta del 27 de diciembre, 2018. https://www.wired.co.uk/article/ibm-watson-medical-doctor.
SUTCLIFFE, Hilary y ALLGROVE, Anne-Marie. “How do we build an ethical framework for the Fourth Industrial
Revolution?” World Economic Forum. 7 de noviembre de 2018. Consulta del 1 de diciembre, 2018.
https://www.weforum.org/agenda/2018/11/ethical-framework-fourth-industrial-revolution/.
THOMSON, Judith, J. “Killing, Letting Die, and the Trolley Problem.” Monist: An International Quarterly
Journal of General Philosophical Inquiry, vol. 59, 1976.
WING, Jeannette, M. “Data for Good: FATES, Elaborated.” Data Science Institute, Columbia University, 23 de
enero, 2018. Consulta del 27 de diciembre, 2018. https://datascience.columbia.edu/FATES-Elaborated.
ZAMORA, Javier. “Making Better Decisions Using Big Data.” Harvard Deusto Business Review (mayo 2016),
ref. 016197-E.
ZAMORA, Javier. “Programming Business Models Through Digital Density,” IESE Insight (segundo trimestre
2017).
ZAMORA, Javier y HERRERA P. “How prepared is your business to make the most of AI?” IESE Business School
Insight, N.º 151, (invierno 2018).
ZAMORA, Javier, TATARINOV, Katherine y SIEBER, Sandra. “The Centrifugal and Centripetal Forces Affecting
the Digital Transformation of Industries.” Harvard Deusto Business Review, n.º 279 (junio 2018), ref. 018189.