Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La newsletter de
Completa el form
Nombre
Apellidos
La capacidad tecnológica de la humanidad se incrementa a ritmos cada vez más rápidos ¿Te Aceptar
términos y
has planteado alguna vez que hay tecnologías que pueden igualar o superar a la energía condiciones
El evento estará dividido en dos partes; en primera parte parte se presentará un modelo de
evaluación de riesgos tecnológicos que, a continuación, se aplicará al riesgo nuclear, cambio
climático, biotecnología e inteligencia artificial. En la segunda parte se presentará la labor del
Centro para el Estudio de los Riesgos Existenciales y otras organizaciones que trabajan en este
ámbito, que es donde se enmarca el trabajo investigación que Jaime Sevilla realiza en la
Universidad de Cambridge.
A continuación puedes conocer un poco mejor la visión de Jaime Sevilla al respecto de los
riesgos que pueden suponer para la humanidad el desarrollo incontrolado de la inteligencia Libro
artificial:
Futurizable
La promesa de la inteligencia artificial es automatizar la resolución de problemas, incluyendo Si eres un profesional
problemas cotidianos como la conducción y problemas más esotéricos como el diseño de dedicado a la innovación
so ware. o estás interesado en la
Las posibilidades que habilita esta tecnología son abundantes, y pueden tener un impacto
tecnología que está por
positivo dramático en la sociedad. La posibilidad de automatizar gran parte de la labor es un
llegar, hazte con un
indicio de la posibilidad de que la inteligencia artificial suponga un adelanto económico
ejemplar de Futurizable.
comparable a las revoluciones agrícola e industrial.
En este libro, Javier
Martín presenta las
principales tecnologías
Sin embargo, desarrollos recientes en el campo apuntan en una dirección inequívoca: desde el exponenciales que van a
predictor de texto GPT-2 hasta el bot de Starcra AlphaStar, la delantera la llevan algoritmos tener gran impacto en la
con un grado elevado de opacidad. Con ello quiero decir que es difícil interpretar las razones sociedad en los próximos
por las que estos sistemas toman unas u otras decisiones. años.
Esto es síntoma de un problema mayor. El entendimiento teórico de los problemas técnicos
asociados al desarrollo de sistemas avanzados de inteligencia artificial no va a la par que el Comprar
desarrollo de nuevas capacidades.
Para saber más al respecto recomendamos leer el artículo completo Atravesando la frontera.
Riesgo nuclear e inteligencia artificial.
Introducción
“Pienso que se puede afirmar tranquilamente que nadie
entiende la mecánica cuántica… No te pongas a repetir, si
puedes evitarlo ¿pero cómo puede ser así? porque irás hacia
un callejón sin salida del que nadie ha escapado. Nadie sabe
cómo puede ser así. Si usted piensa que entiende la mecánica
cuántica… entonces usted no entiende la mecánica cuántica»
Richard Feynman
Tras leer estas palabras y reflexionar sobre ellas, teniendo en cuenta que Richard Feynman,
además de haber recibido el premio Nobel de física, está considerado como el padre de la
computación cuántica, y ha sido de uno de los científicos que más ha aportado al desarrollo
actual de la mecánica cuántica, sería una osadía intentar explicar en detaller en qué consiste la
computación cuántica. Pero lo que sí que podemos hacer es recomendar una serie de recursos
que pueden ayudar a aquellos que estén interesados en profundizar en ello o incluso
aprovechar la oportunidad que supone por lo incipiente que es esta nueva disciplina
tecnológica.
En lo que a startups españolas se refiere, nos encontramos por ejemplo con Quside que se
dedica al diseño y fabricación de componentes cuánticos innovadores para cualquier
dispositivo conectado. Para ello han desarrollado una tecnología de generación de números
aleatorios cuánticos, con el objetivo de habilitar la próxima generación de soluciones de
cifrado. Quside nació como una spin-o del ICFO-The Institute of Photonic Sciences en
Barcelona. Después de más de 6 años de intenso esfuerzo de I + D en el desarrollo de
dispositivos cuánticos para comunicaciones seguras, el equipo tomó el camino de la
industrialización y constituyó la empresa en 2017. A partir de ese momento la compañía se
dedica al desarrollo de su innovadora tecnología cuántica y fotónica.
Otras startups españolas que trabajan en el ámbito de la computación cuántica a las que habrá
que seguir la pista son Q-LION, Metempsy, Multiverse y VLC Photonics.
Además hay que destacar que las grandes empresas tecnológicas cuentan ya con programas
específicos para el desarrollo de esta tecnología, de manera que, al igual que ha ocurrido con
la Inteligencia Artificial (al menos de momento) la idea es compartir y colaborar, de forma
que, uniendo fuerzas en todas estas empresas, se puedan afrontar los grandes retos que
presenta esta tecnología, tanto desde el punto de vista científico como a la hora de aplicarlo en
casos reales.
En este sentido sabemos desde hace tiempo que la apuesta por la computación cuántica de
IBM se realiza a través del proyecto Quiskit, donde están haciendo una importante labor de
divulgación, gracias a al trabajo en la materia que realizan profesionales como Asier Arranz. Por
otro lado sabemos que la iniciativa de Google con su proyecto Cirq, está muy ligada a su
estrategia de Inteligencia Artificial, que Microso desarrolla también sus propias iniciativas en
el marco de Azure y que Amazon ha llamado Braket a su iniciativa de informática cuántica.
También otras muchas empresas tecnológicas como Intel, Baidu, Mitsubishi, Nokia, Alibaba, …
tienen sus propios programas para el desarrollo de la computación cuántica, por lo que vemos
que estamos en un momento importante en cuanto al interés por la tecnología se refiere y lo
que tendremos que ver en los próximos años es el nivel de madurez que se puede llegar a
lograr, a través de los casos de uso en diferentes industrias, igual que ha sucedido
recientemente con otras tecnologías como blockchain.
1. Utilizar el spin de partículas como el electrón para crear qubits, sabiendo que las
partículas como los electrones, o los propios átomos, tienen una propiedad de tipo
magnético denominada spin. Podemos imaginarnos el electrón como un pequeño imán,
con su polo Norte y su polo Sur. En estado de superposición, la dirección Sur-Norte de
éste queda indefinida. Para tratar de conocerla, utilizamos un aparato de medida que
hace pasar el electrón entre dos imanes, uno mostrando su polo S y otro mostrando su
polo N. Uno de los imanes (S) es más potente que el otro, de forma que si el electrón
tiene su polo N hacia el S del aparato de medida y viceversa, saldrá del aparato con una
trayectoria ligeramente desviada hacia donde estaba el polo S del aparato. Si, por el
contrario, el electrón tiene sus polos iguales respecto a los del aparato, el que es más
potente, el S, repele el polo S del electrón y la trayectoria de éste al salir, estará
ligeramente desviada en la dirección N del aparato. Bien, si el electrón tiene su spin o
dirección S-N en una dirección cualquiera, deberíamos ver trayectorias en diferentes
ángulos y desviaciones, pero los experimentos nos dan dos trayectorias al 50%, como si
el spin siempre estuviese perfectamente alineado con la dirección de los imanes del
aparato, ya sea hacia el N o hacia el S. Al observar la distribución de los impactos de los
electrones en la lámina final, no hay impactos en la zona donde llegarían los electrones
cuyo spin tiene una dirección S-N inclinada u horizontal y su desviación hacia el N o el S
no fuese tan marcada.
2. Utilizar la dirección de polarización del fotón para crear el qubit, de forma muy
semejante a lo que ocurre con el spin del electrón. El plano de vibración asociado al
fotón, puede tener distintas inclinaciones, y existen filtros que solo dejan pasar los
fotones cuyo plano de polarización está en un ángulo concreto. En estado de
superposición, dicho plano está indeterminado, y al aplicarle el filtro vertical, se deshace
la superposición y dejará pasar fotones al 50% con polarización vertical, mientras que
otro 50% de fotones se habían manifestado con polarización horizontal y no pasan el
filtro. En el experimento de los tres filtros, por ejemplo, se ve que si aplicamos un filtro
que solo deja pasar la polarización horizontal, al aplicar un filtro vertical, no pasan
fotones. Pero si, tras un filtro horizontal, colocamos otro inclinado un ángulo de 45º, el
estado de superposición que provoca éste, hace que un filtro vertical posterior deje
pasar el 50% del haz de fotones.
3. Usar una trampa de iones para crear los qubits, mediante campos eléctricos y
electromagnéticos.Al disponer iones (suelen ser de Calcio) capturados de forma que solo
puedan vibrar en una de las tres dimensiones (Z), este único movimiento solo se
manifiesta según cantidades concretas de energía (cuantos). En estado de
superposición, podemos tener un ión en un estado indeterminado entre movimiento
cero y vibración asociado a un estado energético concreto. Al incidir con un láser sobre el
ión, según el estado energético que adopta al romperse la superposición, sale un fotón o
no.
4. Usar el efecto túnel entre dos superconductores (Unión Josephson, Temple Cuántico)
es otra forma de crear qubits que cumplan con las características definidas por la lista de
criterios propuesta por Di Vincenzo. Para ello se utiliza un circuito de superconductores
(suele ser aluminio) a temperaturas muy cercanas al cero absoluto, en los que hay un
sistema resonante (su estado se manifiesta a través de frecuencias) que puede estar en lo
que se llama el estado “Ground” o básico que representará el 0, y puede estar en un
estado “excitado”, al aplicar micro-ondas con una energía muy concreta, que
representará al 1. Si la frecuencia aplicada con las microondas no llega a ser la exacta
que pone al sistema en el estado excitado, el sistema se queda en un estado de
superposición. En estos circuitos, la parte clave son las Uniones de Josephson en las que
se produce el conocido efecto túnel, que es el que permite pasar electrones (los pares de
Cooper) a través del aislante entre los dos superconductores. Es curioso que,
precisamente, el efecto túnel sea el inconveniente que se encuentran los transistores de
los chips clásicos para funcionar bien, siendo justo el efecto clave para que los chips
cuánticos funcionen en el nuevo paradigma de la computación cuántica. Éste es el
sistema utilizado por IBM en su ordenador cuántico Q, en el que un circuito tipo
“trasmon” se comporta de forma cuántica en arquitecturas de diferentes formas y
diferente número de qubits En la técnica del Temple Cuántico, que es la que usa D-Wave,
el sistema es de un número mucho mayor de qubits y se analiza la distribución de
valores del hamiltoniano (una función que mide la energía del sistema) obteniendo un
“landscape” o paisaje en el que el valor mínimo representa la solución óptima al
problema computacional.
Antes de lanzarnos a participar en eventos sería bueno llegar allí con cierta base en cuanto a
los principales aspectos a conocer de esta disciplina y conocer conceptos como el qubit, la
superposición, el entrelazamiento, las puertas cuánticas, como la de Hadamard y CNOT, o la
esfera de Bloch. A este respecto recomendamos por aquí unos vídeos de Derivando, Date un
Voltio y Quantum Fracture, que son grandes divulgadores científicos y explican el tema de la
forma más didáctica posible. Además si quieres entender las connotaciones que esta
tecnología va a tener a nivel de desarrollo informático y de negocio para las startups te
recomendamos ver este vídeo de Platzi.
1. Qiskit de IBM. IBM ha sabido mover ficha con habilidad y rapidez, creando un entorno
bastante amable, con buena documentación, para iniciarse en la programación de
circuitos cuánticos. Qiskit es un framework Open Source en Python, con cuatro
elementos: Terra, Aer, Aqua e Ignis. A grandes rasgos, Terra provee de las herramientas
básicas para programar los circuitos y ejecutarlos en remoto en los backends cuánticos
reales; Aer permite simular el funcionamiento de éstos mientras estamos creando los
circuitos y probando; Aqua proporciona las librerías para particularizar en el campo de la
química, la IA o las finanzas, e Ignis se encarga del ruido, que como veremos más
adelante es el gran problema al que se enfrenta en estos momentos la computación
cuántica. A través de la IBM Q Experience y una serie de tutoriales, es relativamente
sencillo introducirse y familiarizarse con el entorno de Qiskit, trabajando sobre Jupyter
notebooks. También han lanzado un manual que permite ponerse manos a la obra para
ir descubriendo más a fondo las posibilidades y herramientas a nuestro alcance.
2. Forest SDK de Rigetti. El fundador de Rigetti provenía de la división de computación
cuántica de IBM, por lo que, a pesar de ser una compañía relativamente reciente, se ha
ganado la confianza de inversores y agentes del sector. El sistema de Rigetti, en realidad,
es híbrido, complementando computación clásica con un co-procesador cuántico. En
2017 lanzó su propia plataforma de servicio para programar algoritmos cuánticos,
llamada Forest, gratuita y libre, cuya SDK se puede descargar desde la web. Cuenta con
su propio lenguaje de programación: Quil. Pero proporcionan una librería (PyQuil) para
poder crear y ejecutar los programas con Python. Los circuitos programados se pueden
ejecutar en una QVM (Quantum Virtual Machine) en modo simulación, o también se
puede acceder a un QPU (Quantum Processing Unit) para hacer una ejecución en su
ordenador cuántico real. Rigetti ha creado una comunidad de partners que actúan como
intermediarios para llegar más lejos y con un portfolio de servicios más completo para
empresas como usuario final.
3. Strawberry Fields de Xanadu. Xanadu cuenta con una plataforma muy limpia para
probar la computación cuántica basada en fotones. Strawberry Fields es una librería
Python open source, que ellos categorizan como “full stack” para diseñar, simular y
optimizar circuitos cuánticos ópticos. En la web ofrecen una interfaz interactiva bastante
bonita para construir gráficamente un circuito y probarlo en simulación. La
documentación todavía no es muy amplia, pero, al igual que en casi todas las
plataformas, es suficiente para iniciarse y probar.
4. Cirq de Google. Google ya lanzó en 2018 su propio framework open source para Python,
denominado Cirq, con el que se pueden crear algoritmos cuánticos y ejecutarlos
localmente, en un entorno virtual Python, en modo simulador. La documentación
disponible es un poco escasa, pero está bien para iniciarse. La intención es dar acceso
remoto a su ordenador cuántico para que cualquiera pueda ejecutar los algoritmos en el
pardigma cuántico real, pero aún no han dado ese paso. Han estado bastante
concentrados en poner a punto su última versión de chip cuántico, el Sycomore de 54
bits, para su experimento de supremacía cuántica. Sería bueno que continuasen en la
línea de lo que hicieron con Tensorflow para el tema de machine learning y vuelvan a
cuidar la comunidad. Lo malo de los simuladores cuánticos, es que tarde o temprano ya
no sirven, pues, en el fondo, se ejecutan sobre computación clásica.
5. Leap de D-Wave. D-Wave fue la primera empresa en vender ordenadores cuánticos,
entre otros, a la Nasa. Sus ordenadores cuánticos se basan en la técnica del “recocido
cuántico” o “temple cuántico”. Esta tecnología se basa en una arquitectura basada en
grafos, por la cual cada qubit está acoplado a otros 15 qubits (en su arquitectura actual
Pegasus). Su funcionamiento está totalmente enfocado en resolver problemas de
optimización. El “Quantum Annealing” o recocido cuántico, es un algoritmo en el que se
“cablean” los parámetros del problema en modo grafo y se realiza una gran cantidad de
muestreos aleatorios, buscando después el mínimo global de las fluctuaciones cuánticas
que se dan por efecto tunel en superconductores. Pero realmente el ordenador de D-
Wave no es del todo cuántico, aunque sí muy potente. Ésto le da cierta ventaja sobre
otros ordenadores cuánticos que todavía no pueden resolver problemas en el mismo
nivel, pero también podría ser una limitación cuando el resto vaya aumentando su
capacidad. La cuestión es que no todos los qubits aprovechan el estado de
superposición en la misma fase de computación. Además, solo puede usarse para
problemas que admitan el mapeado del algoritmo sobre cierto grafo. El entorno para
probar de forma gratuita, a través de la nube, el D-Wave 2000 Q System, se llama Leap y
se utiliza Ocean SDK, con herramientas y librerías de Python. Como también tiene
tutoriales y ejemplos en notebooks de Jupyter, el primer acercamiento es bastante
interactivo y asequible.
6. QDK de Azure Quantum: Microso ofrece su propio framework open source llamado
QDK (Quantum Development Kit) que permite programar y ejecutar simulaciones de
algoritmos cuánticos. Ofrece conectar con Azure y poder utilizar containers de Docker
para crear los entornos de simulación, y también ofrece la posibilidad de solicitar acceso
anticipado a lo que va a ser su plataforma especializada en computación cuántica Azure
Quantum, en la que se podrá utilizar hardware cuántico real en remoto a través de los
partners con los que cuenta Microso , como IonQ. El lenguaje propio que ha
desarrollado Microso para este entorno y su QDK es Q# (Q sharp), aunque también
ofrece una librería para programar en Python, adaptando el código. La documentación
es bastante completa pero poco unificada, y cuesta volver a encontrar algo que habías
visto antes. Hay varias opciones de trabajo: Visual Studio, Jupyter notebooks,… Tiene
buena pinta, a la espera de que lancen definitivamente Azure Quantum.
7. Braket de AWS: El último actor conocido que se ha incorporado al escenario de la
computación cuántica ha sido AWS. Tras anunciar la creación de la plataforma Bracket, y
ofrecer la posibilidad de probarla en fase Beta a través de solicitud, ha ido reclutando los
servicios de proveedores de hardware, como D-Wave, IonQ y Rigetti. Aunque aún no hay
suficiente información sobre la experiencia que ofrece, parece ser que se programa sobre
notebooks de Jupyter, en Python, y se puede elegir si se ejecutan los algoritmos sobre un
backend de simulador o un backend de procesador cuántico real de alguno de los
proveedores con los que tienen acuerdo.
1. El ruido es el gran problema técnico actual de la computación cuántica y lo que hace que
aún sea pronto para lanzarse a realizar aplicaciones reales, por el riesgo que supone de
cara a que se produzcan fallos en producción. Este ruido es ocasionado por las
perturbaciones que se producen en el qubit cuando se intenta realizar una medida para
determinar su estado o por las interferencias que se producen entre los qubits que
conforman el ordenador cuántico, y para evitarlo se trabaja en la mejora del hardware, o
se compensa el problema a través de la realización de muchas medidas de las cuales se
hace una media estadística.
2. La falta de algoritmos es un problema porque cuando hablamos de computación
cuántica tenemos que pensar que estamos empezando desde cero en la forma en la que
se construyen los ordenadores y sobre cómo es su funcionamiento a nivel más básico.
Luego, sobre ésto, hay que construir el so ware y aunque para ello podemos usar
lenguajes de programación como Python, sin embargo, en lo que a algoritmos se refiere,
sí que tenemos que diseñarlos nuevamente para poder hacer los procesos que ahora nos
resultan básicos en la informática, como pueden ser las operaciones matemáticas más
básicas, las búsquedas de información, la factorización, la ordenación, el balanceo, …
3. La escasez de profesionales que trabajen en su desarrollo es otro de los grandes cuellos
de botella en este sector. Andrés Torrubia en su podcast So ware 2.0 explica cómo la
Inteligencia Artificial se podría asemejar a la disciplina deportiva del triatlón, en la que,
en lugar que los tres deportes (natación, ciclismo y carrera), tendrían su equivalente en
las matemáticas, la programación y los sistemas informáticos (principalmente que sepan
trabajar con el cloud). Ahora, cuando hablamos de computación cuántica tenemos que
añadir un factor más a la ecuación, que es la física, por eso se va a complicar aún más el
acceso a profesionales en este ámbito. Ya sean informáticos con un gran conocimiento
de matemáticas y física, cuántica en este caso, o físicos y matemáticos que sepan
programar, pero además que tengan suficientes conocimientos a nivel de cómo
funcionan los ordenadores en sus fundamentos más básicos y cómo ahora además se
gestionan las plataformas de computación en la nube, que en cierta medida buscan
hacer accesibles todos estos sistemas, pero que no están exentas de su correspondiente
complejidad.
4. La falta de casos de uso reales es un lastre importante para que más empresas y
profesionales se lancen a trabajar con esta tecnología. Es el típico caso de la pescadilla
que se muerde la cola, algo que no ha sucedido por ejemplo con la tecnología
Blockchain que desde sus inicios tenía un gran caso de uso como es Bitcoin, pero en este
tema de la computación cuántica es necesario que empiecen a surgir aplicaciones reales
que sirvan de inspiración para toda la gente que tiene ganas de trabajar en ello. Por eso
es tan importante que se organicen actividades como los hackathons de la comunidad
Qiskit de IBM.
Y en relación con los posibles casos de uso en diferentes sectores de la economía, vemos como
un sector en el que está despertando un gran interés es el del diseño de moléculas orgánicas,
que pueden ser usadas en las industrias químicas, farmacéuticas y de materiales. Esto es
debido, a que sobre todo cuando hablamos del diseño de proteínas, que son uno de los tipos
de moléculas con mayor potencial actualmente en este ámbito, la complejidad de su diseño es
tan alta que con los recursos informáticos actuales con los que cuentan las empresas, se hace
especialmente tedioso y lento su desarrollo. Incluso si recurrimos a los supercomputadores
más potentes del mundo, vemos cómo su capacidad de cómputo se sigue mostrando
insuficiente para realizar este tipo de trabajos.
Otra actividad en la que sería muy interesante poder utilizar la computación cuántica es de
cara a la realización de modelos ambientales en el ámbito de la geoingeniería. Estamos
hablando de intervenir artificialmente para modificar el clima del planeta y contrarrestar de
esta forma los efectos del calentamiento global, lo cual presenta una complejidad enorme por
todas las interacciones a nivel planetario que hay que tener en cuenta, lo cual podría ser
abordado en el futuro gracias a la mayor capacidad de cálculo de los ordenadores cuánticos y
sobre todo a su capacidad para resolver a la vez muchos problemas que están relacionados
entre ellos.
Del mismos modo otros sectores en los que hay una gran complejidad a la hora de diseñar
nuevos modelos de funcionamiento puede ser el ámbito financiero, el del transporte y la
logística. Todos ellos se encuentran en un proceso de búsqueda constante de soluciones a los
problemas que van encontrando según se van desarrollando y van creciendo en su actividad,
lo cual no siempre va acompañado en mejoras a nivel de las infraestructuras correspondientes.
Pensemos por ejemplo en la problemática que supone para los servicios de logística y
mensajería el incremento exponencial que está experimentando el comercio electrónico, que
empieza a generar problemas de gestión del tráfico en las ciudades.
Los ordenadores cuánticos también pueden resultar de mucha utilidad y funcionan con una
gran agilidad, cuando se trata de encontrar datos en grandes bases de datos, lo cual vamos a
ver a continuación que tiene una relación directa con la Inteligencia Artificial, al ser el Big Data
uno de los pilares sobre el que se sustenta esta tecnología.
Ésto es así porque la forma en la que trabaja la computación cuántica puede ser de gran
utilidad a la hora de su aplicación en procesos basados en redes neuronales y deep learning.
Por un lado, el aprendizaje automático por refuerzo precisa de una gran cantidad de
simulaciones con estados iniciales aleatorios, por lo que la computación cuántica, que trabaja
de forma natural con muestreos aleatorios, puede dar rapidez y eficiencia al proceso. Por otro
lado, ambos ámbitos de cómputo tienen una base probabilística y eso permite que se
sincronicen muy bien los resultados: un modelo de machine learning predice cierto resultado
con un tanto por ciento de fiabilidad, y los algoritmos de computación cuántica apuntan hacia
soluciones más probables que otras para ser después probadas con computación clásica.
De esta forma se ha llegado a hablar incluso del aprendizaje automático cuántico como un
área de investigación interdisciplinaria emergente que se encuentra en la intersección de la
física cuántica y el aprendizaje automático . Así el aprendizaje automático cuántico (QML) es
una subdisciplina de la computación cuántica que tiene el objetivo de desarrollar algoritmos
cuánticos que aprendan de los datos para mejorar los métodos existentes en el aprendizaje
automático.
Conclusión
El desarrollo de la computación cuántica vive un momento dulce, ya que muchas empresas y
profesionales comienzan a interesarse por esta tecnología más allá del ámbito teórico y
científico, que es donde ha estado desde que Richard Feynman propuso la idea de construir
ordenadores basados en los principios de la mecánica cuántica. No sabemos si con la
computación cuántica ocurrirá lo mismo que ocurrió con la Inteligencia Artificial y en poco
tiempo veamos llegar “un invierno”, que haga descender el interés por esta tecnología, debido
probablemente a la dificultad de resolver problemas actuales como el del “ruido”. Pero en todo
caso nos atrevemos a considerar que estamos ante una tecnología que tendrá un gran
desarrollo en el futuro, por un lado por su capacidad para resolver problemas que actualmente
han tenido que dejarse de lado, por la dificultad de resolución con las tecnologías actuales y
por otro lado por la enorme complementariedad que tiene con la Inteligencia Artificial. De esta
forma en los próximos años veremos cómo las necesidades de capacidad de cómputo que
requieren ciertos algoritmos de Big Data e Inteligencia Artificial son tan exigentes que valdrá la
pena invertir para solucionar los problemas que se puedan ir encontrando en el desarrollo de
la computación cuántica.
Mucho se ha avanzado desde que en 1920 se consiguió que el perro de juguete “Radio Rex” se
asomase al pronunciar su nombre. La precisión en el reconocimiento de voz se estancó
durante muchos años llevando al usuario a malas experiencias y frustraciones en la
interacción. En 2010 se aumentó en gran medida esta precisión con el uso de deep learning y
en 2017 Google consiguió una precisión del 95 %. Es cierto que el habla depende del lenguaje y
el enfoque general del mercado global son las interacciones centradas en el inglés. En acentos
muy cerrados de este idioma la precisión bajaba un 30 % y en español aún queda camino para
alcanzar la misma fluidez.
Grandes tecnológicas como Apple, Amazon, Google, Microso , Samsung o IBM llevan ya
tiempo poniendo foco en el desarrollo de plataformas de procesamiento de lenguaje natural
con sus propios asistentes. Entran ahora en nuestros hogares a través de los smart speakers de
Amazon y Google, transformando el uso de la voz como interfaz mainstream.
No obstante, la interfaz voz no es adecuada para cualquier interacción. Hay que entender
cuándo resuelve de forma más rápida que la pantalla el problema del usuario, o incluso si
conviene hacer una interacción multicanal en la que se utilizan diferentes canales. Por
ejemplo, el diálogo funciona bien para reservar las salas de una empresa, pero no resulta tan
efectivo si se quiere obtener un listado de las salas que hay. Aún así, vamos a ver un cambio de
paradigma en la forma en la que interactuamos con la tecnología tan grande como cuando
aparecieron los smartphones y sus apps.
Esta revolución tecnológica abre las puertas a nuevos casos de uso, a nuevos modelos de
negocio y, por tanto, a una oportunidad para las marcas. ¿Cuál es el tamaño de mercado y las
tendencias en el sector? ¿En qué áreas tendrá mayor impacto? ¿Qué valoran más los usuarios?
¿Cómo podríamos monetizar ese valor a través de este canal? ¿Cómo conseguimos llegar a
nuestros usuarios? ¿Cuáles son algunos de los casos de uso de mayor impacto?
Las respuestas a estas preguntas se han recogido en un informe con el objetivo de compartir
algunos aprendizajes sobre el mercado de la voz como canal de comunicación entre personas
e inteligencias artificiales, para poder entender en qué mercados y en qué casos de uso invertir
a la hora de desarrollar productos a través de la interfaz voz. Para acceder a él tan sólo es
necesario completar un rápida encuesta que ayudará a seguir profundizando en este estudio.
«Oye, niño, ¿y tú qué quieres ser de mayor?». Nos resulta bastante obsoleta esta pregunta.
Abogado, médico, bombero, astronauta, arquitecto… Las profesiones vocacionales pueden
seguir teniendo sentido durante mucho tiempo, pero cada vez tendrán menos que ver con el
concepto de trabajo y tomará más protagonismo el de talento. Un trabajo se aprende y se
practica, pero el talento está más relacionado con factores intrínsecos como la genética,
nuestra forma de ser, además del ambiente en el que nos desarrollamos, las cosas que nos
motivan en nuestro entorno y la influencia que recibimos de las personas cercanas.
Durante muchísimo tiempo se le ha dado mucho más valor en la sociedad al trabajo que al
talento, por eso la formación se concentra en inculcarnos conocimiento, pero muy poco en
desarrollar nuestras habilidades. En esta nueva era digital en la que vivimos, en la sociedad del
conocimiento, hace mucho que dejamos atrás cambios tan importantes como el que se
produjo con la revolución industrial, en la que millones de personas dejaron de vivir en el
campo, dedicados a la agricultura, para habitar en las ciudades trabajando en las fábricas. Esto
que para los países occidentales ocurrió hace décadas, está sucediendo ahora también a nivel
global, como podemos ver en este gráfico:
En el año 2017 la revista médica BMJ Open publicó un estudio de carácter global en el que se
mostraba que las consultas médicas de atención primaria duran de media menos de 5 minutos
para la mitad de la población mundial, oscilando entre los 48 segundos en Bangladesh y los
22,5 minutos en Suecia. Como os podéis imaginar, si el trabajo de un médico consiste en
atender a pacientes durante 8 horas al día en turnos de 5 minutos, claramente hay algo que
falla en la forma en la que se concibe el trabajo a nivel sanitario, por poner un ejemplo.
Siguiendo con el tema de la salud, hace tiempo que se vienen haciendo pruebas con
Inteligencia Artificial en las que se demuestra que una máquina puede resultar
significativamente más eficiente en tareas como el análisis de imágenes para, por ejemplo, la
detección del cáncer. Y como este, cada vez vamos a conocer más casos en los que las
máquinas se imponen en determinados puestos hasta el momento limitados a las personas. Es
tan simple como que ahora, en algún lugar del mundo, hay un programador especializado en
Machine Learning que está trabajando para que esto ocurra.
Ante este escenario se hace cada vez más necesario un cambio en la estrategia con la que
abordamos el tema del trabajo: ha llegado la hora de comenzar a enfocarnos en el talento.
En lo que al modelo educativo se refiere nos encontramos con que llevamos ya bastantes años
hablando de la necesidad de cambio y adaptación a las necesidades reales de la sociedad o del
mercado de trabajo, pero la realidad parece mostrar que estas transformaciones no se están
produciendo con la suficiente intensidad y velocidad. Seguramente será porque los planes
educativos con los que ahora contamos se siguen enfocando en el aprendizaje de materias y en
la adquisición de conocimiento, pero muy poco en las habilidades, las destrezas y en el
fomento del talento con el que cuenta cada persona para que pueda ser aquello en lo que
destaque en el futuro.
En lo que a Inteligencia Artificial se refiere, nos dirigimos a un futuro en el que los humanos
amplificaremos nuestra inteligencia gracias a la tecnología. Al igual que han hecho los
jugadores de ajedrez desde que Deep Blue venció a Gary Kasparov, empezar a trabajar junto a
una Inteligencia Artificial nos puede ayudar a aprender más y mejor. Esto puede servirnos para
más adelante pasar a un siguiente nivel, cuando ya seamos capaces de conectar nuestra mente
con esa máquina dotada de inteligencia que se convertirá en nuestro asistente o complemento
de cara al aprendizaje.
Sin duda, esto puede sonar muy futurista, pero también puede parecer cosa del futuro que en
los colegios se enseñe Inteligencia Artificial, algo que ya es una realidad en China. Han
introducido desde los primeros años de educación en la escuela una asignatura de IA, gracias a
la cual los niños se pueden ir familiarizando con esta tecnología, que muy pronto empezarán a
utilizar como consumidores, pero sobre todo a nivel profesional. La apuesta del gobierno chino
por el desarrollo de esta tecnología es decidida y se refleja en iniciativas como esta. ¿No os
parece que noticias como esta deberían hacernos pensar que en nuestras escuelas también
podríamos empezar a trabajar con estos avances para mejorar la forma en la que aprenden los
alumnos y para que cuando accedan al mercado laboral estén mejor preparados?
Por suerte en España se está empezando a trabajar también en este ámbito, con iniciativas
como el Simposio de IA en Educación de la Fundación Maecenas que reúne a especialistas en
IA con profesionales de la educación para trabajar en cómo la Inteligencia Artificial puede
ayudarnos a mejorar en este ámbito.
Enseñar filosofía
Cuando hablamos de un futuro en el que la Inteligencia Artificial tenga tanta relevancia, mucha
gente puede asustarse y realmente puede ser un problema si se pone en práctica de manera
equivocada, enfocando todo ese desarrollo en la propia tecnología sin tener en cuenta los
factores humanos. La manera de contrarrestar esta posible situación futura es por medio de la
enseñanza de la filosofía y las humanidades.
Es fundamental que en el proceso educativo se trate la filosofía como una herramienta que nos
puede ayudar a ser mejores personas y mejores profesionales. Porque ahora es una asignatura
que se aprende y se olvida, pero la mayoría de las veces no produce ningún impacto en la vida
de los estudiantes, más allá del aburrimiento y alguna que otra noche sin dormir para poder
aprobar el examen del día siguiente.
En la escuela hay muchas cosas que no se enseñan o a las que no se les da la suficiente
importancia, por ejemplo aspectos relacionados con la salud o con las finanzas. Está claro que
esto se debe trabajar más en la familia, pero la escuela puede ser también un lugar de apoyo
para aspectos que van a resultar tan importantes en la vida de las personas en su futuro. Y en
lo que a filosofía se refiere, la escuela es un lugar ideal para leer las obras de los filósofos más
influyentes. Y, por cierto, no sólo los occidentales: la filosofía oriental es muy poco tratada en
nuestras escuelas y sin embargo es muy recomendable para entender cómo funciona el mundo
y las personas.
Leer filosofía y, sobre todo, debatir sobre ella en el aula puede resultar muy valioso para la
educación y la formación de los profesionales del futuro, que se van a enfrentar a retos en su
trabajo equivalentes al que supuso en su momento el cambio desde el modelo productivo
basado en la agricultura al industrial. Estas transformaciones son tan profundas que no
pueden afrontarse exclusivamente desde el ámbito personal. Por este motivo resulta valioso
«subirse a hombros de gigantes» para poder entender lo que nos sucede.
Si los que están desarrollando la Inteligencia Artificial se preocupan por enseñarles a crear
arte, ¿no deberíamos trabajar más este aspecto desde la educación? No solo en el colegio,
donde sí que se trabaja bastante este tema. ¿Por qué dejamos de desarrollar las habilidades
artísticas cuando terminamos el colegio? Aquellos que cultivan esta habilidad pueden
enfrentarse mejor a los retos que le surjan a nivel profesional, gracias al desarrollo de la
creatividad y a la mayor sensibilidad que proporciona el haberse dedicado a las actividades
artísticas.
Esto de pasarse la vida aprendiendo y formándose es algo que tienen muy bien interiorizado
los científicos. Su trabajo sería imposible sin dedicar una parte de su tiempo a aprender los
descubrimientos y técnicas que van realizando otros compañeros de profesión, ya que es sobre
esto sobre lo que a su vez construyen sus propias investigaciones. En las profesiones técnicas
también es muy patente esta necesidad de estar aprendiendo siempre nuevas tecnologías,
lenguajes o metodologías, para poder afrontar los retos cada vez más exigentes que exige el
desarrollo tecnológico.
Pero ¿qué ocurre con el resto de profesiones? Pensemos, por ejemplo, en los profesores, que
estudiaron una carrera en la que adquirieron muchos conocimientos, que luego demostraron a
través de una oposición y que finalmente acaban enseñando a otras personas. ¿No debería un
profesor dedicarse a aprender cada vez más para poder enseñar mejor? No cabe duda de que
muchos así lo hacen, pero seguro que la mayoría se limitan a contar con la base necesaria para
desarrollar su profesión. Si queremos que las cosas mejoren a nivel de educación, esto ahora
ya no es una buena opción. Por suerte, desde que tenemos internet, con las plataformas de
elearning como Coursera y Udemy, disponemos de un abanico infinito de posibilidades para
seguir aprendiendo, de manera que podamos seguir mejorando como personas y
profesionales.
Pero ¿por qué no se proponen los colegios y universidades seguir vinculados con sus alumnos
en su futuro profesional? Cuando yo dejé mi colegio de toda la vida, nunca nadie me escribió o
me llamó para ofrecerme seguir vinculado de alguna forma en lo que a educación se refiere.
Simplemente alguien decidió que ya no me necesitaba como «cliente». Lo mismo en la
universidad. ¿Por qué no se desarrollan planes de carrera en el largo plazo de manera que
podamos seguir formándonos en estas instituciones a lo largo de toda nuestra vida
profesional?
Especialmente ahora que muchas universidades tienen problemas para sobrevivir por la falta
de alumnos. Sería una forma fantástica de seguir generando negocio gracias a la formación
continua de profesionales, no sólo a través de posgrados o doctorados, sino de cursos
específicos que ayuden a seguir mejorando en la profesión, ampliando y mejorando lo que se
supone que se aprendió en la carrera.
Es cierto que en muchos puestos es habitual cambiar de actividad con mucha frecuencia,
sobre todo si tenemos cierta responsabilidad, tenemos que coordinar las tareas de otras
personas o nuestro rol depende de los proyectos que tengamos que desarrollar. Pero, en
cualquier caso, a lo largo de los años puede notarse ese agotamiento. Cambiar de trabajo es
una opción, lo cual hace unos años era muy poco habitual. Sin embargo, que una persona
tenga varios trabajos a lo largo de su vida es ahora lo más normal.
Esa posibilidad de tener un trabajo alternativo o secundario puede aportarnos una frescura en
nuestro camino laboral que haga que seamos más felices en nuestra profesión y, en general, en
nuestra vida. Por eso cada vez se habla más del concepto de Side Project, una forma de
avanzar o mejorar en temas profesionales que incluso puede ayudar también a la empresa a la
que nos dedicamos. Es el famoso 20% del tiempo que dedican los trabajadores de Google a
proyectos personales, que luego pueden convertirse en nuevos negocios de la empresa. Aquí
se incluye también la actividad secundaria que realizan muchos profesionales que, además,
son profesores, conferenciantes o escritores, entre muchas otras opciones.
En un futuro no muy lejano, en el que las personas cada vez tendremos que realizar menos
tareas rutinarias porque habrá un so ware o robot que lo hará de una manera más eficiente
que nosotros, lo que marcará la diferencia en relación con el trabajo será el talento, no el
tiempo que dediquemos a nuestras tareas profesionales ni la experiencia que tengamos
realizando determinadas labores. Entonces tomará mucha más relevancia la creatividad, la
improvisación, la capacidad para resolver problemas y la forma en la que entendamos las
necesidades de las personas, de los clientes o de nuestros compañeros de trabajo.
Por lo tanto, es importante que comencemos a darle más valor a todos estos aspectos, en lugar
de a otros que hasta hace poco se consideraban prioritarios, como tener cierta titulación o
experiencia. Cada vez adoptarán más valor las denominadas habilidades blandas, mientras
que las otras poco a poco van a ir quedando en segundo plano.
Llegados a este punto muchos os podéis estar preguntando, me gusta este planteamiento,
pero ¿cómo puedo comenzar a aplicarlo en mi trabajo o en mi empresa? Por suerte
comenzamos a contar con herramientas que pueden resultarnos de gran utilidad en este
proceso, como son las metodologías ágiles y especialmente una metodología de gestión del
talento llamada OKR, de la que os hablaremos en próximos artículos de Futurizable.
Hace unas semanas lanzamos desde Futurizable una encuesta con el objetivo de conocer
vuestra opinión sobre el uso que estáis haciendo de esta nueva herramienta digital y las
expectativas de futuro que pensáis que pueden tener.
100 lectores de Futurizable habéis participado en la encuesta, así que lo primero es daros las
gracias porque a partir de vuestras respuestas podemos mejorar nuestra visión sobre el tema y
tenemos la oportunidad de compartirla aquí para entre todos ir construyendo conocimiento.
Además, vamos a desgranar a continuación algunas ideas que nos habéis regalado al respecto
del desarrollo futuro de los chatbots y asistentes virtuales.
Sin duda unas respuestas muy ilustrativas al respecto de la situación actual de uso de esta
tecnología, donde claramente observamos que hay aún mucho por mejorar, pero donde se
intuye que el recorrido a largo plazo puede ser muy importante.
Resulta llamativo que de 100 personas que habéis participado en esta encuesta tan solo se
hayan realizado 4 recomendaciones de chatbots. Teniendo en cuenta que cada vez son más
las empresas que apuestan por crear este tipo de herramientas en aspectos como la atención
al cliente y de startups que están desarrollando aplicaciones para todo tipo de utilidades,
queda claro que aún estamos en un momento muy incipiente en lo que se refiere a la
utilización de esta tecnología más allá de los servicios que ofrecen las grandes empresas
tecnológicas ya sea a través de los Smartphones o de los Altavoces Inteligentes.
Por lo tanto, en base a las respuestas de la encuesta sobre las expectativas de futuro de esta
tecnología, donde vemos que el recorrido es muy grande, pero por otro lado la aplicación real
en estos momentos está siendo muy escasa, podemos pensar que nos encontramos ante una
gran oportunidad que debemos aprovechar todos aquellos que podemos tener iniciativa para
la puesta en marcha de nuevos negocios digitales.
Los mercados de valores andan muy revueltos. Podría ser porque están anticipando una nueva
crisis económica o simplemente porque los que llevan mucho tiempo ganando dinero
aprovechan el final de año para tomar beneficios. Pero probablemente sea una combinación
de ambas cosas y otras muchas, sobre todo teniendo en cuenta que resulta casi imposible
conocer en un momento determinado los intereses del conjunto de los inversores, además de
que en los mercados hay grandes distorsiones ocasionadas por la especulación y la posibilidad
de invertir tanto apostando porque un valor va a cotizar al alza como porque lo vaya a hacer a
la baja.
Es por esto por lo que en los telediarios hay tanta diferencia entre los espacios de la
información meteorológica y la de la información bursátil. En la primera nos cuentan el tiempo
de hoy y la previsión de los próximos días debido a la situación de la atmósfera y en la segunda
intentan explicarnos por qué la bolsa ha subido o bajado, pero nunca nadie se atrevería a decir
qué va a ocurrir mañana. Es como si un periodista deportivo se atreviera a dar los resultados
del partido del día siguiente y también la razón por la que tiene tanto éxito el tema de las
apuestas deportivas.
Además, a la complejidad habitual que presentan los mercados financieros tenemos que
añadir un fenómeno más reciente en el que encontramos cómo empieza a haber empresas e
inversores que están intentando aplicar la Inteligencia Artificial a la toma de decisiones de
inversión, lo cual nos lleva a un escenario mucho más complejo que nadie sabe qué
consecuencias puede tener para los mercados de valores. En este punto tengo que decir que
he conocido a gente muy inteligente intentando crear sistemas automatizados de inversión
basados en Inteligencia Artificial y por ahora ninguna de esas personas ha desaparecido
porque se haya comprado una isla en el Pacífico gracias al resultado de sus inversiones.
En todo caso, aquí tenemos que diferenciar dos formas de utilizar la Inteligencia Artificial en el
mundo de la inversión o especulación. En primer lugar, la que probablemente tenga más
sentido en el corto o medio plazo, que consiste en optimizar y maximizar la forma en la que
aplicamos determinado método de inversión con el objetivo de automatizar determinadas
acciones o incluso la toma de decisiones. La segunda forma sería esperar que una Inteligencia
Artificial sea capaz de entender cómo funciona un determinado mercado de valores para
ayudar al inversores a poder anticiparse a la hora de tomar la decisión de invertir o desinvertir
en el momento que le pueda reportar un mayor beneficio.
Como os podéis imaginar la tarea no debe ser sencilla, porque de serlo ya lo habría conseguido
alguien. Pero lo que sí que puede estar ocurriendo es que aquellos que están trabajando en su
desarrollo están haciendo que la complejidad en los mercados sea mayor, quizás por su propia
evolución o porque cada vez son más los activos que se suman a las posibilidades existentes
en el momento de llevar a cabo inversiones o especular. Así, a los activos tradicionales como
las acciones de empresas, las materias primas o las divisas, se ha sumado recientemente el de
las criptomonedas, un mercado que hace 10 años no existía y que en su mejor momento a
principios de este año llegó a tener una capitalización total de más de 800 billones de dólares.
Por otro lado, también empezamos a encontrarnos con una aplicación directa de la
Inteligencia Artificial en los mercados de inversión que parece estar distorsionando la manera
habitual de operar en estos mercados, al igual que lo hizo en su momento la opción de invertir
en corto o posicionarse a la baja con determinados tipos de activos. Ahora los algoritmos y
robots virtuales están permitiendo el desarrollo de un nuevo modelo de inversión denominado
High Frequency Trading, que permite a los que la utilizan realizar millones de operaciones por
segundo, aprovechando la demora de tiempo con la que la bolsa muestra la información de las
cotizaciones de los activos. Como os podéis imaginar, este nuevo tipo de forma de inversión se
basa en aprovechar una pequeña ineficiencia del sistema para obtener un pequeño beneficio,
pero lo que ocurre es que cuando lo repercutimos en millones de operaciones, puede suponer
un buen modelo de negocio para los que lo desarrollan.
Lo malo es que cuando este tipo de operaciones se masifican, como está ocurriendo en estos
momentos, en relación con el número de operaciones que se produce en la bolsa, cualquier
fallo que se produzca a nivel del sistema puede generar un caos en los mercados. Del mismo
modo que este tipo de sistemas se basan en optimizar al máximo las operaciones, lo que está
sucediendo es que las fluctuaciones se vuelven mucho mayores, algo que podría ser una
explicación a lo sucedido el lunes 5 de febrero de 2018, cuando el Dow Jones llegó a caer en un
momento determinado más de un 6%, la mayor caída en su historia. Un fenómeno que se ha
denominado como Lunes Negro.
A continuación vamos a conocer algunas startups que han decidido aplicar la Inteligencia
Artificial para mejorar la inversión en mercados financieros, sobre todo cuando se trata de dar
una recomendación de productos personalizados en función de las características de los
inversores, con el objetivo de reducir los riesgos asociados con esta actividad.
ETFmatic, fundada por el emprendedor español Luis Rivera, quiere simplificar el proceso de
inversión en los activos financieros denominados ETF, que son un tipo fondo de inversión cuya
principal característica es que se negocia en mercados secundarios de valores. La empresa
utiliza estrategias de inversión basadas en índices y fondos cotizados en bolsa para construir y
administrar carteras de inversión únicas adaptadas a las preferencias y circunstancias
personales de sus clientes. Su sistema de Inversiones Automatizadas permite crear fácilmente
una cartera única de activos personalizada en función del cliente.
Two Sigma se define como un gestor de inversiones con vocación científica, que lleva
aplicando tecnología y ciencia de datos a los pronósticos financieros durante más de 17 años.
Sus avances pioneros en Big Data, Inteligencia Artificial y Aprendizaje Automático han
impulsado a la industria de la inversión. La empresa analiza los datos de las noticias para
predecir los precios de las acciones, lo cual, bien aprovechado, podría ayudar a predecir los
resultados financieros y generar un impacto económico significativo en todo el mundo.
Swanest propone que la industria financiera tradicional es defectuosa ya que los bancos
impulsan sus propios productos pese a que no ofrezcan buenas rentabilidades, los asesores de
inversión son caros o poco accesibles y los servicios de corretaje tradicionales siguen siendo
complejos. Por ello piensan que ha llegado el momento de diseñar una solución de inversión
que satisfaga las necesidades de las personas: simple de controlar, inteligente en su
comportamiento y transparente. Su equipo reúne un amplio conjunto de conocimientos en los
campos de ingeniería de so ware, gestión de inversiones y algoritmos, aplicando estas
capacidades para desafiar el status quo.
Los primeros Robo Advisors que comenzaron a ofrecer servicios automatizados de inversión
aparecieron por el año 2008 de la mano de las startups estadounidenses Betterment y
Wealthfront. En España se empezaron a poner en marcha en el año 2014 con la aparición de
Feelcapital y posteriormente otras startups como Indexa Capital, Inbestme, Finizens y
Finanbest. A finales de 2017 los Robo Advisor españoles llegaron a gestionar más de 100
millones de euros.
Como hemos podido comprobar a lo largo de este artículo, las aplicaciones de la Inteligencia
Artificial en la actividad de inversión en mercados financieros puede tener un gran recorrido y
ofrecer una gran utilidad, pero apenas nos encontramos en los albores de esta actividad. La
complejidad que presentan estos mercados y el bajo interés del gran público por lo relativo a la
inversión hacen que no estemos viendo un desarrollo tan importante como en otras
actividades más cotidianas para la gente.
Así que, como conclusión, lo que seguramente acabemos viendo en el corto plazo es cómo se
produce una combinación de la Inteligencia Artificial con los modelos de inversión en el largo
plazo, donde la tecnología jugará un papel muy importante en el momento de optimizar
procesos, reducir los costes asociados a la inversión y elegir los mejores activos en los que
invertir.
Hagamos un símil, por ejemplo, con la inversión inmobiliaria: si el Big Data y la Inteligencia
Artificial son utilizadas por startups como Geoblink para ayudar a las empresas a tomar
mejores decisiones para saber dónde localizar sus negocios de venta al público, ¿por qué no
hacer lo mismo cuando se trata de ayudar a los inversores a localizar zonas en las que vaya a
haber una mejor evolución de los precios de las viviendas debido a movimientos de la
población?
Los altavoces inteligentes, como el Echo de Amazon, podrían convertirse el regalo estrella de
las Navidades de 2018 y, si esto ocurre, supondría el inicio de un gran cambio en la forma en la
que las personas interactuamos con la tecnología. Si se popularizan los altavoces inteligentes,
poco a poco iremos sustituyendo una parte importante del uso que hacemos de teclados,
ratones y pantallas a la hora de transmitir instrucciones a ordenadores, smartphones y otros
dispositivos para hacerlo principalmente a través de la voz.
Además, otros dispositivos que aún se encuentran en fase muy inicial de desarrollo, como
pueden ser los auriculares inteligentes y las gafas inteligentes, nos llevarán a un escenario en el
que estaremos en todo momento muy pegados a la tecnología contando con esta nueva
posibilidad de interactuar con ella, principalmente a través de la voz.
Para profundizar sobre esta idea nos gustaría que participaras en una encuesta que nos puede
ayudar a conocer mejor el grado de aceptación y adopción de las nuevas interfaces digitales
a la hora de interactuar con la tecnología.
Muchas gracias por tu colaboración, que nos será de gran ayuda para las iniciativas que
queremos desarrollar en Futurizable sobre este tema.
Bienvenido a la encuesta de
chatbots de Futurizable. ¿Qué opinas
de los chatbots?
powered by Typeform
Etiquetas: asistentes virtuales, chatbots
La noticia del comienzo de curso en Europa es la posible eliminación del cambio de hora que
se lleva a cabo en otoño y primavera en muchos países del mundo, presumiblemente para
ahorrar energía, aunque entre otras cosas, haya gente que pueda pensar que se trata de una
especie de estrategia de los gobiernos para tenernos más controlados.
El caso es que se está dedicando mucho tiempo y recursos a tratar un tema que no parece
tener una solución clara y donde existen muchas dudas con respecto a la necesidad o no de
acometer estos cambios. Además de que realmente no sabemos las consecuencias que tendrá
para la sociedad y la economía cuando se aplique el nuevo modelo.
Por este motivo es por el que podríamos plantearnos recurrir a la Inteligencia Artificial, en
principio para que nos ayude en la toma de la decisión. Aquí probablemente ya lleguemos
tarde, pero sobre todo nos puede servir para entender mejor las consecuencias del cambio y
poder ir aprendiendo de la experiencia para futuras situaciones en las que haya que tomar
decisiones de cierta complejidad.
Cuando te planteas utilizar la Inteligencia Artificial para tomar una decisión de este tipo lo
primero que piensas es en los datos, si contamos con el histórico de datos necesario relativo a
los diferentes factores que influyen en la decisión, como para poder alimentar a una
Inteligencia Artificial que nos ayude a tomar una decisión. En este caso del cambio de hora será
necesario considerar no solo el tema del consumo energético, sino también aspectos
relacionados con el bienestar de las personas, tanto a nivel físico como psicológico, la relación
con el funcionamiento de los negocios, la sincronización de los medios de transporte… y
muchas otras cosas de las que se está hablando con respecto a la necesidad o no de realizar
este cambio.
La idea es que en lugar de basar nuestra decisión en las opiniones o sensaciones de políticos,
periodistas o incluso de expertos en la materia, podamos tener un dato que nos diga,
considerando todos los aspectos que influyen en la decisión y habiendo realizado una
baremación justa de todos estos aspectos, si al dejar de hacer el cambio de hora mejoraremos
un porcentaje X respecto a la situación actual.
Entonces, cuando haya pasado un año del cambio y hayamos tenido a esa Inteligencia Artificial
midiendo todos los parámetros que se tuvieron en cuenta para tomar la decisión, podamos
decidir si la decisión fue acertada, porque de media hayan mejorado los factores sobre los que
se tomaron las decisión o, por el contrario, hemos cometido un error y debemos rectificar
(como ocurrió entre 2015 y 2016 en Chile) para quedarnos como estábamos, pero sabiendo
que ahora contamos con una herramienta que en próximas ocasiones nos ayudará a tomar
mejores decisiones.
Aquí lo más importante es tomar la decisión de empezar a utilizar el Big Data y la Inteligencia
Artificial para esa toma de decisiones, que a nivel de gobiernos conlleva unas connotaciones
importantes, de manera que la decisión final la acabará tomando un político, pero que sin
embargo a nivel de gestión pública y empresarial, sí que podría llegar tener una gran utilidad si
se deciden automatizar cierta toma de decisiones.
Por ejemplo, a nivel político se podrían utilizar herramientas de este tipo para entender mejor
las consecuencias de la toma de decisiones, como si la decisión de aumentar o reducir los
impuestos tiene un efecto positivo o negativo en la recaudación pública, considerando los
efectos que tiene ese aumento o reducción de impuestos en la economía de las personas o las
empresas y el consiguiente efecto sobre la recaudación. O también, por ejemplo, el efecto que
tendría aumentar las penas a nivel legal cuando se producen determinados delitos, como
provocar incendios, para saber si realmente se produce una mejoría en la situación o debemos
dedicar los recursos a otros aspectos como la concienciación, la vigilancia o la intervención
una vez que se ha producido el incendio.
Con el objetivo de tener una visión más amplia de este tema y comenzar a pensar en las
posibles connotaciones que tendría el desarrollo de este tipo de herramientas, hemos lanzado
una encuesta a los seguidores de Futurizable en Twitter que podéis ver aquí.
Además, hemos pedido a una serie de expertos en la materia que nos aporten su visión sobre
este tema respondiendo a la siguiente pregunta:
¿Consideras que deberíamos desarrollar una Inteligencia Artificial que nos ayude a decidir
si en Europa se debe dejar de realizar el cambio de hora en otoño y primavera?
La inteligencia artificial nos es muy útil para obtener predicciones cuando los patrones son
similares a otros que hemos visto con anterioridad. Si tengo datos de consumo eléctrico de
miles de días en el pasado, etiquetados convenientemente, puedo saber con un bajísimo nivel
de error cuál será el consumo del día 19 de septiembre, si conozco cuál fue el consumo del día
18 y anteriores y además sé que se espera una temperatura media de 22,3 grados, es día
laborable, martes, y hay partido de Champions.
Los datos nos pueden ayudar, pero no podemos esperar introducirlos en un sistema y obtener
directamente la respuesta. Alguien tiene que crear un modelo y ese modelo tendrá sus sesgos y
condicionantes. Podemos ejecutar simulaciones utilizando diferentes premisas, pero
dependiendo de cómo diseñemos el modelo obtendremos una respuesta u otra. Lo que está
claro es que, con un buen modelo, es mucho más probable que tomemos una buena decisión
que si lo hacemos de cualquier otra forma.
¿Consideras que deberíamos desarrollar una Inteligencia Artificial que nos ayude a decidir
si en Europa se debe dejar de realizar el cambio de hora en otoño y primavera?
Hay dos vías de aplicación de la IA para toma de decisiones. Uno es el del razonamiento
inductivo, que es el típico usado en escenarios de Aprendizaje Automático (Machine Learning,
Minería de Datos…). Ello requiere de la existencia de (multitud de) casos de entrenamiento
para una función de decisión relativamente sencilla y bien aislada. Los sistemas de IA, a partir
de ejemplos, son capaces de sustituir a las personas en esas tareas.
La segunda vía es la del razonamiento deductivo. Consiste en desarrollar sistemas que puedan
emular el razonamiento humano, enlazando hechos, hipótesis y relaciones de causalidad o de
otros tipos, asimilables a los mecanismos del razonamiento lógico. Estos sistemas pueden
tener una base de Inteligencia General, o pueden incorporar el conocimiento formalizado que
manejan los expertos en el área del saber de que se trate. El objetivo es que los sistemas de IA
construidos de esta manera puedan sustituir a las personas en tareas cognitivas similares.
Ninguna de las vías anteriores es de utilidad para un escenario de toma de decisiones como el
que propones. Sin embargo, este asunto del cambio de hora resulta una cuestión bastante
opinable. La IA permite, por ejemplo, recoger las opiniones espontáneas de los ciudadanos
expresadas a través de redes sociales. Las tecnologías de procesamiento de lenguaje natural
pueden automatizar el análisis de esas opiniones, incluyendo:
Estos análisis están siempre sujetos a sesgos derivados de la composición de población que se
expresa en medios sociales sobre estos temas, igual que lo está cualquier tipo de encuesta.
Por supuesto, existen métodos y modelos analíticos y de simulación, fuera del ámbito de la IA,
que deberían permitir estimar el impacto real del cambio de hora sobre el consumo de energía,
lo mismo que el coste económico que representa para sectores como el transporte o la
distribución.
¿Consideras que deberíamos desarrollar una Inteligencia Artificial que nos ayude a decidir
si en Europa se debe dejar de realizar el cambio de hora en otoño y primavera?
Este camino, en realidad, ya se ha iniciado en cierta manera. Por ejemplo, Orreco utiliza el
machine learning, a partir de los datos de monitorización de salud y rutinas de vida de atletas
para predecir posibles lesiones y para mejorar su rendimiento. Llegaron a un acuerdo en 2015
con IBM para integrar el ecosistema Watson en su app y también utilizan Deep Learning para
identificar patrones y relaciones entre los datos que, a priori, no se intuían.
Apple y sus ResearchKit y CareKit permiten el desarrollo de apps que recogen los datos con un
tratamiento automatizado que después permitirá utilizar sistemas de reconocimiento de
imagen o modelos de machine learning (Core ML) para descubrir formas de mejorar la vida de
las personas, dentro de contextos diferentes. De momento, se ha utilizado sobre todo para
patologías concretas como el alzheimer, la diabetes o para mejorar el día a día de personas con
asperger, pero la multitud de datos que captan nuestros dispositivos podrían aprovecharse
para detectar hábitos que no son tan saludables como podíamos pensar o proponer
estrategias que mejoren nuestra calidad de vida.
Algo como el cambio de hora, que afecta a millones de personas de forma sistemática, dos
veces al año, puede tener un impacto que merezca la pena analizar. Pero, desde mi punto de
vista, es mejor hacerlo dentro de un contexto que englobe todos los aspectos de la salud, y un
conjunto mayor de factores, porque también puede ser relevante analizar los efectos del
cambio de hora en relación con otros factores de la vida diaria.
¿Consideras que deberíamos desarrollar una Inteligencia Artificial que nos ayude a decidir
si en Europa se debe dejar de realizar el cambio de hora en otoño y primavera?
El reciente debate sobre la supresión del cambio de hora en la Unión Europea nos lleva a
plantearnos si, en lugar de crear una comisión de expertos para estudiar la reforma, podría
existir una inteligencia artificial que hiciera un informe de evaluación o incluso que tomara la
decisión.
En los últimos tiempos es común el estudio del desarrollo de algoritmos como ayuda a la
toma de decisión de médicos, tribunales, consejos de dirección de empresas o, incluso,
gobiernos de países.
Una de las principales diferencias entre ambos casos es que el resultado de la diagnosis es
correcto o erróneo de forma objetiva. Y además, cuando se refiere al resultado de una prueba
concreta, como una imagen, está acotada. En cambio, el veredicto de un tribunal, la estrategia
de una compañía o la política económica de un país se ven afectadas por una cantidad de
información mucho mayor, y difícilmente predeterminada.
Cuando una persona toma decisiones complejas, más allá del análisis técnico de la cuestión,
se verá afectada por unos condicionantes que pueden ser ideológicos, culturales o de otra
naturaleza. Esto no es necesariamente ni bueno ni malo, pero plantea una complicación
añadida a la hora de delegar la decisión a una inteligencia artificial: ¿cuáles son los sesgos con
los que debe ser creada esa IA?, ¿y qué hay de los sesgos implícitos, los que se crean sin
pretenderlo?
Hoy en día estamos lejos de tener sistemas que tomen por sí mismos estas decisiones
complejas que consideramos tan humanas. Sin embargo, sí estamos ya en el camino de crear
sistemas que valoren situaciones objetivas como la diagnosis. Estos sistemas nos tienen que
servir de apoyo para tomar esas decisiones en las que no hay una verdad absoluta.
Sin duda, cuatro visiones muy interesantes sobre la utilidad concreta que puede llegar a
ofrecernos la Inteligencia Artificial en la toma de decisiones complejas. Ahora, tras tratar este
tema tan concreto del cambio de hora y entender la importancia de que empecemos a contar
con buenas fuentes de datos, que resultarán fundamentales cuando queramos recurrir a la
Inteligencia Artificial para la toma de decisiones, vamos a pasar a pensar en temas más
importantes, en relación a lo que hace referencia el título del artículo: los grandes problemas
de la humanidad.
Cada vez está siendo más frecuente que conozcamos noticias al respecto de cómo las Fake
News están provocando problemas en determinados países, lo cual afecta a nivel político,
también con consecuencias a nivel de violencia, y en lo económico. Ante esta situación son
muchos los expertos en Inteligencia Artificial que ya trabajan en buscar soluciones, como es el
caso del laboratorio de I+D de la empresa Expert System, que participa en el proyecto Co-
Inform, promovido por la Comisión Europea, con la vocación de apoyar a los ciudadanos,
periodistas o políticos en la cocreación de soluciones encaminadas a combatir la información
falsa o errónea y promover una formación de opinión y toma de decisiones mejor informada a
distintos niveles de la sociedad. La empresa colabora con este proyecto aportando su
experiencia y tecnología de Inteligencia Artificial, en el ámbito del análisis semántico de
grandes volúmenes de texto en entornos multilingües. También investiga métodos y
herramientas para el análisis de distintos fragmentos de información, cuyos resultados pueden
llevar a identificar publicaciones falsas en redes sociales, haciendo aflorar relaciones hasta
entonces tácitas entre dichos fragmentos.
También en este mismo ámbito nos encontramos con la iniciativa Fake News Challenge donde
en la mayoría de propuestas el enfoque que se busca es utilizar el Aprendizaje Automático
sobre corpus de contenido, utilizando muchos indicadores para sospechar de una Fake News,
como pueden ser: indicadores internos del contenido (representatividad del título, grado de
matching título-artículo), grado de click bait del título; análisis de fuentes (citas/referencias de
personas/organizaciones, estudios; análisis del tono emocional; stance detection ─noticia
polarizada─); validación por fact checkers; existencia de falacias lógicas; inferencias
exageradas; e indicadores externos como puede ser la originalidad del tema; representatividad
de las fuentes (las fuentes tratan de verdad sobre el texto); la reputación de las fuentes (más o
menos confiables); el número de anuncios contenidos y el número de llamadas a compartición
social. Sobre estos aspectos también trabaja la empresa española MeaningCloud, que ha
construido una API con la que dado un texto en español o inglés puede reportar un indicador
de porcentaje de confianza de las noticias.
Utilizando la Inteligencia Artificial en la lucha
contra el terrorismo
Desde hace años, empresas tecnológicas como Palantir trabajan afanosamente para ayudar a
la sociedad a librarse de la lacra que supone el terrorismo. Para ello se dedican a escudriñar las
redes sociales, y todos los medios online a los que son capaces de acceder, en busca de
actividades sospechosas que puedan servir para la investigación de las fuerzas de seguridad.
Es por esto que la empresa cuenta entre sus clientes con organizaciones como la CIA, la NSA y
el FBI, a las que ofrece su so ware de inteligencia y servicios de Big Data, que han ayudado a la
empresa convertirse en la referencia a nivel mundial en este ámbito y la ha llevado a una
valoración de más de 20.000 millones de dólares, por el gran interés que tiene el capital riesgo
por estos temas.
Un ejemplo del trabajo que realiza Palantir es el so ware de minería de datos que permite
establecer vínculos entre números de teléfono, movimientos de tarjetas de crédito, direcciones
postales, listas de amigos en Facebook, fotos subidas a Instagram y hashtags de Twitter, entre
otros aspectos. Lo cual resulta de utilidad en la búsqueda de sospechosos, aunque luego claro
está que es necesario realizar todo tipo de verificaciones, ya que por el momento la tasa de
error en los resultados puede ser muy elevada y esto puede generar muchos problemas a nivel
legal.
Otro ejemplo de startup que se dedica el desarrollo de Inteligencia Artificial en la lucha contra
el terrorismo es Faception, un proyecto israelí que cuenta con un contrato de 750.000 dólares
con una agencia de seguridad nacional estadounidense para detectar a los terroristas por su
rostro, gracias a un algoritmo que funciona en tiempo real, analizando imágenes subidas a las
redes sociales y vídeos en streaming.
Además donde seguro que ya hay más dudas que certezas es en la estrategia a seguir para
revertir esta problemática. Porque en lo que se refiere en la lucha del cambio climático está
claro que reducir la emisión de CO2 a la atmósfera es la prioridad, además de reducir la
emisión de otras sustancias contaminantes que resultan perjudiciales para nuestra salud, pero
lo que ya no parece tan sencillo es tomar una decisión con respecto a los métodos a utilizar
para eliminar el C02 en exceso que tenemos actualmente, ya que se han propuesto muchas
ideas para ello, pero es difícil conocer todas las consecuencias negativas que estas acciones
proactivas podrían tener.
Y aquí es donde entra en juego la Geoingeniería que es un tema del cual aún no hemos
hablado en Futurizable y al que dedicaremos atención más adelante, ya que cada vez surgen
más iniciativas científicas en este ámbito. Iniciativas para las que será fundamental recurrir a la
Inteligencia Artificial y que esta nos ayude a realizar las simulaciones que muestren las
posibles consecuencias de que se realicen intervenciones concretas para modificar el clima en
busca de revertir los efectos del cambio climático. Resultarán de gran utilidad los 50 millones
de dólares que la empresa Microso quiere invertir durante los próximos 5 años con el objetivo
de aplicar la Inteligencia Artificial en el marco del programa AI for Earth.
Un ejemplo más de que la tecnología, cuyo uso sin una adecuada medición de las
consecuencias que tiene para nuestro futuro, nos ha llevado a situaciones difíciles de resolver,
puede ser parte de la solución a los problemas actuales a los que se enfrenta la humanidad.
Pero parece claro que la tecnología, en este caso la Inteligencia Artificial, no es la solución en sí
misma para estos problemas, sino una herramienta que, en manos de los científicos de datos,
nos ayudará a tomar mejores decisiones para trazar las estrategias a seguir en el futuro.
Una de las noticias más interesantes del verano, en lo que a innovación tecnológica se refiere,
ha sido el anuncio por parte de Google del logro de haber reducido en un 40% el gasto de
energía para la refrigeración de sus datacenters, gracias a la Inteligencia Artificial. Aunque la
noticia es de agosto de 2018 tenemos que remontarnos a enero de 2014 para entender a qué se
debe este fantástico resultado, que va a permitir a la empresa ahorrar millones de dólares y
reportar también un considerable beneficio a nivel ambiental.
En enero de 2014 fue cuando Google compró la empresa dedicada a las redes neuronales y
aprendizaje automático DeepMind, mundialmente conocida desde entonces por haber
realizado demostraciones de fuerza al desarrollar inteligencias artificiales capaces de vencer a
humanos al juego de Go y a otras máquinas en varios tipos de juegos de ordenador.
La compra de DeepMind podría considerarse una de esas jugadas maestras, que al haber sido
capaz de repetir varias veces, prueba la extremada inteligencia de los fundadores de Google.
En el año 2003 cuando Google ya era mundialmente conocido como buscador y había
demostrado que era mejor que el resto de alternativas del mercado, compró la tecnología
desarrollada por Applied Semantics, lo cual le permitió desarrollar su sistema de publicidad
contextual Google Adwords, que hasta ahora se ha presentado como el mejor modelo de
negocio posible para la empresa tecnológica. En este punto vale la pena comentar que,
aunque muchas empresas intentaron replicar ese modelo de publicidad basada en el contexto,
ninguna fue capaz de conseguirlo y de ahí lo de jugada maestra que comentábamos al
principio.
Y fue en 2014 cuando Google hizo su tercera gran compra, con la que inicialmente había más
incertidumbre con respecto a las implicaciones que tendría para la empresa a nivel de negocio.
Cuatro años después comenzamos a ver los primeros resultados, precisamente en el que
probablemente era uno de los mayores dolores del gigante tecnológico, el gran gasto
energético derivado de la refrigeración de sus servidores. La situación se podría asemejar a
una escena de película en la que una gran bestia con un apetito voraz, acaba con todo lo que
encuentra en su camino, en este caso la energía. Esto llevó a la empresa a consumir el 0,01%
de la energía eléctrica a nivel mundial y a tener que hacer una apuesta importante por las
energías renovables, si no quería convertirse en uno de los principales culpables del deterioro
ambiental y la contaminación del planeta.
Pero la compra de DeepMind tendrá probablemente unas connotaciones aún más importantes
para Google a nivel de negocio y esto ocurrirá cuando se tome la decisión de sustituir el
modelo de buscador actual por el de asistente virtual, de forma que cambiará completamente
la experiencia de los usuarios al hacer una búsqueda. Cada vez que necesitemos algo, en lugar
de recibir millones de sugerencias por parte del buscador, recibiremos únicamente la
respuesta que mejor se adapte a nuestras necesidades. Pero eso es otra historia.
Sin duda, el caso de Google utilizando la Inteligencia Artificial para mejorar en sus procesos
internos resulta muy representativo y un ejemplo a seguir para muchas empresas que verán
cómo gracias a estas tecnologías pueden resultar más eficientes, productivas y competitivas en
el futuro. Lo que tenemos que hacer entonces es descubrir en cada empresa cuál es el punto
de partida para comenzar a utilizar esta tecnología y a partir de ahí desarrollar una estrategia
para apalancarnos lo máximo posible en el so ware y los algoritmos.
La falta de productividad le cuesta a las pymes
españolas más de 20.400 millones de euros al
año
Así se titula el estudio que ha llevado a cabo la empresa Sage a 3.000 empresas en 11 países
entre los que se encuentran España, Reino Unido, Estados Unidos, Francia y Alemania; y donde
se revela que la pérdida económica por la falta de productividad a nivel global ya ha alcanzado
los 275.000 millones de dólares en lo que va de año. En el caso de España la pérdida
económica asciende a los 20.400 millones de euros en 2018, lo que supone pérdidas 1.105
euros por segundo. Este dato es el reflejo del tiempo destinado por el personal de las
pequeñas y medianas empresas dedicado a labores rutinarias y de administración que, de
digitalizarse, podría destinarse a actividades enfocadas en desarrollo estratégico para el
crecimiento económico de la empresa. El informe también indica que sólo un aumento del 5%
en la productividad de las empresas españolas supondría un incremento del PIB nacional en
13.600 millones de euros.
El estudio sugiere a las empresas que para mejorar su eficiencia redirijan las horas invertidas
en tareas básicas a labores de innovación, atracción de clientes y aumento de ingresos. Sólo
así las pymes podrán avanzar de forma efectiva, cuando los informes de gastos, facturación,
nómina y gestión de pagos no sean las actividades que más tiempo ocupen a los empresarios.
Aquí hay que tener en cuenta que este estudio habla simplemente de digitalización, de forma
que no llega a la verdadera transformación digital que ya han iniciado muchas grandes
empresas, pero que las pymes aún se encuentran muy lejos de poder afrontar.
Y aquí es donde volvemos a encontrarnos con otra noticia de la empresa Sage porque también
ha publicado un documento dedicado resolver dudas sobre cómo aplicar la Inteligencia
Artificial de forma efectiva en las empresas.
Todo esto está muy bien, pero también tenemos que saber cómo pueden las empresas sacar
partido a la Inteligencia Artificial en sus actividades productivas, de manera que realmente
aprovechen estas innovaciones para mejorar en sus negocios.
A continuación, lo que vamos a conocer son ejemplos de algunos de estos desarrollos que ya
están accesibles para aquellas organizaciones que quieran comenzar a aplicar la Inteligencia
Artificial en su actividad y lo vamos a hacer a través de las actividades en las que consideramos
que esta tecnología puede aportar un mayor valor en el corto plazo.
1. Ciberseguridad
La seguridad informática va a ser uno de los principales caballos de batalla para las empresas
en los próximos años. Tengamos en cuenta que nos movemos en un contexto en el que las
empresas deben transformarse digitalmente para ser competitivas en el futuro, por lo tanto
cada vez estarán más basadas en el so ware y es precisamente esto lo que va a hacer que se
vean expuestas a todo tipo de ataques informáticos. A este respecto la Inteligencia Artificial ya
está jugando un papel importante, por ejemplo, por tener un dato que ofrece la consultora de
ciberseguridad e inteligencia Webroot, la IA es utilizada por aproximadamente el 87% de los
profesionales en ciberseguridad de los Estados Unidos. Aunque siempre que hablamos de
ciberseguridad tenemos que fijarnos también en el lado de los atacantes que, como os podéis
imaginar, también están aprovechando los últimos avances en Inteligencia Artificial para
mejorar sus herramientas y estrategias de ataque.
Este ejemplo de colaboración entre las máquinas y los humanos resulta muy representativo
del modelo de trabajo futuro de aprovechamiento de la Inteligencia Artificial por parte de las
empresas. En la mayoría de casos, en los próximos años no vamos a ver cómo las máquinas le
quitan el trabajo a las personas sino cómo las personas utilizamos nuevos tipos de máquinas
para hacer nuestro trabajo de una manera mucho más efectiva y con ello aumentar el impacto
de nuestra actividad.
«Los humanos deben fusionarse con las máquinas, o volverse
irrelevantes en la Era de la Inteligencia Artificial». Elon
Musk
2. Marketing
Adext es una startup fundada en México y basada en Estados Unidos, que ha recaudado 5
millones de dólares de financiación con el objetivo de aplicar Inteligencia Artificial y Machine
Learning en el desarrollo de aplicaciones que ayuden a las empresas a encontrar la audiencia
que le proporcione el mejor rendimiento para sus campañas publicitarias. Esta solución
tecnológica de publicidad digital busca obtener el menor costo por conversión y el mayor ROI,
a través de una herramienta de Audience Management as a Service que utiliza Machine
Learning para automatizar el manejo y la optimización de los anuncios publicados en
plataformas de publicidad como Google, Facebook, Instagram y YouTube.
Otras aplicaciones de la Inteligencia Artificial en el área del marketing en las que ya trabajan
otras startups y empresas para desarrollar so ware y servicios específicos pueden ser:
Al igual que ocurre en el área de marketing, la disponibilidad de una gran cantidad de datos y
la posibilidad de poder utilizar técnicas de Inteligencia Artificial para sacar provecho de ellos,
por medio de la automatización de determinados procesos, va a resultar una ventaja
competitiva para muchas empresas en el futuro. Lo veremos en multitud de áreas de la
empresa como es estrategia, operaciones, producción, finanzas, administración… y aunque
durante mucho tiempo la toma de decisiones seguirá siendo responsabilidad de las personas,
cada vez será más habitual que este proceso sea el resultado de un trabajo colaborativo entre
un humano y una máquina, que participa como asistente del directivo responsable de la toma
de decisiones en cada caso.
Un ejemplo de cómo las empresas pueden introducir la Inteligencia Artificial en los procesos
de toma de decisiones es la utilización de la aplicación Einstein, integrada en la plataforma de
CRM Salesforce, que aporta una capa de inteligencia artificial para ofrecer predicciones y
recomendaciones según sus procesos empresariales únicos y los datos del cliente, lo cual
permite utilizar la información para automatizar respuestas y acciones, a fin de lograr, por
ejemplo, que los empleados sean más productivos y los clientes estén más satisfechos con el
servicio recibido por la empresa.
¿Alguna vez has pensado que una máquina podría jugar un papel de relevancia en un proceso
de reclutamiento? Ese es el objetivo que se ha propuesto la startup rusa Stafory al
crear, gracias a una financiación de 1,1 millones de dólares, un robot virtual que han llamado
Vera. Una tecnología que ya utilizan empresas como IKEA y Pepsi, para realizar las primeras
entrevistas a los candidatos a un puesto de trabajo y clasificar a estos candidatos en función de
los requisitos publicados en la oferta de trabajo. El robot selecciona los curriculums que
considera apropiados para el puesto que se oferta y llama a los candidatos para entrevistarles
por teléfono o por videochat. Mediante esta tecnología se puede reducir el coste de los
reclutamiento en un tercio, ya que el robot puede entrevistar a cientos de solicitantes al mismo
tiempo. Para el desarrollo de Vera se han utilizado tecnología de reconocimiento de voz que le
permite completar tareas complejas y mantener conversaciones, gracias al entrenamiento
realizado con 13.000 millones de ejemplos de lenguaje de televisión, Wikipedia y listados de
trabajo.
5. Atención al cliente
En esta actividad nos encontramos con una startup española llamada Inbenta, que ha
logrando un importante apoyo financiero por parte de empresas como NTT Docomo, que
recientemente ha participado en una ronda de financiación por valor de 6 millones de dólares,
lo que lleva a la compañía a haber recibido en total más de 23 millones de dólares. Dinero que
está facilitando a la empresa construir un so ware basado en la Teoría Sentido-Texto, que
utilizan actualmente más de 250 clientes para realizar múltiples tareas, que les permite ahorrar
costes en sus actividades de ventas y atención al cliente. Esta tecnología de chatbots se basa
en una combinación de inteligencia artificial, programación neurolingüística, búsqueda
semántica y teoría del sentido-texto, gracias a la cual InbentaBot interactúa con los clientes y
facilita sus búsquedas, las transacciones y los restablecimientos de contraseñas, entre otras
acciones, mediante bases de conocimiento, preguntas frecuentes y otros sistemas de ayuda.
Conclusión
Acabamos de conocer 5 actividades empresariales en las que la Inteligencia Artificial va a jugar
un papel importante en los próximos años. Poco a poco iremos descubriendo muchas más de
estas actividades, ya que la mayoría de las grandes empresas tecnológicas han tomado la
decisión de introducir esta tecnología en sus aplicaciones principales, como por ejemplo está
haciendo Google con sus servicios de comunicaciones y gestión de documentos, o en en lo
relativo también a la gestión del spam y las traducciones automatizadas.
De esta forma se presenta ante nosotros una oportunidad para dar un primer paso en lo que se
refiere al uso de la Inteligencia Artificial en nuestras empresas y una buena forma de hacerlo es
comenzando a utilizar las aplicaciones que están desarrollando algunas de las startups que
han decidido apostar por estas tecnologías, como por ejemplo es el caso de x.ai, que ha
logrado captar 44 millones de dólares para mejorar la forma en la que agendamos nuestras
reuniones de trabajo.
Aviso Legal