Está en la página 1de 21

TEMA 4 Inteligencia artificial: El futuro ya está aquí

4.1 Principales conceptos de la inteligencia artificial 2


Conceptos básicos en Inteligencia Artificial 3
Big Data 3
Machine Learning 4
Deep Learning 5
Internet de las Cosas (IoT) 5

4.2 ¿Qué es un algoritmo y cómo funciona? 7


¿Cómo nos comunicamos con las máquinas? 8
¿Qué es una interfaz? 9
Tipos de interfaces 9
Historia de las interfaces gráficas 9
Ventajas interfaces gráficas 10
Ventajas interfaces por voz 10
Realidad extendida 10
Realidad virtual 10
Realidad aumentada 11
Realidad mixta 11
El metaverso 11

4.3 Ética en la inteligencia artificial 12

4.4 Inteligencia artificial para periodistas 14


1. Inteligencia Artificial para automatizar la producción de noticias 15
2. Inteligencia Artificial para periodismo de investigación 17
3. Inteligencia Artificial para mejorar la gestión del archivo del medio 18
4. Inteligencia Artificial para entender lo que necesitan las audiencias 19
5. Inteligencia Artificial para optimizar el “engagement” y las suscripciones 19
7. Inteligencia Artificial para moderación de comentarios 19
8. Inteligencia Artificial para optimizar el uso de imágenes 20
9.Inteligencia Artificial para detectar y corregir sesgos de contenido 20
4.1 Principales conceptos de la inteligencia artificial
En la última década, las investigaciones en Inteligencia Artificial se han disparado.
Elementos que formaban parte de los clásicos de la ciencia ficción como robots, ciborgs y
androides están empezando a convertirse en una realidad.

Para hablar de IA hay que remontarse, según Torra, a 1956 en Estados Unidos. Cuatro
científicos (J. McCarthy, M. Minsky, N. Rochester y C. E. Shannon) se reúnen en la llamada
“Conferencia de Dartmouth” para sentar las bases de la investigación en ese campo. Allí es
donde aparece por primera vez el término “Inteligencia Artificial”.

Los cuatro científicos establecen la teoría de que “cualquier aspecto del aprendizaje u otra
característica de la inteligencia puede en principio ser descrita con precisión de tal forma
que se puede construir una máquina que la simule".

El objetivo de estos investigadores se centraba en construir una máquina que sea capaz de
comportarse con la inteligencia de un ser humano. Predijeron, de una forma un tanto
optimista, que en el plazo de 25 años los ordenadores harían todo el trabajo de los hombres.

La inteligencia artificial (IA) puede definirse como el medio por el cual las computadoras, los
robots y otros dispositivos realizan tareas que normalmente requieren de la inteligencia
humana. Por ejemplo, la resolución de cierto tipo de problemas, la capacidad de discriminar
entre distintos objetos o el responder a órdenes verbales. La IA agrupa un conjunto de
técnicas que, mediante circuitos electrónicos y programas avanzados de computadora,
busca imitar procedimientos similares a los procesos inductivos y deductivos del cerebro
humano. Se basa en la investigación de las redes neuronales humanas y, a partir de ahí,
busca copiar electrónicamente el funcionamiento del cerebro.

Los teóricos de la Inteligencia Artificial se dividen entre los que piensan que las máquinas
sólo son capaces de simular un proceso de razonamiento y aprendizaje (Inteligencia
Artificial débil) y los que creen que serán capaces de adquirir todas la capacidades de la
mente humana (IA Fuerte).

Además podemos encontrar otros planteamientos en la definición de lo que deben hacer las
máquinas para que sean consideradas IA:

● Que sean capaces de actuar como las personas


● Que sean capaces de razonar como personas

Que sean capaces de actuar como las personas


En esto se basa el famoso Test de Turing (1950) planteado por el científico Alan Turing para
responder si una máquina puede pensar. Turing lo explicó en el artículo «Computing
machinery and intelligence» para la revista «Mind», y sigue siendo uno de los mejores
métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la hipótesis
positivista de que, si una máquina se comporta en todos los aspectos como inteligente,
entonces debe ser inteligente.
En ese test se plantea una conversación de cinco minutos con preguntas y respuestas y el
juez del test debe decidir si ha hablado con una persona o con una máquina al comparar las
respuestas con las que haría un humano.

En 1990 se inició un concurso, el Premio Loebner, una competición de carácter anual entre
programas de ordenador que sigue el estándar establecido en la prueba de Turing. Un juez
humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el
control de un ordenador, y la otra bajo el control de un humano. El juez plantea preguntas a
las dos pantallas y recibe respuestas. El premio está dotado con 100.000 dólares
estadounidenses para el programa que pase el test, y un premio de consolación para el
mejor programa

La primera ocasión en la que una máquina pasó ese test fue en 2014 con el chatbot Eugene
Goostman. Creado por dos informáticos rusos. Eugene simulaba ser un adolescente
ucraniano imitando su forma de hablar y sus pautas de conversación. Pasó el test con un
33% de éxito.

Que sean capaces de razonar como personas


Lo importante es que una máquina pueda ser capaz de razonar como lo haría un ser
humano y no el resultado que se obtenga de ese razonamiento. Este es el planteamiento de
la ciencia cognitiva.

Conceptos básicos en Inteligencia Artificial

Big Data
El big data constituye una técnica de recopilación y estructuración de grandes cantidades
de datos. Es, por tanto, la base principal para, después, aprovecharlos y organizarlos a
través de diferentes técnicas de automatización (Lewis y Westlund, 2014). En este sentido,
la recopilación de grandes cantidades de datos adquiere relevancia cuando se aplican
determinadas técnicas para extraer información y resultados computables.

Si bien el concepto "big data" en sí mismo es relativamente nuevo, los orígenes de los
grandes conjuntos de datos se remontan a las décadas de 1960 y 1970, cuando se
empiezan a almacenar datos y a desarrollar bases de datos para clasificarlos y manejarlos.
Alrededor de 2005, surge la necesidad de empezar a analizar los datos que generaban los
usuarios en las redes sociales y plataformas online. El desarrollo de marcos de código
abierto tales como Hadoop o Spark sería esencial para el crecimiento del big data, pues
conseguirían que el big data resultase más fácil de usar y más barato de almacenar.

Diversos autores hablan de las tres “V” del Big data: Volumen, velocidad y variedad.
Volumen: La cantidad de datos importa. Con big data, se trata de procesar grandes
volúmenes de datos no estructurados (no organizados en tablas). Puede tratarse de datos
de valor desconocido, como feeds de datos de Twitter, secuencias de clics en una página
web o aplicación móvil, o equipos con sensores. Para algunas organizaciones, esto puede
suponer decenas de terabytes de datos. Para otras, incluso cientos de petabytes.

Velocidad: La velocidad es el ritmo al que se reciben los datos y (posiblemente) al que se


aplica alguna acción. La mayor velocidad de los datos normalmente se transmite
directamente a la memoria, en vez de escribirse en un disco. Algunos productos inteligentes
habilitados para Internet funcionan en tiempo real o prácticamente en tiempo real y
requieren una evaluación y actuación en tiempo real.

Variedad: La variedad hace referencia a los diversos tipos de datos disponibles. Con el auge
del big data, los datos se presentan no sólo de forma estructurada (en tablas y disponible en
base de datos) sino en nuevos tipos de datos no estructurados. Los tipos de datos no
estructurados y semiestructurados, como el texto, audio o vídeo, requieren un
procesamiento adicional para poder entender su significado y admitir metadatos.

En los últimos años, se han añadido otras "dos V": valor y veracidad. Los datos poseen un
valor intrínseco. Sin embargo, no tienen ninguna utilidad hasta que dicho valor se descubre.
Resulta igualmente importante: ¿cuál es la veracidad de sus datos y cuánto puede confiar en
ellos?

Machine Learning
Machine learning es una rama de la inteligencia artificial (IA) que se centra en el uso de
datos y algoritmos para imitar la forma en la que aprenden los seres humanos, para
conseguir que las máquinas aprendan sin ser expresamente programadas para ello. Los
algoritmos se entrenan en identificar patrones en los flujos de datos y son capaces de
mejorar su aprendizaje y hacer predicciones. Esta tecnología está presente en un sinfín de
aplicaciones como las recomendaciones de Netflix o Spotify, las respuestas inteligentes de
Gmail o el habla de Siri y Alexa.

Arthur Samuel fue el primero en acuñar el término "machine learning" en 1961 con su
investigación sobre el juego de las damas. En 1962 Samuel diseñó un ordenador IBM que
derrotó a Robert Nealey, un maestro del juego.

Entre las décadas de 1950 y 1960, distintos científicos tomaron el modelo de las redes
neuronales del cerebro humano para tratar de crear las primeras máquinas inteligentes. La
idea derivó en la creación de las redes neuronales artificiales, un modelo computacional
inspirado en la forma en que las neuronas transmiten la información entre ellas a través de
una red de nodos interconectados. Uno de los primeros experimentos en este sentido lo
realizaron Marvin Minksy y Dean Edmonds, científicos del Instituto Tecnológico de
Massachussets (MIT). Ambos lograron crear en 1951 un programa informático capaz de
aprender de la experiencia para salir de un laberinto.
El objetivo era crear máquinas que fueran capaces de aprender por sí mismas a resolver una
tarea sin haber sido programadas para ello de forma explícita. Este modelo amplió los
objetivos de la Inteligencia Artificial pero también puso de manifiesto los límites de la
tecnología de la época: faltaban datos y capacidad computacional de los procesadores.
Esto provocó un parón en las investigaciones ante la falta de avances que se conoce como
el ‘primer invierno de la inteligencia artificial’. El panorama empezó a cambiar a finales del
siglo XX con la llegada de internet que proporciona cantidades masivas de información para
entrenar los modelos y el aumento de la potencia de cálculo de los ordenadores.

Deep Learning
En 1997 un célebre hito marcó el renacer del aprendizaje automático: el sistema de IBM
Deep Blue, entrenado a base de ver miles de partidas exitosas de ajedrez, logró derrotar al
máximo campeón mundial de este juego, Garry Kasparov. El logro fue posible gracias al
‘deep learning’ o aprendizaje profundo, una subcategoría del ‘machine learning’ descrita por
primera vez en 1960, que permite que los sistemas no solo aprendan de la experiencia, sino
que sean capaces de entrenarse a sí mismas para hacerlo cada vez mejor usando los datos.

Internet de las Cosas (IoT)


La posibilidad de que una gran variedad de dispositivos pueda tener la capacidad de
conectarse a Internet hace que estemos rodeados de objetos con posibilidad de convertirse
en inteligentes en la medida en que son capaces de captar o recoger información. Dado su
tamaño y coste, los sensores son fácilmente integrables en hogares, entornos de trabajo y
lugares públicos. A pesar de que algunos investigadores habían anticipado ya este concepto
en los años 90, no es hasta 1999 cuando se acuña el término en el Auto-ID Center del MIT.

El desarrollo de nuevas etiquetas inteligentes (RFID) que ayudan a la logística de las


empresas y el crecimiento de la importancia de la gestión de datos han contribuido a la
explosión del IoT.

Y la llegada del 5G augura una nueva curva de crecimiento. Los objetos conectados cada
vez van a estar presentes en nuestros hogares y ya se habla de más de 20.000 dispositivos
conectados para 2020.

Uno de los problemas más serios del IoT es el de garantizar la privacidad de los usuarios.
Estamos introduciendo dispositivos en nuestras casas que deben escucharnos y obedecer
nuestras órdenes pero, al mismo tiempo, ellos están captando datos sobre nuestra vida
cotidiana.

Las áreas de investigación con más desarrollo de la IA son las relacionadas con:

a) El lenguaje natural: se trata de ayudar a las computadoras a entender el lenguaje humano,


a saber cómo nos comunicamos. El procesamiento de lenguaje natural (PLN; o NLP, por sus
siglas en inglés) es uno de los campos de aplicación de la inteligencia artificial ligado a la
lingüística que se dedica a procesar órdenes textuales, ya sean escritas o habladas,
expresadas en un lenguaje natural para los humanos.

El PLN implica el desarrollo de tecnologías relacionadas con el reconocimiento del mensaje


(para escuchar), comprensión del lenguaje (para entender), generación de lenguaje (para
traducir a lenguaje humano) y síntesis de voz o texto (para responder), entre otras. Se trata
en definitiva de lograr mejores formas de comunicación entre las personas y las máquinas.
Desde analizar textos en el nivel más básico (léxico) hasta el más complejo (semántico);
responder preguntas, traducir a otros idiomas, evaluar la claridad de un escrito, generar
nuevos textos a partir de resultados estadísticos y muchas otras posibilidades. Las
herramientas de PLN se utilizan en la escritura y traducción automática, transcripción a
texto a otros formatos (o viceversa).

En 2020, la empresa Open AI publica GPT-3 un modelo de lenguaje autorregresivo que utiliza
el aprendizaje profundo para producir texto similar al humano. GPT-3 ha sido pre entrenado
con casi mil millones de palabras y es el modelo lingüístico más perfecto creado hasta
ahora. Puede escribir artículos, historias, guiones, recitar poemas, generar consejos, resumir
documentos complejos o crear copias artísticas de anuncios.

b) La visión artificial: se programa un ordenador para que “entienda” una imagen. Se busca
que la máquina perciba y entienda el contenido de una fotografía, una ilustración, un vídeo y,
entre muchas más cosas, los objetos de una calle (señales de tráfico, presencia de otros
vehículos). Además se entrena a la máquina para que entienda formas, tamaños, colores o
composiciones.

En 2021, Open AI presentó DALL-E , una red neuronal basada en GPT-3 capaz de crear
imágenes súper realistas: creando por ejemplo imágenes fotográficas de personas que no
existen. Un año después, han presentado DALL-E2, una versión mejorada que permite crear
imágenes originales y artísticas a partir de una simple frase.

Meta ha dado un paso más y ha presentado recientemente su herramienta Make a Video en


la que se puede crear un vídeo a partir de una frase o una descripción de una acción.
También permite animar imágenes estáticas o modificar vídeos ya existentes.
c) La robótica: los ingenieros diseñan máquinas inteligentes que pueden realizar tareas que
son complicadas, peligrosas o repetitivas para los humanos. Los robots pueden ser
virtuales, como el chatbot de una web o físicos, como una máquina real. En función de para
qué se diseñen, los robots físicos pueden moverse, entender mensajes y comunicarse o
manipular objetos de forma precisa, por poner algunos ejemplos. Por eso la robótica es una
de las ramas más complejas de la IA, ya que implica la interacción con otras ramas y
disciplinas. Un robot físico necesita reconocer objetos (‘computer vision’), entender
significados (PLN) y tomar decisiones a la vez que comunicarse de forma efectiva. La
medicina, por ejemplo, es uno de los campos donde más se están desarrollando robots de
precisión para operaciones quirúrgicas o tratamientos específicos.

4.2 ¿Qué es un algoritmo y cómo funciona?


Un algoritmo es un conjunto de instrucciones diseñadas para resolver un problema
concreto. Se proporciona determinada información en un algoritmo dado y una respuesta
sale como resultado. Fue inventado por Abdullah Muhammad ibn Musa Al-Khwarizmi, un
matemático persa del siglo IX, autor del primer libro conocido de álgebra. La palabra
“algoritmo” viene de la traducción fonética de su nombre al latín durante la Edad Media. Los
humanos usamos algoritmos desde hace miles de años para resolver problemas
matemáticos.

Los algoritmos necesitan datos y patrones o fórmulas para obtener resultados. El salto de
gigante de los algoritmos se da cuando empezamos a contar con una tecnología que es
capaz de suministrar millones de datos continuamente y máquinas que son capaces de
realizar millones de operaciones con ellos.

Un algoritmo es el que decide qué película puede gustarnos en Netflix o qué música vamos
a escuchar en Spotify o cuál es el siguiente vídeo que veremos en YouTube o TikTok. Se
basa en nuestro perfil, en nuestros gustos previos y en los de millones de usuarios parecidos
a nosotros.

Para que un algoritmo funcione, necesita ser alimentado con datos para que pueda deducir
patrones. Y aquí surge el problema del “sesgo”. Los algoritmos no son neutros puesto que
tienden a reproducir los prejuicios o sesgos inconscientes (o no) de las personas que los
programan. Están entrenados con unos valores morales determinados.

Marta Peirano cita un caso real ocurrido en Amazon en 2015: detectaron que su algoritmo
de contratación de personal penalizaba los currículum que incluyeran la palabra “mujer”.

¿Por qué ocurría eso? Porque el algoritmo había sido entrenado con la base de datos de
contrataciones de la empresa. Y el algoritmo detectó un patrón invisible pero real: se
contrataba a menos mujeres, así que dedujo que la fórmula correcta era evitarlas.

En 2015 un programador negro de Google descubrió que el sistema de reconocimiento de


imágenes de Google Photos etiquetaba una imagen suya como “gorila”. Es una palabra
usada por racistas para referirse a afroamericanos en EEUU y el algoritmo había captado e
incorporado ese sesgo.

Los algoritmos sesgados pueden perpetuar la injusticia en la contratación, las ventas y la


seguridad, y también el sistema de justicia penal. Muchos investigadores creen que se
necesita siempre ser conscientes de estos sesgos y saber interpretarlos y corregirlos.

Dejando aparte el debate interminable que genera la IA en todos los terrenos, está claro que
la cibercultura implica una estrecha relación del ser humano con un ordenador.

La Interacción Persona-Ordenador, llamada IPO (en inglés HCI: Human Computer


Interaction) es la disciplina que estudia el intercambio de información entre las personas y
los ordenadores.

La IPO/HCI es una disciplina joven, pero no tanto como pudiera parecer. Desde el primer
ordenador ha sido necesario el diseño de un sistema de comunicación persona-ordenador.
Los estudios en esta disciplina han permitido dar una base teórica al diseño de aplicaciones
informáticas. Los ingenieros fueron los primeros profesionales que se dedicaron a la IPO
aunque la influencia de la psicología ha crecido con los años.
¿Cómo nos comunicamos con las máquinas?
Los primeros estudios de IPO/HCI aparecieron en los años sesenta. Lickider, uno de sus
pioneros, afirmó en 1960 que el problema de la interacción hombre-ordenador no es crear
ordenadores productores de respuestas, sino ordenadores que sean capaces de anticipar y
participar en la formulación de las preguntas.

En 1971 Wilfred Hansen hace la primera enumeración de principios para el diseño de


sistemas interactivos:

● Conocer al usuario

● Minimizar la memorización, sustituyendo la entrada de datos por la selección de


ítems, usando nombres en lugar de números y proveyendo acceso rápido a
información práctica del sistema.

● Optimizar las operaciones mediante la rápida ejecución de las más comunes. Hay
que reorganizar la estructura de la información basándose en la observación del uso
del sistema.

● Facilitar buenos mensajes de error, crear diseños que eviten los errores más
comunes, haciendo posible deshacer acciones realizadas y garantizar la integridad
del sistema en caso de un fallo.

¿Qué es una interfaz?


Cualquier relación entre los humanos y la tecnología se realiza por medio de la interfaz. Una
interfaz será el mecanismo, el entorno o la herramienta que hará posible dicha
comunicación.

Scolari amplía el concepto de interfaz asegurando que son “redes donde interactúan actores
humanos y tecnológicos que pueden reformular gran parte de los procesos económicos,
educativos, políticos y culturales de nuestra sociedad”.

Tipos de interfaces

● Interfaz física: un ratón y un teclado que sirven para introducir y manipular datos en
nuestro ordenador.

● Interfaz alfanumérica: escribir comandos en código

● Interfaz gráfica (GUI): Usa iconos (cursor + objetos gráficos metafóricos) para
interactuar con los elementos gráficos convirtiendo al ser humano en usuario de la
aplicación
● Interfaz Natural (NUI): son aquellas en las que se interactúa con un sistema,
aplicación, etc., sin utilizar dispositivos de entrada como ratón, teclado, lápiz óptico,
etc. Son gestos manuales (en pantallas táctiles, en consolas como la Wii).

● Interfaz de Voz (VUI): Utiliza el lenguaje (sistemas de reconocimiento de voz) para


comunicarnos con un sistema operativo (Siri, Alexa, Google).

Historia de las interfaces gráficas


Douglas Engelbart fue un brillante científico que en 1970 patentó el ratón de ordenador,
descrito como “indicador de posición X-Y para un sistema de visualización”. Su mecanismo
consistía en una pequeña caja de madera con ruedas que movía el cursor en la pantalla a
medida que se desplazaba en una superficie horizontal.

Engelbart diseñó el ratón como una parte integral de una “interfaz de ventanas gráfica”, idea
que entusiasmó a sus colegas pero que fue considerada poco útil fuera del laboratorio.
Nunca recibió ganancias por su invento ya que la patente expiró en 1987.

Los trabajos de Engelbart llevaron directamente a los avances surgidos en Xerox PARC, en
Palo Alto, California. Crearon un paradigma basado en ventanas, iconos, menús y cursores
(WIMP), antes probado en el ordenador experimental Xerox Alto, y que apareció
comercialmente en el ordenador Xerox Star en 1981.

Apple, la empresa de Steve Jobs y Stephen Wozniak, creó Lisa, el primer ordenador
comercial de éxito que disfrutó del uso de una GUI. Ya en 1984, usaron una metáfora de
escritorio similar a la de Star. Posteriormente Microsoft adoptó también este sistema de
interfaz gráfica en su sistema Windows que permanece hasta ahora con más o menos
rediseños.

Ventajas interfaces gráficas


Nuestro cerebro trabaja de forma más eficiente con iconos gráficos y displays que con
palabras, ya que el lenguaje añade una capa extra de interpretación al proceso de
comunicación.

Por ejemplo, si todas las señales de tráfico que se ven en la carretera fueran rectángulos
blancos con solo palabras para diferenciar los diferentes avisos y prohibiciones, el
procesado de las señales sería mucho más lento y difícil

Además de lo intuitivo de las operaciones está el hecho de que las GUI generalmente
devuelven al usuario inmediatamente una reacción o efecto ante cada acción. Por ejemplo,
cuando un usuario borra un icono que representa un archivo, el icono inmediatamente
desaparece, confirmando que el archivo ha sido borrado (o enviado a la papelera).

Ventajas interfaces por voz


La tecnología de reconocimiento de voz ha experimentado un tremendo avance en los
últimos años. Las máquinas ya pueden reconocer las frases, los patrones de conversación y
entonación y ser capaces de contestar a un humano.

Para el ser humano, el lenguaje es la forma más natural e intuitiva de comunicarse y hace
que las interacciones con un sistema operativo se simplifiquen y se hagan más
“transparentes”. Para colectivos con discapacidades o con falta de habilidades
tecnológicas, la voz es una herramienta que les puede permitir disfrutar de aplicaciones

Los diseñadores de interfaces VUI tienen el reto de que las máquinas comprendan todos los
entresijos de la comunicación humana: el humor, los dobles sentidos, los sinónimos, las
metáforas…

Realidad extendida
El término de Realidad Extendida (XR, de sus siglas en inglés) es un concepto bajo el que se
engloban las tecnologías de la Realidad Virtual (VR), Realidad Aumentada (AR) y Realidad
Mixta (MR).

Realidad virtual
Una de las grandes aspiraciones de los diseñadores tecnológicos es la de conseguir la
máxima transparencia en sus interfaces, que sean invisibles para el usuario. Esto conlleva
crear entornos que proporcionen una inmersión total, “con los cinco sentidos”, es la llamada
“realidad virtual”.

La realidad virtual consigue que el ser humano atraviese la pantalla e interactúe con su
sistema sensomotor en un entorno completamente digital. La virtualidad supera las
barreras espaciotemporales y configura un entorno en el que la información y la
comunicación se nos muestran accesibles desde perspectivas hasta ahora desconocidas.

Para acceder a un entorno de realidad virtual se equipa al usuario con un casco con un visor
especial, guantes y hasta un traje completo provisto de sensores. La investigación en
entornos de realidad virtual se ha especializado sobre todo en los campos del videojuego y
simulaciones militares y médicas.

Realidad aumentada
Los dispositivos añaden a la realidad física una nueva capa virtual de datos e información.
Se crea una realidad mixta en la que se proporciona al usuario una interactividad total con
su entorno.
Google Lens // Museos // Tiendas virtuales

Uno de los ejemplos más claros de cómo funciona la realidad aumentada es el juego
Pokemon Go.

Realidad mixta
Esta tecnología permite combinar el mundo real con el virtual mediante el reconocimiento
del entorno a través de unas gafas, permitiendo que los objetos virtuales se sitúen de forma
inteligente en dicho espacio, se adapten al entorno e interactúen con la realidad en tiempo
real.

El metaverso
En octubre de 2021, Mark Zuckerberg comparecía para explicar que cambiaba el nombre de
su empresa: Facebook pasaba a denominarse Meta. El cambio no es casual sino toda una
declaración de intenciones con la que el dueño de la mayor red social anunciaba que su
compañía iba a volcarse en el metaverso. ¿Y qué es el metaverso? Para Zuckerberg es la
“siguiente versión de Internet”. El metaverso es un universo virtual que amplía el mundo
físico en digital, sea con la realidad aumentada, avatares o interfaces virtuales. Facebook ya
había apostado por este enfoque con Facebook Horizon, una especie de 'Second Life' en
realidad virtual, que ha sido ya rebautizado como Horizon Worlds y está disponible en
España desde agosto de 2022.

El metaverso de momento es sólo una apuesta teórica… en la que también están invirtiendo
empresas como Google, Microsoft o Nvidia. El término metaverso aparece “Snow Crash”,
una novela de 1992 de Neal Stephenson y es un término que se ha asentado para describir
visiones de espacios de trabajo tridimensionales o virtuales. El plan del metaverso es
ofrecernos un mundo artificial en el que nuestros avatares realicen diferentes actividades:
desde mantener reuniones de trabajo a jugar, hacer deporte o comprar.

Pese a que estamos hablando de una proyección teórica, Bloomberg asegura que el negocio
del metaverso podría suponer hasta 800.000 millones de dólares en 2024 y Zuckerberg cree
que por esas fechas tendrá mil millones de usuarios.

4.3 Ética en la inteligencia artificial

Todos estos avances nos plantean una serie de dilemas éticos y políticos importantes y
auguran una serie de consecuencias sociales.

● Pérdida de puestos de trabajo que serían asumidos por robots.


● Límites éticos a la investigación: ¿queremos construir una máquina que sea como un
humano? ¿Qué conciencia y derechos tendría?
● Ciberataques y ciberguerras cada vez más sofisticados.
● Pérdida de privacidad y libertad social al crecer los sistemas de vigilancia.
● Aumento de la desigualdad digital en el mundo.

Lo ideal sería que los procesos desarrollados con inteligencia artificial pudieran ser
auditables, transparentes y trazables, que respondieran a estándares éticos La realidad, sin
embargo, es muy diferente. En la práctica resulta imposible auditar cómo funcionan algunos
algoritmos. Es lo que se conoce como “cajas negras” y afecta sobre todo al aprendizaje
profundo y las redes neuronales. Una inteligencia artificial cumple con su cometido, pero
resulta imposible conocer cómo lo ha hecho.

La Unión Europea ya tiene un grupo de investigación, el European Group on Ethics in Science


and New Technologies, que analiza la interacción entre seres humanos y robots, la
responsabilidad institucional, la transparencia de la IA, los límites a los sistemas de
puntuación social (social scoring). También se consideran cuestiones críticas el perfilado
humano sin consentimiento (Cotino, 2019).

La Comisión Europea cuenta con la asesoría del Grupo Europeo de Ética en Ciencia y
Nuevas Tecnologías (EGE).12 El 9 de marzo de 2018 el EGE (2018) publicó su Declaración
sobre inteligencia artificial, robótica y sistemas autónomos, donde se realizan una serie de
reflexiones morales, preguntas y consideraciones clave para afirmar unos principios éticos y
requisitos democráticos. Y la Comisión Europea en abril de 2018 publicó su comunicación
Inteligencia artificial para Europa, una hoja de ruta para elaborar directrices éticas en
relación con la IA.

Y no sólo los gobiernos e instituciones se preocupan por la dimensión ética de la IA. En


diciembre de 2016, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), la organización
técnica profesional más grande del mundo lanzó la primera versión del documento de
políticas del IEEE sobre el diseño éticamente alineado. Desde la International
Telecommunication Union (ITU), desde 2017 se lideran las cumbres anuales AI for Good, que
culminan con documentos y declaraciones relevantes (ITU, 2017). Asimismo, la ACM
(Association for Computing Machinery) también desde 2017 realiza conferencias sobre IA,
ética y sociedad. También destaca Open AI3, una asociación de empresas e instituciones
dedicada a la investigación de la IA para el bien común o el Future of Life Institute, que hizo
una movilización para evitar una escalada de la IA en el armamento (Cotino, 2019).

En el ámbito de la programación y diseño, también hay una tendencia de diseño ético que
aspira a cumplir con la ética y la ley desde el código que se programe. Se insiste en el
respeto de la privacidad de los datos y la identidad de los usuarios. Se trata de conseguir
una Inteligencia Artificial basada en el ser humano de forma que no sea un medio en sí
mismo, sino un objetivo para aumentar el bienestar a mayor número de ciudadanos.

Diversos autores subrayan que la ética de la Inteligencia Artificial debe basarse en las
normativas ya aplicadas en el año 2000 a la biomedicina y que se articula en torno a estos
grandes principios:

Principio de beneficencia y de no maleficencia: Haz el bien y no hagas daño: La IA debe


desarrollarse para el bien común y el beneficio de la humanidad, mejorar el bienestar
individual y colectivo, generar prosperidad, valor y maximizar la riqueza y sostenibilidad.
Asimismo, debe buscar una sociedad justa, inclusiva y pacífica, ayudando a aumentar la
autonomía de los ciudadanos, con una distribución equitativa de oportunidades
económicas, sociales y políticas. También debe tener objetivos como la protección del
proceso democrático y el Estado de derecho.

Principio de justicia: Evitar todo tipo de discriminación , evitar sesgos, estigmatización y


nuevas discriminaciones sociales.

Principio de autonomía y acción humana: Se debe preservar la libertad y autonomía o


acción humana frente a la “autonomía” artificial. Se parte de que con la IA cedemos
voluntariamente parte de nuestro poder de decisión a las máquinas. Pero siempre se debe
promover la autonomía humana y restringir la autonomía de las máquinas y hacerla
intrínsecamente reversible. Los humanos siempre deben conservar el poder de decidir qué
decisiones tomar.

El principio de explicabilidad y transparencia: Implica la necesidad de entender y pedir


cuentas con todas sus consecuencias jurídicas y políticas. Debe poder responder a la
pregunta “¿cómo funciona?” y también “¿quién es responsable de la forma en que
funciona?”.

El grupo de expertos de la UE añade otros principios curiosos como el principio de robustez.


Con él se reclaman sistemas seguros, confiables y suficientemente sólidos frente a errores
o inconsistencias durante la fase de diseño, desarrollo, ejecución, implementación y uso del
sistema IA, y para enfrentar adecuadamente los resultados erróneos. Se incluyen las
exigencias de fiabilidad (reliability) por cuanto los resultados deben poder ser avalados por
evaluación independiente.

Este principio incluye también la exactitud (accuracy) para clasificar correctamente la


información en las categorías correctas, o su capacidad para hacer predicciones,
recomendaciones o decisiones correctas basadas en datos o modelos. Igualmente, la
resiliencia frente a las vulnerabilidades y ataques que pueden afectar al funcionamiento
mismo del sistema. Asimismo, se exige un plan de retroceso (fall back plan) en caso de
problemas con el sistema de IA, esto es, que el sistema de IA cambie de procedimiento o
directamente que actúe un operador humano.

4.4 Inteligencia artificial para periodistas

Uno de los ámbitos donde también se están incorporando técnicas y procesos basados en
la Inteligencia artificial es el de la comunicación y el periodismo. En 2014 Ramón Salaverría
ya incidía hace cuatro años en la presencia del llamado robot journalism en las dinámicas
periodísticas. Uno de los ejemplos más tempranos es el de la agencia de noticias
estadounidense Associated Press en la generación de noticias deportivas y económicas de
forma automatizada a través de una herramienta de software desarrollada por Automated
Insights (Dörr y Hollnbuchner, 2016). En el 2014, la agencia de noticias publicaba 4.000
historias de forma automática frente a las 300 que realizaban los periodistas (Sánchez y
Sánchez, 2017, p.4).

En Europa, The Guardian también se ha configurado como uno de los medios de


comunicación pioneros en incorporar estas técnicas a su redacción en el año 2010, a
través de bots capaces de construir historias financieras, deportivas e incluso; proponer
temas a través de métodos de inteligencia artificial (Sánchez y Sánchez, 2017).

Esta reciente incorporación de la tecnología robótica al periodismo provoca una confusión


terminológica de los diferentes autores que han comenzado a investigar este campo. Por
esta razón, es conveniente señalar que existen varias formas de definir el término
periodismo robot o robot journalists (Van Dalen, 2012 y Latar 2015), asociado a la creación
de contenido automatizado a través del uso de nuevas tecnologías (Clerwall, 2014). Así,
encontramos otros términos semejantes como periodismo computacional (Clerwall, 2014)
o periodismo algorítmico (Berobici, 2010).

La primera vez que se utilizó el término ‘robot’ en los medios de comunicación fue en
1998, cuando Lee y Kim propusieron un sistema de noticias personalizado para el usuario a
través de un algoritmo (Dörr y Hollnbuchner, 2016). Así, una de las primeras aplicaciones de
los bots de noticias está relacionada con la distribución de las mismas a través de
diferentes plataformas digitales (Cervera, 2017). Hablamos, por lo tanto, de aplicaciones
conversacionales que permiten al usuario consumir una información filtrada y
personalizada (Sánchez y Sánchez, 2017). De esta forma, no solo las herramientas
surgidas de la evolución tecnológica sirven al periodista para crear contenido sino también
para su distribución a la audiencia.

Las tecnología de Inteligencia Artificial se usan ya en el periodismo en todos los procesos


informativos, desde la recopilación de datos a la producción y la distribución.

Una guía elaborada por un think tank dedicado a este tema de la London School of
Economics documenta nueve ámbitos donde la Inteligencia artificial ya es está aplicando en
los medios de comunicación:

1. Inteligencia Artificial para automatizar la producción de noticias


Ya se ha mencionado el papel Associated Press en la automatización de noticias. La
agencia produce noticias hechas por robots en coberturas que simplemente tienen que
cruzar datos y obtener conclusiones simples: por ejemplo resultados deportivos,
informaciones de bolsa o actividad económica de empresas. La sección económica de AP
ha incrementado su producción de boletines de ganancias de empresas de 300 a 3.700.
Además, AP estima que este sistema ha liberado un 20% de tiempo para que los reporteros
puedan dedicarse a otros temas más elaborados y ha aumentado su precisión a la hora de
ofrecer datos económicos.

El diario Los Ángeles Times ha creado “Quake Bot” un bot conectado con un centro de
investigación sismológica para generar alertas informativas sobre terremotos.

BBC News también ha incorporado lo que llaman “periodismo semiautomatizado” a la


cobertura de noticias locales. Han conseguido desarrollar un flujo de trabajo que genera
unas cien historias mensuales. El proceso comienza con la extracción y proceso de datos
del Sistema Nacional de Salud en cada zona del que se extrae la información que se
considera interesante. Esa información se presenta en forma de noticia usando una plantilla
generada por un equipo de periodistas, el sistema también crea gráficos para cada historia y
permite que un periodista revise la información antes de ser publicada. De esta manera, se
cubre la información de salud de cada distrito o región a partir de los datos públicos: por
ejemplo, el funcionamiento de protocolos sanitarios, listas de espera o crisis sanitarias etc.
Durante 2017, Heliograph, el sistema automatizado de noticias del diario The Washington
Post publicó 850 noticias. El sistema se estrenó para generar alertas y pequeñas
informaciones en los JJOO de Río. A partir de ahí, Heliograph se ha dedicado a elaborar
noticias basadas en interpretación de datos.
El enfoque de The Washington Post es seguir usando Heliograph en coberturas basadas en
datos (resultados electorales, estadísticas de crímenes por ejemplo) y perfeccionando su
interacción con la redacción humana.

2. Inteligencia Artificial para periodismo de investigación


El periodismo de investigación se basa en la mayoría de los casos en una paciente
recopilación e interpretación de cifras, datos e informaciones aportadas por diferentes
fuentes. La utilización de herramientas robotizadas permite simplificar y agilizar el análisis
de documentos.

En 2019, el consorcio de Periodistas de Investigación destapó un escándalo financiero


conocido como los “Papeles de Panamá” donde se ponía de manifiesto el funcionamiento
de los entramados que ayudan a la evasión fiscal a millonarios y empresas de todo el
mundo. En esta investigación colaboraron 400 periodistas de diferentes medios
internacionales que tuvieron que analizar once millones y medio de documentos en
diferentes formatos. Para ello utilizaron tecnología de minería de datos que sirvió para
indexar, clasificar y hacer que fuera posible “buscar” en toda esa avalancha de cifras. Tras la
experiencia, el Consorcio de Periodistas de Investigación llegó a un acuerdo con la
Universidad de Stanford para utilizar sus técnicas de machine learning en futuras
investigaciones.

En 2017, Buzzfeed utilizó un algoritmo en un reportaje de investigación sobre aviones espía.


El algoritmo fue alimentado con patrones de vuelos de los aviones espía, como velocidad o
altitud para poder hacer un tracking de esos vuelos. El diario Atlanta Journal Constitution
realizó una investigación sobre casos de abusos sexuales en hospitales y consultas
médicas analizando mediante un algoritmo más de 100.000 documentos. Una agencia de
noticias ucraniana publicó un reportaje sobre minas ilegales de ámbar usando un sistema
de machine learning que analizó 450.000 imágenes de satélite. En todos estos casos, los
sistemas robotizados son usados para facilitar la tarea de análisis de documentos y datos
en los que los periodistas basan sus investigaciones.

En 2020 el medio peruano, Ojo Público, creó una web y un motor de búsqueda de más de
245,000 contratos del gobierno. Su algoritmo, llamado Funes, fue entrenado para leer miles
de documentos y detectar signos de corrupción: por ejemplo, relaciones de un funcionario
con una empresa, cobros exagerados, asignaciones dudosas etc,.

El especial premiado, España vive en pisos, de Eldiario.es analiza la organización de las


ciudades españolas analizando y exponiendo gráficamente datos públicos extraídos del
catastro. En el reportaje se analizan los datos de 12 millones de edificios en toda España.
3. Inteligencia Artificial para mejorar la gestión del archivo del medio
Cualquier medio de comunicación acumula cada día miles de imágenes, textos, vídeos y
audios que se tratan y guardan en los servicios de Archivo y Documentación. La inteligencia
artificial se ha convertido en un poderoso aliado de los documentalistas a la hora de
categorizar, indexar y localizar cualquier fichero. Además de mejorar los sistemas de
motores de búsqueda, muchos sistemas de documentación incorporan ya herramientas de
reconocimiento facial que permiten distinguir y localizar rápidamente rostros de famosos o
políticos. El diario New York Times dedicó un equipo a mejorar e implementar sus sistema
de etiquetado de imágenes para aumentar su rendimiento y eficacia. Para ello usaron
sistemas de reconocimiento de Lenguaje Natural para detectar las etiquetas más relevantes
y útiles para localizar una imagen.

4. Inteligencia Artificial para entender lo que necesitan las audiencias


La analítica de datos de tráfico y audiencias permite obtener una buena imagen, cada vez
más precisa, de los hábitos y preferencias de consumo de contenidos de los usuarios. Eso
permite detectar qué temas interesan a los lectores e incluso ofrecer contenidos cada vez
más personalizados en función del perfil, geolocalización, género, edad etc. El uso de
algoritmos para detectar patrones de consumo y perfiles en la audiencia es una de las bases
del éxito de Netflix o Amazon y está siendo incorporado por plataformas y medios de todo el
mundo.

5. Inteligencia Artificial para optimizar el “engagement” y las suscripciones


Los muros de pago y los sistemas de suscripción y pago por contenidos presentan un doble
reto para los medios. Por un lado, tienen que “mimar” al suscriptor y ofrecerle valor añadido
y posibilidades de personalización y por otro, tienen que ser capaces de detectar si un
visitante ocasional puede convertirse en un posible suscriptor. Las herramientas de
inteligencia artificial proporcionan soporte en ambos enfoques.

El Wall Street Journal lleva desde 2014 experimentando con el crecimiento del
“engagement” de los usuarios: desde ofrecer un número determinado de historias en abierto
hasta acceso libre desde enlaces en redes sociales. Realizan un análisis pormenorizado del
comportamiento del usuario en su web de forma que pueden detectar rasgos que indiquen
formas de convencerlo de suscribirse al diario. Los lectores no suscriptores del diario son
analizados por al menos 60 factores diferentes y reciben una puntuación dependiendo si es
la primera vez, el dispositivo que usan, el contenido que clickan, el lugar de procedencia etc..
Todos esos datos, analizados mediante machine learning, permiten ofrecer historias gratis
de determinados temas, ofertas personalizadas etc…

7. Inteligencia Artificial para moderación de comentarios


Los comentarios en las noticias han sido desde siempre una pesadilla para los diarios
digitales. Desde su origen, los responsables de los diarios se dieron cuenta que esos
sistemas no podían funcionar sin reglas ni moderación y que había que evitar que se
convirtieran en lugares “tóxicos” y llenos de odio en vez de espacios de debate. En un
principio, moderadores humanos eran responsables del buen funcionamiento de los
comentarios pero, poco a poco, la inteligencia artificial ha ido ocupándose cada vez más de
estos trabajos.

En El País, desde 2015 empezaron a detectar que la toxicidad de los comentarios hacía que
los anunciantes evitaran aparecer en esas páginas. Se plantearon incluso cerrar los
comentarios pero empezaron a usar una herramienta de Google News Initiative llamada
Perspective API basada en machine learning.

Esta herramienta es entrenada por moderadores humanos que alimentan el algoritmo con
comentarios calificados como negativos o tóxicos. A partir de esos patrones, el sistema es
capaz de rechazar la publicación de comentarios o sugerir a usuarios que moderen su
lenguaje si quieren que se publique su opinión. El sistema ha permitido reducir en un 19% los
comentarios insultantes en El País. Esta misma herramienta es usada por el diario New York
Times desde que llegó a un punto en el que solo podía publicar el 10% de los comentarios
recibidos (el resto eran insultos). En poco tiempo, el diario pudo triplicar el número de
noticias abiertas a comentarios.
8. Inteligencia Artificial para optimizar el uso de imágenes
Los sistemas de reconocimiento facial se han convertido en un nuevo aliado de los editores
de fotografía. En 2018, la agencia de imágenes Getty lanzó una herramienta de inteligencia
artificial llamada Panels que ofrece la foto más adecuada para un artículo dependiendo del
contenido de la información. Panels usa filtros de búsqueda y tiene un algoritmo que es
capaz de aprender de búsquedas anteriores.

El departamento de investigación de la BBC trabaja en un sistema basado en deep learning


para mejorar la calidad y color de fotografías y vídeos. Está pensado sobre todo para
aplicarlo en imágenes recibidas de redes sociales o para restaurar imágenes de archivo.

9.Inteligencia Artificial para detectar y corregir sesgos de contenido


Ya vimos cómo los algoritmos pueden llegar a incorporar sesgos al aprender de datos y
contenidos que se han elaborado con un determinado enfoque (de manera intencionada o
no). El diario The New York Times detectó sesgos raciales en una herramienta creada para
contestar de forma rápida dudas de lectores. El diario usaba una versión de BERT, una
herramienta de Google que analiza estructuras lingüísticas y que se usa por ejemplo en el
texto predictivo e Gmail o Google Drive. El sistema se alimenta con textos literarios y
artículos de actualidad y había deducido patrones que podrían ser interpretados como
racistas.

El diario Financial Times utiliza un sistema automático que identifica si sus periodistas
están citando a más hombres que mujeres para ayudar a equilibrar la opinión de expertos y
fuentes desde una perspectiva de género. De esta forma, el medio también buscaba
aumentar su audiencia entre mujeres jóvenes.

También podría gustarte