Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Para hablar de IA hay que remontarse, según Torra, a 1956 en Estados Unidos. Cuatro
científicos (J. McCarthy, M. Minsky, N. Rochester y C. E. Shannon) se reúnen en la llamada
“Conferencia de Dartmouth” para sentar las bases de la investigación en ese campo. Allí es
donde aparece por primera vez el término “Inteligencia Artificial”.
Los cuatro científicos establecen la teoría de que “cualquier aspecto del aprendizaje u otra
característica de la inteligencia puede en principio ser descrita con precisión de tal forma
que se puede construir una máquina que la simule".
El objetivo de estos investigadores se centraba en construir una máquina que sea capaz de
comportarse con la inteligencia de un ser humano. Predijeron, de una forma un tanto
optimista, que en el plazo de 25 años los ordenadores harían todo el trabajo de los hombres.
La inteligencia artificial (IA) puede definirse como el medio por el cual las computadoras, los
robots y otros dispositivos realizan tareas que normalmente requieren de la inteligencia
humana. Por ejemplo, la resolución de cierto tipo de problemas, la capacidad de discriminar
entre distintos objetos o el responder a órdenes verbales. La IA agrupa un conjunto de
técnicas que, mediante circuitos electrónicos y programas avanzados de computadora,
busca imitar procedimientos similares a los procesos inductivos y deductivos del cerebro
humano. Se basa en la investigación de las redes neuronales humanas y, a partir de ahí,
busca copiar electrónicamente el funcionamiento del cerebro.
Los teóricos de la Inteligencia Artificial se dividen entre los que piensan que las máquinas
sólo son capaces de simular un proceso de razonamiento y aprendizaje (Inteligencia
Artificial débil) y los que creen que serán capaces de adquirir todas la capacidades de la
mente humana (IA Fuerte).
Además podemos encontrar otros planteamientos en la definición de lo que deben hacer las
máquinas para que sean consideradas IA:
En 1990 se inició un concurso, el Premio Loebner, una competición de carácter anual entre
programas de ordenador que sigue el estándar establecido en la prueba de Turing. Un juez
humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el
control de un ordenador, y la otra bajo el control de un humano. El juez plantea preguntas a
las dos pantallas y recibe respuestas. El premio está dotado con 100.000 dólares
estadounidenses para el programa que pase el test, y un premio de consolación para el
mejor programa
La primera ocasión en la que una máquina pasó ese test fue en 2014 con el chatbot Eugene
Goostman. Creado por dos informáticos rusos. Eugene simulaba ser un adolescente
ucraniano imitando su forma de hablar y sus pautas de conversación. Pasó el test con un
33% de éxito.
Big Data
El big data constituye una técnica de recopilación y estructuración de grandes cantidades
de datos. Es, por tanto, la base principal para, después, aprovecharlos y organizarlos a
través de diferentes técnicas de automatización (Lewis y Westlund, 2014). En este sentido,
la recopilación de grandes cantidades de datos adquiere relevancia cuando se aplican
determinadas técnicas para extraer información y resultados computables.
Si bien el concepto "big data" en sí mismo es relativamente nuevo, los orígenes de los
grandes conjuntos de datos se remontan a las décadas de 1960 y 1970, cuando se
empiezan a almacenar datos y a desarrollar bases de datos para clasificarlos y manejarlos.
Alrededor de 2005, surge la necesidad de empezar a analizar los datos que generaban los
usuarios en las redes sociales y plataformas online. El desarrollo de marcos de código
abierto tales como Hadoop o Spark sería esencial para el crecimiento del big data, pues
conseguirían que el big data resultase más fácil de usar y más barato de almacenar.
Diversos autores hablan de las tres “V” del Big data: Volumen, velocidad y variedad.
Volumen: La cantidad de datos importa. Con big data, se trata de procesar grandes
volúmenes de datos no estructurados (no organizados en tablas). Puede tratarse de datos
de valor desconocido, como feeds de datos de Twitter, secuencias de clics en una página
web o aplicación móvil, o equipos con sensores. Para algunas organizaciones, esto puede
suponer decenas de terabytes de datos. Para otras, incluso cientos de petabytes.
Variedad: La variedad hace referencia a los diversos tipos de datos disponibles. Con el auge
del big data, los datos se presentan no sólo de forma estructurada (en tablas y disponible en
base de datos) sino en nuevos tipos de datos no estructurados. Los tipos de datos no
estructurados y semiestructurados, como el texto, audio o vídeo, requieren un
procesamiento adicional para poder entender su significado y admitir metadatos.
En los últimos años, se han añadido otras "dos V": valor y veracidad. Los datos poseen un
valor intrínseco. Sin embargo, no tienen ninguna utilidad hasta que dicho valor se descubre.
Resulta igualmente importante: ¿cuál es la veracidad de sus datos y cuánto puede confiar en
ellos?
Machine Learning
Machine learning es una rama de la inteligencia artificial (IA) que se centra en el uso de
datos y algoritmos para imitar la forma en la que aprenden los seres humanos, para
conseguir que las máquinas aprendan sin ser expresamente programadas para ello. Los
algoritmos se entrenan en identificar patrones en los flujos de datos y son capaces de
mejorar su aprendizaje y hacer predicciones. Esta tecnología está presente en un sinfín de
aplicaciones como las recomendaciones de Netflix o Spotify, las respuestas inteligentes de
Gmail o el habla de Siri y Alexa.
Arthur Samuel fue el primero en acuñar el término "machine learning" en 1961 con su
investigación sobre el juego de las damas. En 1962 Samuel diseñó un ordenador IBM que
derrotó a Robert Nealey, un maestro del juego.
Entre las décadas de 1950 y 1960, distintos científicos tomaron el modelo de las redes
neuronales del cerebro humano para tratar de crear las primeras máquinas inteligentes. La
idea derivó en la creación de las redes neuronales artificiales, un modelo computacional
inspirado en la forma en que las neuronas transmiten la información entre ellas a través de
una red de nodos interconectados. Uno de los primeros experimentos en este sentido lo
realizaron Marvin Minksy y Dean Edmonds, científicos del Instituto Tecnológico de
Massachussets (MIT). Ambos lograron crear en 1951 un programa informático capaz de
aprender de la experiencia para salir de un laberinto.
El objetivo era crear máquinas que fueran capaces de aprender por sí mismas a resolver una
tarea sin haber sido programadas para ello de forma explícita. Este modelo amplió los
objetivos de la Inteligencia Artificial pero también puso de manifiesto los límites de la
tecnología de la época: faltaban datos y capacidad computacional de los procesadores.
Esto provocó un parón en las investigaciones ante la falta de avances que se conoce como
el ‘primer invierno de la inteligencia artificial’. El panorama empezó a cambiar a finales del
siglo XX con la llegada de internet que proporciona cantidades masivas de información para
entrenar los modelos y el aumento de la potencia de cálculo de los ordenadores.
Deep Learning
En 1997 un célebre hito marcó el renacer del aprendizaje automático: el sistema de IBM
Deep Blue, entrenado a base de ver miles de partidas exitosas de ajedrez, logró derrotar al
máximo campeón mundial de este juego, Garry Kasparov. El logro fue posible gracias al
‘deep learning’ o aprendizaje profundo, una subcategoría del ‘machine learning’ descrita por
primera vez en 1960, que permite que los sistemas no solo aprendan de la experiencia, sino
que sean capaces de entrenarse a sí mismas para hacerlo cada vez mejor usando los datos.
Y la llegada del 5G augura una nueva curva de crecimiento. Los objetos conectados cada
vez van a estar presentes en nuestros hogares y ya se habla de más de 20.000 dispositivos
conectados para 2020.
Uno de los problemas más serios del IoT es el de garantizar la privacidad de los usuarios.
Estamos introduciendo dispositivos en nuestras casas que deben escucharnos y obedecer
nuestras órdenes pero, al mismo tiempo, ellos están captando datos sobre nuestra vida
cotidiana.
Las áreas de investigación con más desarrollo de la IA son las relacionadas con:
En 2020, la empresa Open AI publica GPT-3 un modelo de lenguaje autorregresivo que utiliza
el aprendizaje profundo para producir texto similar al humano. GPT-3 ha sido pre entrenado
con casi mil millones de palabras y es el modelo lingüístico más perfecto creado hasta
ahora. Puede escribir artículos, historias, guiones, recitar poemas, generar consejos, resumir
documentos complejos o crear copias artísticas de anuncios.
b) La visión artificial: se programa un ordenador para que “entienda” una imagen. Se busca
que la máquina perciba y entienda el contenido de una fotografía, una ilustración, un vídeo y,
entre muchas más cosas, los objetos de una calle (señales de tráfico, presencia de otros
vehículos). Además se entrena a la máquina para que entienda formas, tamaños, colores o
composiciones.
En 2021, Open AI presentó DALL-E , una red neuronal basada en GPT-3 capaz de crear
imágenes súper realistas: creando por ejemplo imágenes fotográficas de personas que no
existen. Un año después, han presentado DALL-E2, una versión mejorada que permite crear
imágenes originales y artísticas a partir de una simple frase.
Los algoritmos necesitan datos y patrones o fórmulas para obtener resultados. El salto de
gigante de los algoritmos se da cuando empezamos a contar con una tecnología que es
capaz de suministrar millones de datos continuamente y máquinas que son capaces de
realizar millones de operaciones con ellos.
Un algoritmo es el que decide qué película puede gustarnos en Netflix o qué música vamos
a escuchar en Spotify o cuál es el siguiente vídeo que veremos en YouTube o TikTok. Se
basa en nuestro perfil, en nuestros gustos previos y en los de millones de usuarios parecidos
a nosotros.
Para que un algoritmo funcione, necesita ser alimentado con datos para que pueda deducir
patrones. Y aquí surge el problema del “sesgo”. Los algoritmos no son neutros puesto que
tienden a reproducir los prejuicios o sesgos inconscientes (o no) de las personas que los
programan. Están entrenados con unos valores morales determinados.
Marta Peirano cita un caso real ocurrido en Amazon en 2015: detectaron que su algoritmo
de contratación de personal penalizaba los currículum que incluyeran la palabra “mujer”.
¿Por qué ocurría eso? Porque el algoritmo había sido entrenado con la base de datos de
contrataciones de la empresa. Y el algoritmo detectó un patrón invisible pero real: se
contrataba a menos mujeres, así que dedujo que la fórmula correcta era evitarlas.
Dejando aparte el debate interminable que genera la IA en todos los terrenos, está claro que
la cibercultura implica una estrecha relación del ser humano con un ordenador.
La IPO/HCI es una disciplina joven, pero no tanto como pudiera parecer. Desde el primer
ordenador ha sido necesario el diseño de un sistema de comunicación persona-ordenador.
Los estudios en esta disciplina han permitido dar una base teórica al diseño de aplicaciones
informáticas. Los ingenieros fueron los primeros profesionales que se dedicaron a la IPO
aunque la influencia de la psicología ha crecido con los años.
¿Cómo nos comunicamos con las máquinas?
Los primeros estudios de IPO/HCI aparecieron en los años sesenta. Lickider, uno de sus
pioneros, afirmó en 1960 que el problema de la interacción hombre-ordenador no es crear
ordenadores productores de respuestas, sino ordenadores que sean capaces de anticipar y
participar en la formulación de las preguntas.
● Conocer al usuario
● Optimizar las operaciones mediante la rápida ejecución de las más comunes. Hay
que reorganizar la estructura de la información basándose en la observación del uso
del sistema.
● Facilitar buenos mensajes de error, crear diseños que eviten los errores más
comunes, haciendo posible deshacer acciones realizadas y garantizar la integridad
del sistema en caso de un fallo.
Scolari amplía el concepto de interfaz asegurando que son “redes donde interactúan actores
humanos y tecnológicos que pueden reformular gran parte de los procesos económicos,
educativos, políticos y culturales de nuestra sociedad”.
Tipos de interfaces
● Interfaz física: un ratón y un teclado que sirven para introducir y manipular datos en
nuestro ordenador.
● Interfaz gráfica (GUI): Usa iconos (cursor + objetos gráficos metafóricos) para
interactuar con los elementos gráficos convirtiendo al ser humano en usuario de la
aplicación
● Interfaz Natural (NUI): son aquellas en las que se interactúa con un sistema,
aplicación, etc., sin utilizar dispositivos de entrada como ratón, teclado, lápiz óptico,
etc. Son gestos manuales (en pantallas táctiles, en consolas como la Wii).
Engelbart diseñó el ratón como una parte integral de una “interfaz de ventanas gráfica”, idea
que entusiasmó a sus colegas pero que fue considerada poco útil fuera del laboratorio.
Nunca recibió ganancias por su invento ya que la patente expiró en 1987.
Los trabajos de Engelbart llevaron directamente a los avances surgidos en Xerox PARC, en
Palo Alto, California. Crearon un paradigma basado en ventanas, iconos, menús y cursores
(WIMP), antes probado en el ordenador experimental Xerox Alto, y que apareció
comercialmente en el ordenador Xerox Star en 1981.
Apple, la empresa de Steve Jobs y Stephen Wozniak, creó Lisa, el primer ordenador
comercial de éxito que disfrutó del uso de una GUI. Ya en 1984, usaron una metáfora de
escritorio similar a la de Star. Posteriormente Microsoft adoptó también este sistema de
interfaz gráfica en su sistema Windows que permanece hasta ahora con más o menos
rediseños.
Por ejemplo, si todas las señales de tráfico que se ven en la carretera fueran rectángulos
blancos con solo palabras para diferenciar los diferentes avisos y prohibiciones, el
procesado de las señales sería mucho más lento y difícil
Además de lo intuitivo de las operaciones está el hecho de que las GUI generalmente
devuelven al usuario inmediatamente una reacción o efecto ante cada acción. Por ejemplo,
cuando un usuario borra un icono que representa un archivo, el icono inmediatamente
desaparece, confirmando que el archivo ha sido borrado (o enviado a la papelera).
Para el ser humano, el lenguaje es la forma más natural e intuitiva de comunicarse y hace
que las interacciones con un sistema operativo se simplifiquen y se hagan más
“transparentes”. Para colectivos con discapacidades o con falta de habilidades
tecnológicas, la voz es una herramienta que les puede permitir disfrutar de aplicaciones
Los diseñadores de interfaces VUI tienen el reto de que las máquinas comprendan todos los
entresijos de la comunicación humana: el humor, los dobles sentidos, los sinónimos, las
metáforas…
Realidad extendida
El término de Realidad Extendida (XR, de sus siglas en inglés) es un concepto bajo el que se
engloban las tecnologías de la Realidad Virtual (VR), Realidad Aumentada (AR) y Realidad
Mixta (MR).
Realidad virtual
Una de las grandes aspiraciones de los diseñadores tecnológicos es la de conseguir la
máxima transparencia en sus interfaces, que sean invisibles para el usuario. Esto conlleva
crear entornos que proporcionen una inmersión total, “con los cinco sentidos”, es la llamada
“realidad virtual”.
La realidad virtual consigue que el ser humano atraviese la pantalla e interactúe con su
sistema sensomotor en un entorno completamente digital. La virtualidad supera las
barreras espaciotemporales y configura un entorno en el que la información y la
comunicación se nos muestran accesibles desde perspectivas hasta ahora desconocidas.
Para acceder a un entorno de realidad virtual se equipa al usuario con un casco con un visor
especial, guantes y hasta un traje completo provisto de sensores. La investigación en
entornos de realidad virtual se ha especializado sobre todo en los campos del videojuego y
simulaciones militares y médicas.
Realidad aumentada
Los dispositivos añaden a la realidad física una nueva capa virtual de datos e información.
Se crea una realidad mixta en la que se proporciona al usuario una interactividad total con
su entorno.
Google Lens // Museos // Tiendas virtuales
Uno de los ejemplos más claros de cómo funciona la realidad aumentada es el juego
Pokemon Go.
Realidad mixta
Esta tecnología permite combinar el mundo real con el virtual mediante el reconocimiento
del entorno a través de unas gafas, permitiendo que los objetos virtuales se sitúen de forma
inteligente en dicho espacio, se adapten al entorno e interactúen con la realidad en tiempo
real.
El metaverso
En octubre de 2021, Mark Zuckerberg comparecía para explicar que cambiaba el nombre de
su empresa: Facebook pasaba a denominarse Meta. El cambio no es casual sino toda una
declaración de intenciones con la que el dueño de la mayor red social anunciaba que su
compañía iba a volcarse en el metaverso. ¿Y qué es el metaverso? Para Zuckerberg es la
“siguiente versión de Internet”. El metaverso es un universo virtual que amplía el mundo
físico en digital, sea con la realidad aumentada, avatares o interfaces virtuales. Facebook ya
había apostado por este enfoque con Facebook Horizon, una especie de 'Second Life' en
realidad virtual, que ha sido ya rebautizado como Horizon Worlds y está disponible en
España desde agosto de 2022.
El metaverso de momento es sólo una apuesta teórica… en la que también están invirtiendo
empresas como Google, Microsoft o Nvidia. El término metaverso aparece “Snow Crash”,
una novela de 1992 de Neal Stephenson y es un término que se ha asentado para describir
visiones de espacios de trabajo tridimensionales o virtuales. El plan del metaverso es
ofrecernos un mundo artificial en el que nuestros avatares realicen diferentes actividades:
desde mantener reuniones de trabajo a jugar, hacer deporte o comprar.
Pese a que estamos hablando de una proyección teórica, Bloomberg asegura que el negocio
del metaverso podría suponer hasta 800.000 millones de dólares en 2024 y Zuckerberg cree
que por esas fechas tendrá mil millones de usuarios.
Todos estos avances nos plantean una serie de dilemas éticos y políticos importantes y
auguran una serie de consecuencias sociales.
Lo ideal sería que los procesos desarrollados con inteligencia artificial pudieran ser
auditables, transparentes y trazables, que respondieran a estándares éticos La realidad, sin
embargo, es muy diferente. En la práctica resulta imposible auditar cómo funcionan algunos
algoritmos. Es lo que se conoce como “cajas negras” y afecta sobre todo al aprendizaje
profundo y las redes neuronales. Una inteligencia artificial cumple con su cometido, pero
resulta imposible conocer cómo lo ha hecho.
La Comisión Europea cuenta con la asesoría del Grupo Europeo de Ética en Ciencia y
Nuevas Tecnologías (EGE).12 El 9 de marzo de 2018 el EGE (2018) publicó su Declaración
sobre inteligencia artificial, robótica y sistemas autónomos, donde se realizan una serie de
reflexiones morales, preguntas y consideraciones clave para afirmar unos principios éticos y
requisitos democráticos. Y la Comisión Europea en abril de 2018 publicó su comunicación
Inteligencia artificial para Europa, una hoja de ruta para elaborar directrices éticas en
relación con la IA.
En el ámbito de la programación y diseño, también hay una tendencia de diseño ético que
aspira a cumplir con la ética y la ley desde el código que se programe. Se insiste en el
respeto de la privacidad de los datos y la identidad de los usuarios. Se trata de conseguir
una Inteligencia Artificial basada en el ser humano de forma que no sea un medio en sí
mismo, sino un objetivo para aumentar el bienestar a mayor número de ciudadanos.
Diversos autores subrayan que la ética de la Inteligencia Artificial debe basarse en las
normativas ya aplicadas en el año 2000 a la biomedicina y que se articula en torno a estos
grandes principios:
Uno de los ámbitos donde también se están incorporando técnicas y procesos basados en
la Inteligencia artificial es el de la comunicación y el periodismo. En 2014 Ramón Salaverría
ya incidía hace cuatro años en la presencia del llamado robot journalism en las dinámicas
periodísticas. Uno de los ejemplos más tempranos es el de la agencia de noticias
estadounidense Associated Press en la generación de noticias deportivas y económicas de
forma automatizada a través de una herramienta de software desarrollada por Automated
Insights (Dörr y Hollnbuchner, 2016). En el 2014, la agencia de noticias publicaba 4.000
historias de forma automática frente a las 300 que realizaban los periodistas (Sánchez y
Sánchez, 2017, p.4).
La primera vez que se utilizó el término ‘robot’ en los medios de comunicación fue en
1998, cuando Lee y Kim propusieron un sistema de noticias personalizado para el usuario a
través de un algoritmo (Dörr y Hollnbuchner, 2016). Así, una de las primeras aplicaciones de
los bots de noticias está relacionada con la distribución de las mismas a través de
diferentes plataformas digitales (Cervera, 2017). Hablamos, por lo tanto, de aplicaciones
conversacionales que permiten al usuario consumir una información filtrada y
personalizada (Sánchez y Sánchez, 2017). De esta forma, no solo las herramientas
surgidas de la evolución tecnológica sirven al periodista para crear contenido sino también
para su distribución a la audiencia.
Una guía elaborada por un think tank dedicado a este tema de la London School of
Economics documenta nueve ámbitos donde la Inteligencia artificial ya es está aplicando en
los medios de comunicación:
El diario Los Ángeles Times ha creado “Quake Bot” un bot conectado con un centro de
investigación sismológica para generar alertas informativas sobre terremotos.
En 2020 el medio peruano, Ojo Público, creó una web y un motor de búsqueda de más de
245,000 contratos del gobierno. Su algoritmo, llamado Funes, fue entrenado para leer miles
de documentos y detectar signos de corrupción: por ejemplo, relaciones de un funcionario
con una empresa, cobros exagerados, asignaciones dudosas etc,.
El Wall Street Journal lleva desde 2014 experimentando con el crecimiento del
“engagement” de los usuarios: desde ofrecer un número determinado de historias en abierto
hasta acceso libre desde enlaces en redes sociales. Realizan un análisis pormenorizado del
comportamiento del usuario en su web de forma que pueden detectar rasgos que indiquen
formas de convencerlo de suscribirse al diario. Los lectores no suscriptores del diario son
analizados por al menos 60 factores diferentes y reciben una puntuación dependiendo si es
la primera vez, el dispositivo que usan, el contenido que clickan, el lugar de procedencia etc..
Todos esos datos, analizados mediante machine learning, permiten ofrecer historias gratis
de determinados temas, ofertas personalizadas etc…
En El País, desde 2015 empezaron a detectar que la toxicidad de los comentarios hacía que
los anunciantes evitaran aparecer en esas páginas. Se plantearon incluso cerrar los
comentarios pero empezaron a usar una herramienta de Google News Initiative llamada
Perspective API basada en machine learning.
Esta herramienta es entrenada por moderadores humanos que alimentan el algoritmo con
comentarios calificados como negativos o tóxicos. A partir de esos patrones, el sistema es
capaz de rechazar la publicación de comentarios o sugerir a usuarios que moderen su
lenguaje si quieren que se publique su opinión. El sistema ha permitido reducir en un 19% los
comentarios insultantes en El País. Esta misma herramienta es usada por el diario New York
Times desde que llegó a un punto en el que solo podía publicar el 10% de los comentarios
recibidos (el resto eran insultos). En poco tiempo, el diario pudo triplicar el número de
noticias abiertas a comentarios.
8. Inteligencia Artificial para optimizar el uso de imágenes
Los sistemas de reconocimiento facial se han convertido en un nuevo aliado de los editores
de fotografía. En 2018, la agencia de imágenes Getty lanzó una herramienta de inteligencia
artificial llamada Panels que ofrece la foto más adecuada para un artículo dependiendo del
contenido de la información. Panels usa filtros de búsqueda y tiene un algoritmo que es
capaz de aprender de búsquedas anteriores.
El diario Financial Times utiliza un sistema automático que identifica si sus periodistas
están citando a más hombres que mujeres para ayudar a equilibrar la opinión de expertos y
fuentes desde una perspectiva de género. De esta forma, el medio también buscaba
aumentar su audiencia entre mujeres jóvenes.