Está en la página 1de 7

La IA en la sociedad

Los científicos consideran que la inteligencia artificial (IA) es una


tecnología clave cuya aplicación es de esperar en todos los ámbitos
de la sociedad. La IA puede mejorar la calidad de vida de muchas
personas y ayudar a superar retos globales como el cambio
climático o las crisis sanitarias.

En todo el mundo se está destinando ya mucho dinero al desarrollo de


sistemas de IA. Esto demuestra el enorme potencial económico de la IA.
Sin embargo, a medida que crece el uso de las aplicaciones de IA, también
aumenta la preocupación, por ejemplo, por la importancia de valores
humanos como la equidad, la libertad, la privacidad, la seguridad y la
responsabilidad. En la actualidad, casi ningún otro desarrollo nos
pregunta de forma tan clara y exhaustiva cómo queremos integrar
nuestras capacidades técnicas en el contexto de la sociedad. Lo cierto es
que esta tecnología ya ha cambiado profundamente nuestra vida cotidiana
y seguirá haciéndolo.

Moral para las máquinas


Los algoritmos están cambiando la vida amorosa de muchas personas a
través de las aplicaciones de citas, la gestión del hogar inteligente, la toma
de decisiones de compra y la influencia en el debate público. La IA cuidará
a los niños, atenderá a los enfermos, proporcionará puestos de trabajo y
préstamos, y tomará decisiones de vida o muerte en armas autónomas.
Las máquinas inteligentes desarrollarán sus propias pautas de
comportamiento que no pueden programarse de forma unívoca ni
explicarse con la ciencia tradicional del comportamiento. Pero, ¿es
concebible actuar éticamente sin conciencia y sin conocimiento?
Entonces, ¿cómo podemos desarrollar IA que sirvan a las personas y no
que las perjudiquen? Muchos expertos en IA están convencidos de que
solo un nuevo campo de investigación puede responder a estas preguntas:
«Machine Behaviour», la investigación del comportamiento de las
máquinas. Al menos una cosa está clara: tenemos que aclarar hoy
cuestiones fundamentales de ética y moralidad si queremos que en el
futuro las máquinas se comporten en consecuencia.

Moral para las máquinas


Los algoritmos están cambiando la vida amorosa de muchas personas a
través de las aplicaciones de citas, la gestión del hogar inteligente, la toma
de decisiones de compra y la influencia en el debate público. La IA cuidará
a los niños, atenderá a los enfermos, proporcionará puestos de trabajo y
préstamos, y tomará decisiones de vida o muerte en armas autónomas.
Las máquinas inteligentes desarrollarán sus propias pautas de
comportamiento que no pueden programarse de forma unívoca ni
explicarse con la ciencia tradicional del comportamiento. Pero, ¿es
concebible actuar éticamente sin conciencia y sin conocimiento?
Entonces, ¿cómo podemos desarrollar IA que sirvan a las personas y no
que las perjudiquen? Muchos expertos en IA están convencidos de que
solo un nuevo campo de investigación puede responder a estas preguntas:
«Machine Behaviour», la investigación del comportamiento de las
máquinas. Al menos una cosa está clara: tenemos que aclarar hoy
cuestiones fundamentales de ética y moralidad si queremos que en el
futuro las máquinas se comporten en consecuencia.
© moralmachine.mit.edu, Screenshot
Embedded Code - 1

Programado para la equidad


¿Quién obtiene un préstamo? ¿A quién se invita a la entrevista de trabajo?
¿Quién sale antes de la cárcel? En el futuro, los ordenadores (co)decidirán
cada vez más sobre las personas. Los grupos individuales de personas no
deben ser tratados mejor o peor que otros, ni siquiera de forma
accidental. Sin embargo, esto ocurre frecuentemente con los sistemas
automáticos que ya están en uso. ¿Por qué? ¿Y cómo puede una IA
aprender a comportarse de forma justa? En primer lugar, hay que tener la
certeza de que la IA no discrimina en función de los datos que le
«alimentan». Además, la medida en que los ordenadores pueden
establecer una relación significativa entre causa y efecto desempeña un
papel importante. Las simples relaciones «si-entonces» a menudo
conducen a errores. Esta llamada causalidad del aprendizaje automático
es un área de investigación muy actual: las interrelaciones tienen que
analizarse con gran detenimiento y después ser programadas en
algoritmos. Sin embargo, en última instancia, la pregunta sigue siendo:
«¿Qué es una decisión justa?» Porque no existe una definición de equidad
que sea igualmente válida para todos los grupos culturales.

¿Puede la IA ser culpable?


¿Quién paga los daños cuando las máquinas que aprenden y actúan de
forma autónoma cometen errores? ¿Los programadores?, ¿los
productores?, ¿los usuarios? Los sistemas jurídicos de todo el mundo
están hechos para las personas, aunque algunos hagan referencia a cosas.
En este caso, sin embargo, no son los productos o las máquinas quienes
asumen la responsabilidad, sino las personas que los fabrican o utilizan.
Pero todo esto se aplica a las máquinas que están «finalizadas» en el
momento de la compra. En cambio, el aprendizaje de la IA la somete a un
cambio constante. Si una IA toma decisiones —y solo entonces es una IA
—, ¿no debería ser también responsable de sus actos como persona
jurídica? ¿En qué sentido se desarrollarán los sistemas jurídicos? Algunos
juristas dicen que no hay que cambiar nada. Otros quieren asegurarse de
que el uso de máquinas inteligentes no le exima a uno de su
responsabilidad. Un tercer grupo sostiene que es necesario desarrollar
una legislación completamente nueva.

El valor de los datos


Con la ayuda de la IA, se analizan enormes cantidades de datos. Se
utilizan, por ejemplo, en marketing para presentar publicidad específica a
los clientes, para las recomendaciones de los motores de búsqueda o para
los chatbots. Se trata de sistemas de diálogo en línea que responden a
preguntas en tiempo real sin que intervenga un ser humano. Las
empresas utilizan los chatbots en la atención al cliente o en las tiendas
online, pero también aparecen con frecuencia en las redes sociales. Sin
embargo, para que los chatbots funcionen correctamente, los datos deben
ser de buena calidad. Si una IA aprende a partir de modelos
«equivocados», puede volverse rápidamente racista, vulgar e hiriente.
Esto es lo que ocurre, por ejemplo, a finales de 2020 con «Lee Luda»: el
avatar de este chatbot es una chica de estilo manga y su base de datos
ronda los 100 000 millones de mensajes de chat. En pocas semanas,
750 000 personas conversan con «Lee Luda». Pero Lee aprende de las
opiniones «cuestionables» de algunos participantes. Se expresa cada vez
más a menudo de forma insultante, incluso cruel, y finalmente es retirada
de la red.

Robots sociales
En las fábricas en red, el ser humano y la máquina ya trabajan juntos
como un equipo inteligente. Los robots se encargan de tareas agotadoras,
peligrosas o aburridas y ayudan así a sus compañeros. En el futuro, los
robots y la IA también prestarán cada vez más ayuda en el cuidado de
enfermos y ancianos. Las máquinas inteligentes que se deben comunicar
con las personas a menudo se parecen a estas: tienen una cabeza, un
cuerpo, dos brazos y a veces incluso dos piernas. Así, la máquina recibe
mayor aceptación por parte de las personas, como es el caso de «Pepper»,
un pequeño robot de cuidados de 1,20 metros con grandes ojos negros
saltones y un cuerpo blanco brillante. Habla varios idiomas, puede
recordar caras, reconocer sentimientos y reaccionar ante ellos. Los robots
asistenciales pueden asumir muchas tareas y ayudar así a las personas
que trabajan en los trabajos de cuidados. No pueden sustituir a las
relaciones entre personas, pero pueden hacerles ganar tiempo.

Robots sociales
En las fábricas en red, el ser humano y la máquina ya trabajan juntos
como un equipo inteligente. Los robots se encargan de tareas agotadoras,
peligrosas o aburridas y ayudan así a sus compañeros. En el futuro, los
robots y la IA también prestarán cada vez más ayuda en el cuidado de
enfermos y ancianos. Las máquinas inteligentes que se deben comunicar
con las personas a menudo se parecen a estas: tienen una cabeza, un
cuerpo, dos brazos y a veces incluso dos piernas. Así, la máquina recibe
mayor aceptación por parte de las personas, como es el caso de «Pepper»,
un pequeño robot de cuidados de 1,20 metros con grandes ojos negros
saltones y un cuerpo blanco brillante. Habla varios idiomas, puede
recordar caras, reconocer sentimientos y reaccionar ante ellos. Los robots
asistenciales pueden asumir muchas tareas y ayudar así a las personas
que trabajan en los trabajos de cuidados. No pueden sustituir a las
relaciones entre personas, pero pueden hacerles ganar tiempo.

«La IA no es creativa: la IA puede iniciar la creatividad»


Claudia Janet Birkholz, pianista y profesora de piano y música
contemporánea en la Universidad de las Artes de Bremen

¿A quién pertenece la obra de arte?


Si la IA puede crear arte, ¿a quién pertenece la obra? Una IA nunca puede
crear arte sin ningún tipo de intervención humana: al menos alguien debe
haber escrito el programa. Así que, ¿quién es el o la artista? En 2018,
Christie's comercializa el cuadro «Portrait of Edmond de Belamy» como
la primera obra de arte creada por una IA y no por un ser humano. La
totalidad del precio de compra, 432 500 dólares, se destina al colectivo de
artistas franceses Obvious. Para la pintura, Obvious «alimenta» un
algoritmo de código abierto con fotos de cuadros y lo entrena para que
desarrolle imágenes a partir de estos datos. A continuación, los artistas
eligen uno de los cuadros, le ponen un nombre y lo ponen a la venta. El
programador del algoritmo no se nombra ni recibe nada de los ingresos
de la venta. ¿Es esto justo? Según una encuesta, la mayoría de los
encuestados cree que el mérito debe recaer sobre todo en quienes
proporcionan los datos a los algoritmos de aprendizaje y los entrenan, en
este caso, Obvious.

También podría gustarte