Está en la página 1de 41

04/03/2023

Avanzando en la regulación de la IA

Hacia un equilibrio entre ética, protección de los derechos fundamentales,


seguridad, confianza, innovación, desarrollo y competitividad

Muñoz Vela, José Manuel


Derecho Digital e Innovación, Nº 14, Sección Doctrina, Cuarto trimestre de 2022, LA LEY

LA LEY 11109/2022

Resumen
La inteligencia artificial es una tecnología de un potencial disruptivo
incuestionable en todos los ámbitos y sectores de actividad que cambiará el
mundo que conocemos. Sus bondades están fuera de toda duda, si bien,
comporta distintos riesgos y retos que deben ser adecuadamente identificados y
gestionados, los cuales no pueden ser abordados exclusivamente desde la ética
o la autorregulación, sino que exigirán la intervención reguladora del legislador
al objeto de garantizar la adecuada protección de los bienes, derechos e
intereses en juego. Esta intervención no es ni será fácil, y su objeto y alcance
está siendo objeto de una ardua discusión en la actualidad a nivel internacional
y, por supuesto, también en el ámbito de la UE, ante la tramitación de la
conocida como Artificial Intelligence Act (AI Act), que pretende ser una norma
pionera y de referencia internacional, pero que está evidenciado desde su
elaboración las discrepancias existentes respecto del propio concepto de IA —
sobre el que no existe actualmente un consenso ni científico, ni ético ni jurídico
—, como respecto del adecuado enfoque, objeto, alcance y técnicas para la
regulación de la IA.
La regulación propuesta en el seno de la UE parte de los principios y valores
europeos, lo que comporta situar a la persona y sus derechos fundamentales
como los aspectos prioritarios, pero sin descuidar la necesidad de garantizar la
seguridad para ciudadanos, empresas y Administraciones Públicas, la
innovación y sus incentivos, el desarrollo tecnológico así como la
competitividad de la industria europea, en una carrera por liderar la misma y
que encabezan países como EE.UU. y China, así como los gigantes tecnológicos.
La consecución del equilibrio entre todos los intereses en juego, en constante e
inevitable tensión, no es una tarea fácil, especialmente ante el imparable avance
y evolución de la IA, si bien, para conseguirlo no debe obviarse el derecho a la
misma y su accesibilidad, y no sólo por ciudadanos, sino por Gobiernos,
Administraciones públicas y empresas. Los derechos fundamentales y la
dignidad de la persona deben estar siempre por encima de cualquier tecnología,
incluida la IA, y corresponde al ser humano definir su futuro, así como el de la
IA que necesita o desea. El presente artículo pretende abordar el tratamiento de
los derechos fundamentales en los principales marcos éticos propuestos hasta
la fecha, en las propuestas reguladoras presentadas, especialmente en el ámbito
europeo, y como se ha abordado dicho equilibrio en las mismas.
Palabras clave
Inteligencia artificial, IA, sistema inteligente, algoritmo, autoría, personalidad
jurídica, responsabilidad civil, seguridad, ética, derechos fundamentales,
derechos humanos, dignidad humana, accesibilidad, innovación, competitividad.
Abstract

1 / 41
04/03/2023

Artificial intelligence is a technology with unquestionable disruptive potential in


all areas and sectors of activity that will change the world as we know it. Its
benefits are beyond any doubt, although it entails different risks and challenges
that must be properly identified and managed, which cannot always be
addressed exclusively from ethical frameworks or self-regulation, but will require
the regulatory intervention of the legislator in order to ensure adequate
protection of the assets, rights and interests at stake. This intervention is not
and will not be easy, and its purpose and scope is currently the subject of an
arduous discussion at international level and, of course, also at EU level, in view
of the processing of the so-called Artificial Intelligence Act (AI Act), which is
intended to be a pioneering standar and an international reference, but which is
evidenced since its drafting by the existing discrepancies regarding the very
concept of AI —on which there is currently no scientific, ethical or legal
consensus— as well as regarding the appropriate approach, purpose, scope and
techniques for the regulation of AI.
The regulation proposed within the EU is based on European principles and
values, which means placing the individual and his or her fundamental rights as
the priority aspects, but without neglecting the need to guarantee security for
citizens, companies and public administrations, innovation and its incentives,
technological development and the competitiveness of European industry, in an
unbridled race to lead, led by countries such as the USA and China, as well as
the technological giants. Achieving a balance between all the interests at stake,
in constant and inevitable tension, is not an easy task, especially in the face of
the unstoppable advance and evolution of AI, although, in order to achieve it,
the right to it and its accessibility should not be ignored, and not only by
citizens, but also by governments, public administrations and companies. The
fundamental rights and dignity of the individual must always be above any
technology, including AI, and it is up to human beings to define their future, as
well as that of the AI they need or want. This article aims to address the
treatment of fundamental rights in the main ethical frameworks proposed to
date, in the regulatory proposals presented, especially at the European level, and
how this balance has been addressed in them.
Keywords
Artificial intelligence, AI, intelligent system, algorithm, authorship, legal
personality, civil liability, security, ethic, fundamental rights, human rights,
human dignity, accessibility, innovation, competition

José Manuel Muñoz Vela


Abogado especialista en Derecho Tecnológico y Digital
Doctor en Derecho
Director Jurídico Adequa Corporación

1. Introducción
La IA constituye un conjunto de tecnologías en constante evolución y el crecimiento de su desarrollo,
despliegue y aplicación es exponencial. Su potencial disruptivo y habilitador es incuestionable, al
igual que sus bondades, sus retos y sus riesgos.
La evolución y mejora de sus capacidades, características y de las tecnologías asociadas, junto a la
mayor capacidad de computación, conectividad y disponibilidad de datos, entre otros factores, están

2 / 41
04/03/2023

permitiendo su incesante desarrollo, despliegue y aplicación a un ritmo exponencial en todos los


ámbitos (doméstico, administrativo, empresarial, militar o gubernamental) y sectores (industrial,
educativo o sanitario, entre otros), así como su impacto en los mismos.
De inicio me permito compartir algunas de las conclusiones que el astrofísico Stephen Hawking nos
dejó para la reflexión: «La inteligencia artificial puede ser lo mejor o lo peor que nos ha sucedido a
la humanidad, todavía no lo sabemos» (1) . Los riesgos asociados a su uso y despliegue ya fueron
inicialmente clasificados, entre otros instrumentos, en el Libro blanco sobre la inteligencia artificial (2)
de la Comisión Europea del siguiente modo: a) riesgos para los derechos fundamentales; b) riesgos
para la seguridad y; riesgos para el funcionamiento eficaz del régimen de responsabilidad civil.
Asimismo, tuve ocasión de analizar muchos de ellos a nivel individual en estudios monográficos
previos ( 3 ) . No obstante, como vengo manifestando reiteradamente en mis investigaciones y
trabajos monográficos, en función de sus capacidades, características, interacciones, finalidad y
contexto, el mayor riesgo no es la tecnología en sí misma sino el uso que se haga de ella.
Del mismo modo, es incuestionable que los sistemas inteligentes pueden afectar y dañar al ser
humano, tanto a nivel físico o psicológico, como a sus derechos y bienes, especialmente en función
del contexto de uso, de la naturaleza, características y capacidades del sistema y de los recursos,
tecnología y elementos que integre o con los que interaccione u opere, incluidos los derechos
fundamentales y las libertades públicas.
Las derechos y libertades de las personas físicas que pueden verse
El mayor riesgo de la afectados por los mismos son todos, reconocidos jurídicamente como
inteligencia artificial no es fundamentales o no, desde el derecho a la vida y a la integridad física
la tecnología en sí misma,
y moral, la libertad de expresión, el derecho de información, la
sino el uso que se haga de
libertad ideológica, la igualdad y no discriminación, el derecho al
ella.
honor, a la intimidad, a la privacidad y a la propia imagen, el derecho
a una tutela judicial efectiva o la movilidad y el desplazamiento. Y
estos derechos pueden estar ya reconocidos y, en su caso, general y/o específicamente regulados por
convenios internacionales, constituciones y leyes nacionales. Del mismo modo, también pueden verse
afectados los derechos e intereses de las personas jurídicas, por ejemplo y de forma especialmente
significativa, los derechos sobre su honor, reputación e imagen, los secretos empresariales, las
innovaciones, la propiedad intelectual e industrial, la libertad de empresa y la competencia.
La protección de bienes, derechos e intereses frente a los riesgos de la IA, como la salud, la
integridad física y moral, los datos personales, los secretos empresariales o el medio ambiente se
hayan ya regulados y protegidos de manera general en distintas normas nacionales, autonómicas e
incluso locales, pero también en convenios y tratados internacionales y en el Derecho de la UE. Sin
embargo, actualmente no existe un marco jurídico específico regulador de la IA ni de su seguridad, ni
a nivel proactivo ni reactivo, ni tampoco de la seguridad y protección de estos derechos y libertades
en relación con la IA y las distintas tipologías de sistemas, productos y servicios dotados de la misma
que pueden ponerse en funcionamiento, de modo que, en ausencia de todos ellos y hasta la
existencia de los mismos, debemos tomar como referencia los marcos generales vigentes que
resulten de aplicación.
El presente artículo pretende analizar, en primer lugar, cómo se ha abordado la seguridad y la
protección de los derechos fundamentales en los principales marcos éticos de referencia a nivel
internacional. En segundo lugar, cómo se ha abordado su regulación en el ámbito europeo hasta la
fecha y el tratamiento de la ética, la seguridad y la protección de los derechos fundamentales en la
misma. Y, por último, cómo estas propuestas reguladoras abordan el precitado y necesario equilibrio,
en constante tensión, entre ética, seguridad, confianza, accesibilidad, uso, desarrollo, innovación y
competitividad.

3 / 41
04/03/2023

2. Marcos éticos de la IA y derechos fundamentales


2.1. Cuestiones generales
Una de las primeras referencias éticas en el ámbito de la IA la encontramos en la ciencia ficción, en
particular, en las denominadas Leyes de Asimov (4) de 1942, que posteriormente pasaron a integrar
los distintos marcos éticos objeto de mayor consenso europeo e internacional en la actualidad. Y
llegaron incluso antes que el propio concepto de IA que fue atribuido a John McCarthy durante la
Conferencia de Dartmouth (5) en 1955. Estas leyes ya reflejaban aspectos tan importantes como la
seguridad y la protección humana frente a la máquina inteligente, las cuales pasaron a integrar con
posterioridad los principales marcos éticos en materia de IA objeto de mayor consenso internacional,
así como las propuestas reguladoras europeas presentadas hasta la fecha, que abordaré con
posterioridad.
Durante todas estas décadas se han ido conformando los marcos éticos que hoy son objeto de mayor
consenso internacional y que se basan en un conjunto de principios y normas éticas esenciales,
empezando por la seguridad y el respeto de los derechos fundamentales. Esos marcos se ha
construido sobre principios y valores esenciales como el control y supervisión humana, la confianza,
la seguridad, la robustez, la fiabilidad, la privacidad y la gobernanza de datos, la transparencia y la
explicabilidad, el respeto de la dignidad, la libertad, la autonomía y el resto de derechos humanos, la
solidaridad, la justicia, la equidad, la no discriminación, la beneficencia, el bienestar social y
ambiental, la sostenibilidad o la responsabilidad proactiva y rendición de cuentas. Algunos de ellos
apuestan también por la precaución, la reversibilidad, la accesibilidad y la democracia.
No obstante, en paralelo a la incesante evolución, desarrollo y crecimiento del despliegue, aplicación
y uso de la IA, al aumento de sus capacidades y características, de la disponibilidad de datos, así
como de las capacidades de computación, de la conectividad y de su interacción con otras
tecnologías y recursos, se han empezado a identificar usos alejados de aquellos principios y normas
esenciales, así como la necesidad de su exigencia jurídica, para garantizar su integración en el diseño
y desarrollo de sistemas inteligentes y en todo su ciclo de vida, especialmente para evitar prácticas,
cuanto menos desleales, de Ethics washing (6) , en la que determinadas organizaciones publican sus
compromisos y códigos éticos corporativos sobre los que supuestamente se construyen y sustentan
sus sistemas, productos y servicios de IA, que posteriormente, en la práctica, no se respetan y
cumplen.
La seguridad y la protección de los derechos fundamentales, a mi
Frente a la incesante juicio, no pueden dejarse exclusivamente en manos de la ética y la
evolución, desarrollo, autorregulación o soft law de la industria, especialmente cuando
despliegue, aplicación y uso hacerlo puede suponer, entre otros aspectos, incrementar sus costes,
de la IA, la seguridad y la
especialmente en seguridad, complicar la interacción con el
protección de los derechos
fundamentales no pueden
operador/usuario o aumentar los precios de sus productos y servicios,
dejarse exclusivamente en con afectación consecuente de su competitividad en un mercado
manos de la ética y la global como el actual. La autorregulación ha funcionado con objetivos
autorregulación o soft específicos en sectores como el del videojuego, donde todavía hoy, la
law de la industria clasificación de los mismos se lleva a cabo mediante su sistema PEGI.
Sin embargo, por ejemplo, la autorregulación como instrumento para
regular y garantizar los requerimientos de seguridad de los productos se evidenció insuficiente en
relación con dispositivos IoT —acrónimo de Internet of Things o Internet de las Cosas—, lo que
motivó en su día que el Parlamento británico decidiera acometer su regulación legal. Autores como
Gijs Leenders (7) afirman que la autorregulación no ofrece una solución viable y efectiva a los retos
de la regulación de la IA. Conforme significa García Mexía (8) , hasta los foros más escépticos con la
regulación de la IA, no sólo piensan que sea posible actuar al respecto, sino que exigen que así sea.

4 / 41
04/03/2023

La evolución de la IA y, en particular, la posibilidad del progresivo aumento de sus capacidades,


especialmente su autonomía, opacidad o autoaprendizaje profundo, que podría llevarnos hacia una IA
fuerte o, incluso, hasta la denominada Super AI (9) , exige detenerse y reflexionar ahora sobre que
IA deseamos como seres humanos y si debemos ya intervenir para prevenir y evitar aquella que no
deseemos.
Los marcos éticos precitados ya exigen una IA segura, robusta, fiable y sometida a control y
supervisión humana durante todo su ciclo de vida y que también respete los derechos fundamentales,
lo que, de antemano, en mi opinión, impide el diseño, desarrollo, comercialización y uso de sistemas
inteligentes realmente «autónomos». Sin embargo, estos principios y normas son meramente éticos,
no vinculantes y no exigibles jurídicamente de inicio, sin perjuicio de que lo pudieran ser corporativa
o contractualmente, lo que puede llevar a la relajación en su cumplimiento o a un incumplimiento
efectivo, como tuve ocasión de analizar en investigaciones y trabajos monográficos previos sobre
esta cuestión específica (10) .
El contexto precitado ha motivado que, durante los últimos años, junto con la necesidad de definir
los marcos éticos exigibles a la IA, se haya planteado la necesidad de su regulación desde distintos
enfoques, objeto, alcance y técnicas, lo que a mi juicio, sin lugar a dudas, es una cuestión de
necesidad y de oportunidad, entre otras razones, al objeto de convertir esos principios y normas
éticas no vinculantes en exigencias legales no dispositivas sino imperativas, al margen de su
exigibilidad corporativa o contractual, como he indicado. No obstante, no existe un consenso
respecto del enfoque, objeto y alcance y técnicas más adecuadas para su regulación, ni tan siquiera
respecto del concepto de IA, ni a nivel científico, ético ni jurídico, como base para construir su
regulación. Los marcos jurídicos propuestos serán analizados con posterioridad, por lo que pretendo
abordar ahora los principales marcos éticos objeto de mayor consenso internacional que han sentado
las bases de la ética de la IA y que tuve ocasión de analizar con profundidad en investigaciones y
trabajos previos precitados.

2.2. Marcos éticos de referencia


De todas las iniciativas llevadas a cabo hasta la fecha, me centraré en algunas de las propuestas
durante los últimos años que se han ido conformando como referencia a nivel internacional.
De inicio, me permito destacar los denominados Principios de Asilomar de 2017 (11) , emanados de
la Conferencia de Asilomar organizada por el Future of Life Institute, cuyos principales objetivos eran
y son minimizar los riesgos de la IA y aprovechar su potencial en beneficio de la humanidad. Entre
otros principios y recomendaciones, establecieron que los sistemas de IA deben ser seguros y fiables
a lo largo de todo su ciclo de vida útil, así como verificables. Del mismo modo, exigían la
transparencia, la exigibilidad, la responsabilidad, el respeto de los valores humanos, la privacidad, la
libertad, la accesibilidad y compartición, el control humano, la no subversión, la precaución, la
gestión de riesgos y el bien común. Además, sus disposiciones pusieron especial énfasis y prudencia
con la IA más avanzada.
A n i v e l e u r o p e o , l a Resolución del Parlamento Europeo, de 16 de febrero de 2017 con
recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (12) ,
identificó su preocupación, reflexiones y retos en materia ética e IA, incorporando la seguridad como
un aspecto ético esencial a considerar por los futuros marcos normativos. Entre sus principales
aportaciones, destacar la propuesta de creación de un marco ético de referencia el diseño y desarrollo
de sistemas inteligentes y orientado a ingenieros, con el objetivo de abordar sus riesgos. La
Resolución recogió expresamente los principales riesgos que puede suponer la IA contra la seguridad
y los derechos fundamentales, incluyendo la salud, la libertad, la intimidad, la integridad física o
psíquica, la dignidad, la autonomía, la autodeterminación del individuo, la no discriminación y la
protección de los datos personales, considerando que el marco jurídico actual debía actualizarse y

5 / 41
04/03/2023

completarse con directrices éticas.


El Parlamento Europeo consideró que las orientaciones éticas a considerar debían basarse en los
principios de beneficencia, autonomía y justicia, así como en los principios consagrados en la Carta
de los Derechos Fundamentales de la UE, como la dignidad humana, la igualdad, la justicia y la
equidad, la no discriminación, el consentimiento informado, la vida privada y familiar y la protección
de datos, así como en otros principios y valores inherentes al Derecho de la UE, como la no
estigmatización, la transparencia, la autonomía, la responsabilidad individual y la responsabilidad
social, sin obviar prácticas y códigos éticos preexistentes. La Resolución acompañó las bases para
garantizar la denominada «Ethics by design» en el diseño y desarrollo de sistemas inteligentes,
incorporando una Carta sobre Robótica que se acompañó con un Código de Conducta Ética para los
ingenieros en robótica, un código deontológico para los comités de ética de la investigación y de
sendos modelos de licencia para diseñadores y para usuarios.
El Código de Conducta Ética establecía, entre otros aspectos, que los investigadores en el campo de
la robótica deberían comprometerse a adoptar una conducta estricta en materia de ética y de
deontología, así como a respetar principios éticos como beneficencia, justicia, precaución, seguridad,
rendición de cuentas o reversibilidad, pero también de respeto a la intimidad y la privacidad y de los
derechos fundamentales.
Las licencias para diseñadores que incorporaba la Resolución precitada, también recogían
expresamente la consideración de los valores europeos ( 1 3 ) d e d i g n i d a d , a u t o n o m í a y
autodeterminación, libertad y justicia, antes, durante y después del proceso de concepción, desarrollo
y de aplicación de esas tecnologías, incluida la necesidad de no perjudicar, herir, engañar o explorar a
los usuarios (vulnerables), la salud, la privacidad, la seguridad, la transparencia o la previsibilidad.
Las licencias para usuarios, que igualmente incorporaba dicha Resolución, contemplaban también la
no autorización de usos en contra de la intimidad, la privacidad o de manera contraria a normas
éticas o jurídicas.
La ulterior Declaración sobre inteligencia artificial, robótica y sistemas autónomos (14) , de 9.03.2018,
recogía los principios éticos esenciales de la IA, entre otros, los relativos a los derechos
fundamentales como la dignidad humana, la autonomía del ser humano, la seguridad, la protección y
la integridad física y mental, la protección de datos y la privacidad, así como la responsabilidad, la
rendición de cuentas, la democracia, el estado de derecho y la sostenibilidad. De los aspectos más
significativos de esta declaración, destacar que considera que todos estos principios no son un
obstáculo sino un estímulo y oportunidad para la innovación, por lo que propone a la Comisión
Europea investigar sobre los actuales y nuevos instrumentos normativos y de gobernanza que
plantean estas tecnologías, y propone iniciar el camino hacia un marco ético y legal común e
internacional para el diseño, la producción, el uso y la gobernanza de la IA.
Las posteriores Directrices éticas para una IA fiable (15) de 2019, elaboradas por el Grupo de
expertos de alto nivel sobre IA (16) , se basaron en tres pilares fundamentales conformados por su
licitud, la ética y la seguridad con el objetivo de crear una Trustworthy AI —IA fiable—, que debe
sustentarse en el respeto de los derechos fundamentales, el marco legal aplicable y sus principios
básicos, y estar alineada con la ética, considerando ésta la única forma de que el ser humano pueda
disfrutar de sus beneficios con plena libertad. Las directrices recogen siete requisitos esenciales que
deben respetar las aplicaciones y sistemas de IA desde su diseño —by design—, significando que no
son los únicos, y relacionándolos y abordándolos siguiendo el mismo orden de los principios y
derechos de la Carta de la UE con los que se relacionan. Estas directrices se sustentan en la
intervención y supervisión humanas, la solidez y seguridad técnicas, la privacidad y la gobernanza de
datos, la transparencia, la diversidad, no discriminación, equidad y accesibilidad, el bienestar social y
la responsabilidad medioambiental y la rendición de cuentas.

6 / 41
04/03/2023

La Comisión Europea avaló las directrices precitadas en su Comunicación «Generar confianza en la


Inteligencia Artificial centrada en el ser humano», en la que destacó la necesidad de generar confianza
en la IA centrada en el ser humano y recogiendo un argumento que sustenta mi posicionamiento
frente a la misma en mis investigaciones y trabajos monográficos previos, esto es, que la IA, como
cualquier otra tecnología, no debe ser un fin en sí misma, sino un medio que debe servir al ser
humano para su bienestar.
Con posterioridad, se publicó un estudio del Servicio de Estudios Parlamentarios (EPRS) bajo el título
European framework on ethical aspects of artificial intelligence, robotics and related technologies:
European added value assessment (17) , al que prosiguió el precitado Libro blanco sobre inteligencia
artificial, que abordaré con posterioridad.
Tras estos trabajos previos, por su parte, el Parlamento Europeo publicó su Resolución de 20 de
octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos
éticos de la inteligencia artificial, la robótica y las tecnologías conexas (18) , que incorporó como
recomendación de aquél a la Comisión, la Propuesta de Reglamento del Parlamento europeo y del
Consejo sobre los principios éticos para el desarrollo, el despliegue y el uso de la inteligencia artificial,
la robótica y las tecnologías conexas. El instrumento jurídico propuesto, con alcance general y de
eficacia directa, supuso la propuesta regulatoria a nivel europeo desde la ética y para la ética, y
pretendía también plasmar la visión reguladora y ética hasta entonces de la Comisión Europea sobre
la IA, que había sido recogida, entre otros documentos, en el indicado Libro blanco sobre inteligencia
artificial—, como en los trabajos previos del Grupo de Expertos de Alto Nivel sobre inteligencia
artificial —AI HLEG— y en las precitadas Directrices éticas para una inteligencia artificial fiable.
El instrumento propuesto, que igualmente tuve ocasión de analizar con mayor detalle en trabajos
monográficos previos anteriormente citados (19) , tenía como principal objetivo garantizar un
conjunto de principios y normas éticas esenciales, hasta la fecha no vinculantes, en exigencias
legales para todo sistema de IA, junto con otras adicionales y específicas para los sistemas
considerados de alto riesgo, además de establecer un conjunto de obligaciones jurídicas adicionales
para los mismos.
Posteriormente, la Comisión Europea publicó la Propuesta de Reglamento del Parlamento Europeo y
del Consejo, por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de
Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (20) (en lo sucesivo
«AI Act»), de 21 de abril de 2021, y que pretende regular la IA a nivel europeo, pero no en toda su
extensión, sino exclusivamente determinados sistemas inteligentes y usos considerados de riesgo
inaceptable y, por consiguiente, prohibidos, y otros de considerados de alto riesgo, sobre los que
establece un marco legal de requisitos y obligaciones a cumplir por los mismos.
La nueva propuesta, que trataré posteriormente, difiere absolutamente de la propuesta de Reglamento
anteriormente citada por el Parlamento Europeo, tanto en su enfoque, objeto, alcance como
disposiciones, la cual fue elaborada desde un enfoque de riesgos e integró determinados principios y
normas éticas como exigencia jurídica, pero exclusivamente para sistemas considerados de alto
riesgo conforme a la misma, no regulando ni exigiendo dichos principios y normas al resto de
sistemas, a los que remite a su posible autorregulación, a excepción de concretos sistemas a los que
exige determinadas obligaciones de transparencia.
Dejando a un lado las precitadas propuestas éticas en el seno de la UE, a nivel internacional también
se han elaborado distintos marcos éticos de referencia y de pretendido consenso durante los últimos
años, como he referenciado anteriormente, si bien, ante el objeto, alcance y extensión limitada de
este artículo, me limitaré a referir a continuación algunos de los más relevantes, ya sean locales,
supranacionales, generales, sectoriales o empresariales.
Durante estos últimos tres años, las iniciativas en el ámbito ético por parte de distintas

7 / 41
04/03/2023

organizaciones supranacionales han sido múltiples, entre otras (21) , la Organización para la
Cooperación y el Desarrollo Económicos —OCDE— publicó su Recomendación sobre Inteligencia
Artificial (22) , adoptada por el Consejo de la misma el 22 de mayo de 2019, con el propósito expreso
de fomentar la innovación y la confianza en la IA, garantizando el respeto de los derechos humanos y
los valores democráticos, y complementando los estándares de la OCDE en materias como la
privacidad, la seguridad, la gestión de riesgos y la conducta empresarial responsable. La
recomendación identifica un conjunto de principios complementarios basados en valores para una IA
confiable, en particular, crecimiento inclusivo, desarrollo sostenible y bienestar, equidad, valores
centrados en el ser humano, transparencia y explicabilidad, responsabilidad y, por último, robustez,
seguridad y protección. El gráfico mostrado a continuación muestra los Gobiernos que se han
comprometido con los principios de la IA propugnados por la OCDE:

Fuente: OECD 2022. https://oecd.ai/en/ai-principles


Por su parte, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura —
UNESCO— publicó en 2021 su Recomendación sobre laÉtica de la Inteligencia Artificial (23) , dirigida
a sus Estados miembros, con el objetivo de promover los derechos humanos y la dignidad humana.
Los valores y principios que propugna pretenden ser exigibles, conforme a la misma, durante todo el
ciclo de vida de un sistema inteligente y pretende que orienten las medidas políticas y las normas
jurídicas. De la misma, significar la posibilidad de que puedan producirse conflictos entre estos
principios y valores en determinados contextos, pero conforme recoge, los mismos deben resolverse
siempre en base al principio de proporcionalidad y la protección de los derechos humanos y las
libertades fundamentales, de modo que cualquier limitación de los mismos tenga una base jurídica y
sea razonable, necesaria, lícita y proporcional.
La recomendación de la UNESCO propugna, entre los valores exigibles a la IA, en primer lugar, el
respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad
humana, como no puede ser de otra forma, junto con otros esenciales como garantizar la diversidad
y la inclusión, la prosperidad del medio ambiente y los ecosistemas, así como vivir en sociedades
pacíficas, justas e interconectadas. Asimismo, en segundo lugar, entre los principios recogidos en la
misma, se exige la gobernanza, la seguridad y la protección, la supervisión y decisión humana, la
equidad y no discriminación, el derecho a la intimidad y la protección de datos, la transparencia y la
explicabilidad, la responsabilidad y la rendición de cuentas, la proporcionalidad, la sensibilización y
la educación, la inocuidad o la sostenibilidad.
Por su parte, a nivel sectorial, la Autoridad Europea de Seguros —EIOPA— publicó también en 2021
un marco de gobernanza y principios bajo el título: Artificial Intelligence Governance Principles:

8 / 41
04/03/2023

Towards Ethical and Trustworthy Artificial Intelligence in the European Insurance Sector (24) , con el
objetivo de poner en el mercado asegurador soluciones de IA de forma confiable y segura. Y la
Organización Mundial de la Salud —OMS— también publicó en 2021 una nueva guía sobre ética y
gobernanza de la IA bajo el título Ethics and Governance of Artificial Intelligence for Health (25) ,
situando la ética y los derechos en el centro del diseño, implementación y uso de la IA. De esta guía
me permito destacar la cita inicial que incorpora de Stephen Hawking: «Our future is a race between
the growing power of technology and the wisdom with which we use it» (Nuestro futuro es una
carrera entre el creciente poder de la tecnología y la sabiduría con la que la utilizamos), a la que
permitiría adicionar «in which the law is always behind» (en la que el derecho siempre va por detrás).
Asimismo, las iniciativas nacionales en el ámbito ético por parte de países fuera de la UE también se
han multiplicado (26) como, por ejemplo, Reino Unido que, habiendo salido de la UE desde el 1 de
febrero de 2020 y finalizado ya el denominado Acuerdo de Retirada —que motivó que su relación con
la misma pasara a regirse por el Acuerdo de Comercio y Cooperación—, lanzara su propuesta ética en
el ámbito ético de la IA, con la publicación, el 13 de mayo de 2021, de su nueva guía sobre el marco
de ética, transparencia y rendición de cuentas para la toma de decisiones automatizadas en relación
con el sector público, bajo el título Ethics, Transparency and Accountability Frameworkfor Automated
Decision-Making (27) , al que prosiguió la reciente definición de sus bases para su regulación, con la
publicación de su proyecto de Ley de Protección de datos e Información Digital (DPDIB), acompañada
de una serie de nuevas propuestas de regulación de la IA, a las que haré referencia posteriormente.
Por su parte, EE.UU., a través de su U.S. Government Accountability Office publicó en junio de 2021
su informe Artificial Intelligence: An Accountability new Framework for Federal Agencies and Other
Entities ( 2 8 ) , en la que identificó algunas prácticas clave para la rendición de cuentas o
accountability. Este informe se une al marco de gobernanza algorítmica propuesta por la misma en el
sector público, en su informe Government by Algorithm: Artificial Intelligence in Federal Administrative
Agencies (29) , entre otras iniciativas, también legislativas, a las que me referiré posteriormente.
Asimismo, EE.UU. ha publicado recientemente su proyecto de Carta de Derechos de la IA (30) . China
publicó en septiembre de 2021 sus Ethical Norms for New Generation Artificial Intelligence (31) .
Del mismo modo, son múltiples las empresas que han creado sus propios marcos corporativos en
materia de ética de la IA, incluyendo gigantes tecnológicos. De lo distintos estudios más recientes
que analizan algunos de los principales marcos mundiales, me permito significar el estudio Principled
artificial intelligence: a Map of Ethical and Rights-Based Approaches llevado a cabo por el Berkman
Klein Center for Internet & Society de la Universidad de Harvard en 2020 (32) , donde se analizaron
32 marcos distintos elaborados por gobiernos, entidades intergubernamentales o empresas hasta
2020, y que queda perfectamente reflejado en este gráfico que recoge el mismo:

Fuente: Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches

9 / 41
04/03/2023

to Principles for AI. Berkman Klein Center for Internet & Society, 2020. P. 20.
Asimismo, significar otros estudios recientes, como las directrices de la Escuela Politécnica Federal de
Zúrich —ETH—, bajo el título Artificial Intelligence: the global landscape of ethics guidelines (33) ,
para las que analizó 84 organizaciones a nivel internacional, o las directrices publicadas por
Algorithm Watch en 2020 bajo el título AI Ethics Guidelines Global Inventory (34) , para las que
analizó más de 83 organizaciones, o la GuIA de buenas prácticas en el uso de la inteligencia artificial
ética (35) , elaborada por Odiseia en 2021, en las que se analizaron 27 iniciativas mundiales.
Durante estos últimos años, la UE ha mostrado su pretensión de liderazgo internacional en materia
ética, habiendo colaborado estrechamente en la elaboración de los precitados principios éticos de la
OCDE en materia de IA que posteriormente fueron suscritos por el G20. Asimismo, la UE ha venido
asumiendo un especial protagonismo en materia ética en otros foros multilaterales, como el Consejo
de Europa, la UNESCO, la Organización Mundial del Comercio, la Unión Internacional de
Telecomunicaciones (UIT) y Naciones Unidas.
Por último, significar que el 26 de enero de 2022, se publicó la Declaración Europea sobre los
Derechos y Principios Digitales para la Década Digital (36) , del Parlamento Europeo, el Consejo y la
Comisión, concibiendo a las personas en el centro de la transformación digital. Estos principios se
presentan como esenciales y basados en valores europeos, con el objetivo de que los mismos y los
derechos fundamentales y libertades de los ciudadanos garantizados por el Derecho de la UE sean,
del mismo modo, garantizados tanto en la dimensión física como digital en las que vivimos y
operamos. La declaración dedica el primer apartado de su Capítulo III a las interacciones con
algoritmos y sistemas de IA, la necesidad de transparencia, equidad y seguridad, recogiendo
expresamente que debe asegurarse la protección de las personas «frente a los riesgos y daños a su
salud, su seguridad y sus derechos fundamentales». Con esta finalidad recoge un conjunto de
compromisos con dicho objetivo, que incluyen la transparencia, la no discriminación, la autonomía
personal, el control y supervisión humana, la seguridad y el respeto a los derechos fundamentales de
las personas. Asimismo, dedica su Capítulo V a la seguridad, protección, accesibilidad y
empoderamiento, al objeto de que toda persona tenga «acceso a tecnologías, productos y servicios
digitales que sean seguros y protejan la intimidad desde el diseño», es decir, exigiendo la seguridad
y la privacidad en el diseño.
Por su parte, en España, la Carta de Derechos Digitales (37) de 2021 reconoce el derecho a la
seguridad de los sistemas digitales de información, dedicando un apartado específico sobre
«Derechos ante la IA», que no, a los «Derechos a la IA», como entiendo sería deseable, en referencia
a su accesibilidad, principalmente para empresas y ciudadanos. Tanto la Declaración Europea sobre
los Derechos y Principios Digitales para la Década Digital como la Carta de Derechos Digitales
constituyen instrumentos de soft law no vinculantes, como significa Barrio Andrés (38) .

3. Propuestas reguladoras de la IA
3.1. Introducción.
La IA no se halla actualmente regulada a nivel global en ningún país del mundo, lo que ha planteado,
de un lado, un arduo debate sobre la necesidad de su regulación y, en su caso, el enfoque, objeto,
alcance y técnicas más adecuadas para ello y, de otro, la proposición de distintas iniciativas
legislativas en los países que han identificado la necesidad de regularla por razones diversas. La
ausencia de regulación hasta la fecha nos ha obligado como juristas a realizar una labor integradora
e interpretativa a la hora de resolver los problemas y conflictos que ya surgen en relación con la
misma, tomando como referencia la legislación sobre propiedad intelectual e industrial,
ciberseguridad, protección de datos, secretos empresariales, seguridad industrial, seguridad de los
productos y consumo, así como el resto de marcos normativos generales o sectoriales en materia

10 / 41
04/03/2023

civil, mercantil, laboral, administrativa o penal. Del mismo modo, la vía contractual y la
autorregulación corporativa (códigos de gobierno, éticos y de conducta —soft law—) nos han servido
para definir sus requerimientos, obligaciones, seguridad, garantías y responsabilidades, tomando
como referencia algunos de los estándares y marcos éticos de referencia a nivel mundial sobre IA.
La regulación de la IA se ha incorporado en la agenda legislativa de distintos países y constituye un
objetivo para la UE en el marco de su estrategia digital, datos e IA, la cual pretende aprobar la
primera norma reguladora de la IA de referencia mundial.
El motivo, enfoque, objeto, alcance y técnicas para su regulación son diversas, aunque parten en su
gran mayoría de un enfoque centrado en el ser humano y en la protección de sus derechos
fundamentales y libertades públicas como, por ejemplo, la estrategia española en materia de IA a la
que aludiré posteriormente, pero sin descuidar la innovación y la competitividad de la industria local
o regional. No obstante, no todos los países disponen de una estrategia en materia de IA y, los que
disponen de la misma, no todos han identificado y enfocado de la misma manera su posible
regulación.
La UE elaboró su estrategia en materia de IA bajo el título Inteligencia artificial para Europa» (39) y
su Plan coordinado sobre la inteligencia artificial (40) . A nivel de Estados miembros, España aprobó
su Estrategia Española de I+D+I en IA (41) en 2019 y su Estrategia Nacional de IA (42) —ENIA— en
diciembre de 2020, si bien, algunas de sus comunidades autónomas tienen su propia estrategia
autonómica, como Cataluña y la Comunidad Valenciana. Otros países pertenecientes a la UE disponen
ya de su estrategia nacional como Alemania, Bulgaria, Chequia, Chipre, Dinamarca, Eslovaquia,
Estonia, Finlandia, Francia, Hungría, Letonia, Lituania, Luxemburgo, Malta, Países Bajos, Portugal,
Suecia, España, Polonia y Noruega. A nivel internacional, países como China, Canadá, India, Japón o
UK disponen de sus propias estrategias ( 4 3 ) . El siguiente gráfico de la OECD.AI muestra
gráficamente las iniciativas políticas y estrategias de IA a nivel mundial:

Fuente: OECD.AI (2021), powered by EC/OECD (2021), database of national AI policies, accessed on
15/11/2022.
Las principales preocupaciones de los legisladores al abordar la regulación de la IA, partiendo de la
exigencia imperativa y necesidad primigenia de garantizar los valores y derechos fundamentales, son,
de un lado, mantener el equilibrio entre la seguridad y la confianza y, de otro, su despliegue, su
accesibilidad, su uso, la innovación, el desarrollo y la competitividad. El riesgo de una
hiperregulación o intervención legislativa excesiva con el objetivo de garantizar lo primero podría
impactar directamente en garantizar lo segundo. Y este equilibrio se haya en constante tensión,
especialmente, ante el desarrollo, despliegue y aplicación incesante de la IA en nuevos ámbitos y
sectores, la potenciación de sus capacidades asociadas y relacionadas, mayor disponibilidad de
datos, conectividad y capacidad de computación, relación e interacción con otras tecnologías, el
avance científico incesante y los potenciales riesgos asociados de alto impacto.
El legislador europeo es consciente que, salvaguardar ese equilibrio

11 / 41
04/03/2023

L a s p r i n c i p a l e s desde la protección de los valores europeos con una intervención


preocupaciones de los legislativa adecuada, podría posicionar a la industria europea de la IA
legisladores al abordar la
a la vanguardia en seguridad y confiabilidad de sus sistemas,
regulación de la IA, son, de
conforme ya lo es en otros sectores, y, de este modo, compensar la
un lado, mantener el
equilibrio entre la seguridad inversión de la industria en seguridad y fiabilidad con una ventaja
y la confianza y, de otro, su competitiva. Sin embargo, el posicionamiento de la industria es
d e s p l i e g u e , s u contrario a una intervención legislativa excesivamente garantista,
accesibilidad, su uso, la como se ha evidenciado en las consultas previas a las recientes
innovación, el desarrollo y Directivas propuestas de la Comisión Europea en materia de
la competitividad adecuación de los marcos de responsabilidad extracontractual a la IA
y de responsabilidad por productos defectuosos, a las que haré
referencia posteriormente.
En mi opinión, no definir y sustentar adecuadamente este equilibrio podría también comportar que la
industria europea se vea compitiendo con desigualdad de armas en un mercado mundial,
restringiendo su mercado y, del mismo modo, se podría producir una cierta «competencia desleal» de
la industria con origen en otros países de fuera de la UE, que podrían ofrecer sistemas inteligentes
que pueden proporcionar soluciones a problemas actuales, satisfacer necesidades, mejorar la vida e
incluso salvarla, pero que no cumplirían los marcos europeos, lo que colocaría a los ciudadanos,
empresas, Administraciones públicas e incluso a los propios gobiernos ante la disyuntiva de disponer
o renunciar a los mismos a pesar de su benevolencia. Por todo ello, considero necesaria y oportuna la
intervención legislativa para garantizar dicho equilibrio.
Las propuestas reguladoras de la UE en materia de IA recogen la necesidad y objetivo de
salvaguardar este equilibrio, partiendo de los valores europeos, la garantía y protección de los
derechos fundamentales y las libertades públicas, de modo que ninguna tecnología pueda prevalecer
sobre ningún derecho fundamental, siguiendo la doctrina del TJUE (44) .

3.2. Propuestas reguladoras globales en el marco de la UE


La hoja de ruta reguladora de la IA en la UE se definió en el precitado Libro Blanco sobre la
Inteligencia Artificial: un enfoque europeo orientado a la excelencia y la confianza.
La UE consideró que una IA confiable constituía uno de los pilares de la denominada economía de los
datos y, consecuentemente, de la estrategia de la misma en esta materia para convertir a la UE en la
economía más atractiva, segura y dinámica del mundo en el manejo de datos. De manera alineada
con sus políticas legislativas, la UE pretendía apostar por un modelo de calidad y de seguridad
acompañado de una regulación basada en los valores y en la protección de los derechos
fundamentales de las personas, con el objetivo de convertir a la UE en líder mundial de la innovación
en la economía de los datos y sus aplicaciones, de manera alineada con su Estrategia Europea de
Datos (45) . El Libro blanco significó la necesidad de un marco regulador de la IA para generar
confianza, que debía garantizar la seguridad a ciudadanos, empresas y Administraciones públicas y
velar por el cumplimiento de las normas de la UE, especialmente en materia de protección de
derechos de fundamentales, y todo ello en base a un principio ético esencial sobre el que se
construyeron las precitadas Directrices éticas para una inteligencia artificial fiable, esto es, una IA
centrada en el ser humano (46) .
El Libro blanco planteó dos cuestiones fundamentales. De un lado, la necesidad de analizar si los
marcos reguladores vigentes podían hacer frente a los riesgos de la IA o, en caso contrario, si era
necesario adaptarlos o crear una nueva legislación. Y, de otro, la posible necesidad de armonizar y
unificar estos marcos en el seno de la UE, ante la inexistencia de un marco común europeo, pero
todo ello bajo un enfoque que debe significarse especialmente y que debería regir la actividad del
legislador: «El marco regulador debe dejar margen para abordar su desarrollo en el futuro». Es decir,

12 / 41
04/03/2023

un marco evolutivo, adaptativo y flexible, que no comprometa el desarrollo y la innovación.


Durante algunos de mis trabajos de investigación llevados a cabo durante los últimos dos años, he
analizado precisamente estos aspectos, concluyendo que, efectivamente, los marcos reguladores
vigentes no son suficientes para abordar los retos y riesgos que plantea la IA en la actualidad y
mucho menos en el futuro, por lo que es necesaria la creación de un marco sustantivo específico que
regule la IA en lo justo y necesario, así como una adaptación de los marcos jurídicos vigentes, como
así lo ha entendido el legislador de la Unión, mediante las distintas propuestas posteriores que
abordaré más tarde. Del mismo modo, dicha intervención legislativa es igualmente necesaria para la
armonización de su regulación a nivel de la UE y evitar con ello el riesgo de fragmentación del
mercado interior, que se empezaba a vislumbrar en las estrategias en materia de IA que empezaban a
emanar de distintos Estados (47) y que se ha evidenciado con posterioridad con las iniciativas
legislativas de algunos de ellos, a las que luego aludiré. Dicha fragmentación podría y puede
comportar la afectación de los objetivos de confianza y seguridad pretendidos, como los de su
despliegue, aplicación y uso en la UE.
El Libro blanco también recogió los principales retos y riesgos que conlleva la IA que justificaban su
regulación (48) y que pueden afectar, entre otros bienes, derechos e intereses jurídicos protegidos, a
la seguridad y a los derechos fundamentales de las personas, los cuales, como he referido, ya se
hayan contemplados y protegidos en distintos marcos reguladores vigentes, generales, especiales y/o
sectoriales, por ejemplo, la protección de intimidad, el honor y la propia imagen, la privacidad o la
no discriminación—, y tanto de carácter proactivo como reactivo, como son los marcos de
responsabilidad civil contractual como extracontractual, responsabilidad por daños derivados por
productos defectuosos o la regulación penal de determinados delitos, por ejemplo los delitos contra
la privacidad y otros bienes, derechos y libertades protegidas. Sin embargo, todos estos marcos
generales se evidenciaban y evidencian insuficientes para responder adecuadamente a dichos retos y
riesgos, y a los diversos contextos que en los que sea vea involucrado un sistema inteligente,
especialmente ante sus posibles capacidades, características, interacción con otros recursos y
tecnologías, contexto de uso y finalidad.
La actividad posterior por parte del legislador europeo ha sido muy prolífica con el propósito de
liderar a nivel internacional la regulación de la IA, definir un marco armonizado a nivel de la UE y
evitar la regulación local por parte de los distintos Estados miembros de manera diversa, conforme
analizaré a continuación. Las distintas propuestas formuladas a partir del Libro blanco sobre IA se
han elaborado desde y sobre los principios y valores europeos, situando a la persona y sus derechos
fundamentales en el centro de las mismas, si bien, el legislador europeo ha tenido que enfrentarse al
reto de abordar el necesario equilibrio entre sus distintos objetivos, esto es, garantizar la seguridad y
la protección de los derechos fundamentales, asegurando la innovación, el desarrollo y la
competitividad de la industria europea, en un contexto internacional liderado por países como EE.UU.
y China (49) , así como por las grandes tecnológicas.
El Parlamento Europeo dio el primer paso en su propuesta de regulación de la IA mediante dos
resoluciones que incorporaban sendas propuestas de regulación de sus aspectos éticos y de
responsabilidad civil asociados a la misma. La precitada Resolución del Parlamento Europeo de 20 de
octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos
éticos de la inteligencia artificial, la robótica y las tecnologías conexas, incorporó como recomendación
del Parlamento a la Comisión, la Propuesta de Reglamento del Parlamento europeo y del Consejo
sobre los principios éticos para el desarrollo, el despliegue y el uso de la inteligencia artificial, la
robótica y las tecnologías conexas.
El instrumento regulador incorporado en la Resolución precitada, supuso la primera propuesta
regulatoria a nivel europeo desde la ética. El objeto pretendido, como he referido anteriormente, era
regular y exigir jurídicamente un conjunto limitado de principios y normas éticas esenciales a todo

13 / 41
04/03/2023

sistema de IA, junto con otras adicionales y específicas únicamente exigibles para los sistemas
considerados de alto riesgo, así como definir un conjunto de obligaciones adicionales relacionadas
que aseguren su observancia en el desarrollo, comercialización y uso de la IA.
La coetánea Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones
destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial
(50) , recogió el posicionamiento y recomendaciones del Parlamento destinadas a la Comisión para el
establecimiento de un régimen legal de responsabilidad civil en materia de IA en la UE, incorporando
una Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la responsabilidad civil
por el funcionamiento de los sistemas de IA, que tuve igualmente ocasión de analizar con profundidad
en el marco de mi tesis doctoral en materia de IA y derecho de daños (51) .
Esta Resolución significó, de nuevo, la importancia de legislar de manera «estratégica» de modo que
se permita la inclusión de futuros avances tecnológicos. Asimismo, planteó un sistema dual de
responsabilidad (52) , esto es, de un lado, una responsabilidad objetiva para los operadores de
sistemas de IA de alto riesgo (53) y, de otro lado, una responsabilidad subjetiva para el resto de
sistemas inteligentes. Y todo ello sin pretensión de «sustituir» sino «integrar y complementar» el
régimen actual de responsabilidad por productos defectuosos. Por último, el Parlamento Europeo
pidió expresamente a la Comisión que considerara la posibilidad de revertir las normas que rigen la
carga de la prueba para los daños ocasionados por las tecnologías digitales emergentes en casos
concretos, previa y adecuada evaluación. La responsabilidad objetiva contemplada en el mismo debía
corresponder inicialmente al operador, y al fabricante cuando el control del riesgo recayera en aquél,
y se acompañaba de la exigencia de un seguro obligatorio de responsabilidad civil tanto al operador
final como inicial de un sistema de IA de alto riesgo, al que ya aludía el Parlamento Europeo en su
precitada Resolución de 16 de febrero de 2017, así como de una limitación cuantitativa de las
indemnizaciones.
Estas dos propuestas del Parlamento Europeo han sido relegadas por las posteriores propuestas de la
Comisión, que difieren sustancialmente respecto de aquellas en su enfoque, definiciones, objeto,
contenido y alcance, así como incluso en el tipo de instrumento o acto jurídico propuesto para su
regulación, en concreto, en materia de responsabilidad civil, como luego expondré.
La posterior Propuesta deReglamento del Parlamento Europeo y del Consejo, por el que se establecen
normas armonizadas en materia de IA (Ley de Inteligencia Artificial) —AI Act—, se presentó como la
primera norma reguladora de la IA y sus usos a nivel europeo y horizontal, con vocación de
convertirse en referencia internacional como lo fue el GDPR (54) . Sin embargo, como he referido, no
regula la IA toda su extensión y de manera global, sino exclusivamente determinadas aplicaciones y
sistemas inteligentes considerados de riesgo inaceptable, por consiguiente, prohibidos por razones de
prudencia, y otros de alto riesgo, previendo todo un conjunto de requisitos y obligaciones para los
mismos. Sin embargo, a pesar de tratarse de una propuesta construida desde un enfoque de riesgos,
por el momento, deja el resto de sistemas a la autorregulación, a excepción de concretos sistemas a
los que exige determinadas obligaciones de transparencia e información. El Reglamento propuesto
parte de la consideración de la IA como una «actividad de riesgo», que precisa regulación en los
niveles más altos.
De las opciones valoradas por el legislador europeo para acometer la regulación de la IA, conforme
consta en su Evaluación de Impacto, apostó por la plasmada en el texto finalmente propuesto, que no
comparto totalmente, dado que, como he referido, únicamente regula la IA calificada conforme al
mismo de alto riesgo, dejando al margen el resto de sistemas a los que remite a la autorregulación.
En mi opinión, esta opción es incongruente con el enfoque de riesgos y objetivos pretendidos con la
norma propuesta. De manera congruente con dicho enfoque y objetivos, a mi juicio y de inicio,
debería exigirse un análisis de riesgos a todo sistema inteligente antes de su lanzamiento al mercado
y su puesta en funcionamiento y, desde luego, en el caso de que el sistema se relacione con

14 / 41
04/03/2023

personas, sus derechos fundamentales o sus datos, ya sean sistemas de riesgo medio o limitado,
reducido o mínimo conforme a la AI Act, considerando que siempre existe un riesgo intrínseco o
inherente cuando el sistema interaccione con aquéllas y aquéllos.
La propuesta recoge como primer objetivo de la misma, garantizar que los sistemas de IA
comercializados y utilizados en la UE sean seguros y respeten la legislación vigente sobre valores y
derechos fundamentales de la UE. Conforme expresamente recoge en su exposición de motivos, la
propuesta pretende mejorar y promover la protección de los derechos fundamentales propugnados
por la Carta de los Derechos Fundamentales de la UE, en particular: El derecho a la dignidad humana
(Artículo 1), el respeto a la vida privada y la protección de datos personales (Artículos 7 y 8), no
discriminación (Artículo 21) e igualdad entre mujeres y hombres (Artículo 23), libertad de expresión
(Artículo 11), la libertad de reunión (Artículo 12), la protección del derecho a un recurso efectivo y a
un juicio justo, los derechos de defensa y la presunción de inocencia (Artículos 47 y 48), así como el
principio general de buena administración. Asimismo, conforme igualmente recoge dicha exposición
de motivos, la Comisión considera que la propuesta afectará positivamente a los derechos de un
conjunto de grupos especiales, como los derechos de los trabajadores a unas condiciones de trabajo
justas y equitativas (Artículo 31), un alto nivel de protección del consumidor (Artículo 38), los
derechos del niño (Artículo 24) y la integración de las personas con discapacidad (Artículo 26). Y que
también repercutirá del mismo modo en el derecho a un alto nivel de protección ambiental y la
mejora de la calidad del medio ambiente (Artículo 37), incluso en relación con la salud y la seguridad
de las personas.
No obstante, debo destacar que la propuesta contiene algunas limitaciones consideradas por la
misma como «proporcionadas y limitadas» a la libertad de empresa (Artículo 16) y a la libertad
artística y científica (Artículo 13) por razones de interés público y para proteger derechos
fundamentales como la salud, la seguridad, la protección del consumidor u otros, así como a la
propiedad intelectual (Artículo 17.2), ante los requerimientos de transparencia e información, cuya
divulgación estaría sometida en cualquier caso a la Directiva 2016/943 (55) .
Del mismo modo, la AI Act integra un conjunto de principios éticos esenciales en sus disposiciones,
requerimientos y obligaciones, los cuales integran los principales marcos éticos a nivel internacional
a los que he hecho referencia anteriormente —entre otros, control y supervisión humana,
transparencia, explicabilidad, responsabilidad, seguridad o privacidad—, si bien, exclusivamente
exigibles a los sistemas inteligentes considerados de alto riesgo y no exigibles al resto —por ejemplo
un chatbot inteligente que puede estar interactuando con menores o personas afectadas por
determinadas enfermedades mentales, afecciones neurológicas o discapacidades intelectuales—, lo
que considero una oportunidad perdida e incongruente, de nuevo, con el enfoque de riesgos desde el
que se construye el acto jurídico propuesto. La AI Act difiere en estos aspectos de la previa propuesta
reguladora integrada por el Parlamento Europeo en su Resolución de 20 de octubre de 2020, que
contemplaba un conjunto de normas y principios éticos exigibles a cualquier sistema inteligente,
cualquiera que fuera su nivel de riesgo, junto con otros únicamente exigibles a los considerados de
alto riesgo según la misma, conforme he referido anteriormente.
En mi opinión, un sistema inteligente que trate inicialmente con personas y sus derechos
fundamentales, desde un punto de vista de riesgos y en términos de análisis de su impacto para las
mismas, al margen de su probabilidad y siguiendo la clasificación de la AI Act, debería presumirse de
inicio de alto riesgo, salvo que el hipotético análisis de riesgos, previo y preceptivo, al que hecho
referencia, evidencie un nivel distinto, considerando especialmente sus capacidades, características,
interacción con otras tecnologías, contexto de uso y finalidad, así como las medidas de seguridad que
reduzcan el nivel de riesgo y lo lleven a un nivel aceptable.
La propuesta es técnica y compleja, con un enfoque basado en la industria, la seguridad y la ética
más que en los derechos fundamentales y libertades públicas del ciudadano, no contemplando

15 / 41
04/03/2023

mecanismos específicos de garantía o tutela de derechos de las personas afectadas y las posibles
evaluaciones de impacto en los derechos humanos.
La propuesta incorpora un régimen sancionador del que adolecía la precitada Propuesta de
Reglamento del Parlamento Europeo y del Consejo, sobre los principios éticos para el desarrollo, el
despliegue y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, de 20 de
octubre de 2020, como herramienta conminatoria para el cumplimiento de las obligaciones previstas
en el mismo.
La iniciativa legislativa ha proseguido su tramitación, en la que se han producido incesantes
enmiendas y propuestas de modificación, empezando por el propio concepto de IA que constituye su
objeto, sobre el que no existe consenso, como he referido (56) .
La definición incorporada en la propuesta inicial definía el concepto de «Sistema de inteligencia
artificial» (sistema de IA) en su artículo 3, como el software desarrollado con una o más de las
técnicas y enfoques enumerado en el Anexo I (57) y que puede, para un conjunto dado de objetivos
definidos por el ser humano, generar resultados como contenido, predicciones, recomendaciones o
decisiones que influyen en los entornos con los que interactúan. La nueva definición jurídica de dicho
concepto eliminaba el atributo de «autonomía» del mismo y difiere absolutamente de las definiciones
incorporadas en las precitadas resoluciones del Parlamento Europeo de 20 de octubre de 2020 y de la
posterior de 2021 (58) , que incorporan dicho atributo y lo asocian inexorablemente a la IA. Las
definiciones incorporadas en aquellas propuestas hacían referencia a sistemas basados en programas
informáticos o incorporados en dispositivos físicos que manifiestan un comportamiento inteligente al
ser capaces, entre otras cosas, de recopilar y tratar datos, analizar e interpretar su entorno y pasar a
la acción, con cierto grado de autonomía, con el fin de alcanzar objetivos específicos. La cuestión es
que parece que el Parlamento Europeo partía de un IA más avanzada al definir correlativamente
«autonomía», como el atributo propio de un sistema de IA que funciona interpretando determinados
datos de entrada y utilizando un conjunto de instrucciones predeterminadas, sin limitarse a ellas, a
pesar de que el comportamiento del sistema esté orientado a cumplir el objetivo que se le haya
asignado y esté limitado por este y por otras decisiones de diseño pertinentes tomadas por su
desarrollador. Es decir, una IA no limitada a las instrucciones predeterminadas.
En cualquier caso, dentro de las enmiendas presentadas durante su tramitación, se abogó de inicio
por modificar la definición de IA incorporada en la AI Act, proponiendo la incorporación de la
definición propuesta por la OCDE (59) . La versión final de la propuesta presentada el pasado 8 de
noviembre de 2022 para su remisión al Comité de representantes permanentes del Consejo, incorpora
importantes cambios respecto de las tres versiones anteriores, entre otras, del propio concepto de IA,
que recupera e incorpora el atributo de «autonomía», concibiendo un sistema de IA como un sistema
diseñado para operar con un cierto nivel de autonomía y que, basándose en datos e insumos
proporcionados por la máquina y/o el ser humano, infiere cómo lograr un conjunto determinado de
objetivos definidos por el ser humano objetivos definidos por el ser humano utilizando enfoques
basados en el aprendizaje automático y/o en la lógica y el conocimiento, y produce resultados
generados por el sistema, como contenidos (sistemas de IA generativa), predicciones,
recomendaciones o decisiones, que influyen en los entornos con los que el sistema de IA interactúa.
Con posterioridad, la Comisión publicó el 15.09.2022 su Propuesta de Reglamento del Parlamento
Europeo y del Consejo sobre los requisitos de ciberseguridad para los productos con componentes
digitales, —Cyber Resilience Act— (60) , Junto a la seguridad regulada en la AI Act y en esta nueva
propuesta, también se están revisando las normas generales de seguridad de los productos (61) y
sectoriales sobre máquinas (62) y equipos de radio (63) .
Por último, la Comisión acaba de presentar la Propuesta de Directiva del Parlamento Europeo y del
Consejo, relativa a la adaptación de las normas de responsabilidad civil extracontractual a la

16 / 41
04/03/2023

inteligencia artificial (Directiva sobre la responsabilidad en materia de IA) (64) y la Propuesta de


Directiva del Parlamento Europeo y del Consejo, sobre responsabilidad por los daños causados por
productos defectuosos (65) , con el objetivo de adecuar el régimen de responsabilidad por productos
defectuosos y el régimen de responsabilidad civil extracontractual actuales a la IA, armonizando en
esta materia las diferentes normativas de los distintos Estados miembros en aspectos específicos, y
todo ello desde un enfoque global y holístico de la responsabilidad por daños derivados del uso y
funcionamiento de la IA. Las Directivas propuestas se complementan con la pretensión de conformar
un sistema global de responsabilidad civil eficaz, al objeto de proporcionar la seguridad jurídica
necesaria y garantizar el resarcimiento efectivo de los perjudicados. Estas propuestas se alejan
radicalmente de la precitada Resolución del Parlamento Europeo de 20 de octubre de 2020 en materia
de responsabilidad civil e IA y de la propuesta de Reglamento sobre esta materia que integraba la
misma, tanto por lo que se refiere a la naturaleza del acto jurídico propuesto (Reglamento vs
Directiva) como respecto a su objeto, alcance y contenido, en la medida que no se contempla una
responsabilidad objetiva y la exigencia de un seguro obligatorio para sistemas inteligentes de alto
riesgo en el ámbito de la responsabilidad civil extracontractual, ni tampoco la inversión de la carga
de la prueba que el Parlamento propuso valorar a la Comisión, como he referido anteriormente. Y del
mismo modo, también se aparta de algunas de las recomendaciones esenciales previas recogidas en
el informe Liability for Artificial Intelligence and other emerging digital technologies (66) , elaborado
por el Grupo de expertos en responsabilidad y nuevas tecnologías de la Comisión Europea, en
particular y entre otros aspectos, en relación con necesidad objetivación de la responsabilidad del
operador de una tecnología basada en IA —construida desde un enfoque de riesgos y ante la
pluralidad de sujetos intervinientes que pueden considerarse corresponsables dentro de su ciclo de
vida—, el aseguramiento obligatorio, la posible creación de fondos de compensación e, incluso, la
inversión de la carga de la prueba en general cuando existan dificultades o costes desproporcionados
para establecer el nivel de seguridad pertinente o para demostrar que no se ha cumplido el nivel de
seguridad exigido, conforme recogía aquél.
De manera sucinta, ante la imposibilidad de acometer su análisis por el objeto y alcance específicos
de este artículo y ser objeto de un trabajo de investigación coetáneo a éste, significar algunas
cuestiones especialmente significativas de este nuevo marco propuesto.
De inicio, en mi opinión, los marcos actuales reguladores de la responsabilidad extracontractual y, en
especial, las basadas en la culpa, no responden adecuadamente a la diversidad de casuísticas que
pueda plantear la IA desde una perspectiva horizontal como vertical o sectorial, y además pueden
plantear serias dificultades de prueba para el perjudicado (y, en ocasiones, incluso su imposibilidad),
por la propia tipología, capacidades y características específicas de las que puede estar dotado el
sistema inteligente implicado en los mismos como, por ejemplo, su posible complejidad, capacidad
de autoaprendizaje, autonomía y/u opacidad («caja negra»), así como en función del contexto de
uso, finalidad, interacción con otras tecnologías, ciclo de vida o sujetos intervinientes.
La Comisión ha abordado con ambas propuestas uno de los principales riesgos asociados a la IA,
esto es, el asociado al funcionamiento eficaz del régimen de responsabilidad civil y el resarcimiento
efectivo de los perjudicados en caso de daños derivados de su uso y funcionamiento, y ello, en mi
opinión, con un acertado enfoque global y holístico de la responsabilidad desde una perspectiva
horizontal, proponiendo una revisión, adaptación y necesaria armonización de los marcos existentes,
tanto en materia de responsabilidad civil extracontractual como la responsabilidad por los daños
causados por productos defectuosos, mejorando la situación del perjudicado respecto de los marcos
vigentes. Las medidas que propone de facilitación de la prueba y presunciones contribuyen además a
garantizar el derecho fundamental a una tutela judicial efectiva e interdicción de la indefensión,
especialmente por lo que se refiere al derecho a la prueba que integra este derecho.
En consecuencia, a mi juicio, se trata de una intervención legislativa que considero necesaria y

17 / 41
04/03/2023

oportuna, si bien, como he anticipado, con un alcance y contenido alejados de los informes y
propuesta previa del Parlamento Europeo, con la pretendida intención, de nuevo, de mantener el
precitado y difícil equilibrio entre seguridad, confianza, despliegue, uso, accesibilidad, inversión,
innovación, desarrollo, competitividad y demás intereses de las distintas partes implicadas analizados
durante su evaluación de impacto, en la que se escucharon y atendieron las principales peticiones de
la industria en esta materia, conforme recoge la Exposición de Motivos de las mismas, con la
consiguiente afectación y menor protección de los perjudicados por daños derivados de la IA, al optar
por la opción menos intervencionista desde el punto de vista legal, pero, a su vez, menos
proteccionista de sus intereses y derechos.
Las medidas suponen una mejora de la situación actual del perjudicado pero supone una intervención
prudente y «de mínimos» ante el posicionamiento de la industria —firmemente contraria a la
objetivización de la responsabilidad, los seguros obligatorios o la inversión de la carga de la prueba
—, pero, a mi juicio insuficiente para garantizar la eficacia de los regímenes de responsabilidad que
pretende adecuar ante los distintos supuestos que plantea la IA presente y futura, así como para
garantizar el resarcimiento efectivo de los perjudicados, especialmente ante la evolución y desarrollo
incesante de la IA y el previsible crecimiento de conflictos en paralelo al crecimiento exponencial de
su despliegue, aplicación, uso y su complejidad.
La Comisión descartó medidas de mayor impacto como la determinación de una responsabilidad
objetiva o la inversión de la carga de la prueba en la Propuesta de Directiva sobre la responsabilidad
en materia de IA), optando por otras más moderadas como la facilitación de la prueba y el
establecimiento de presunciones iuris tantum en el marco de un procedimiento judicial (67) , lo que
en la práctica no evita al perjudicado tener acudir a la vía judicial para defender sus derechos e
intereses, con los costes e incertidumbres asociadas a todo ello, aunque se prevea una reducción de
litigios ante las medidas ya establecidas.
Del mismo modo, la Comisión también descartó medidas de mayor impacto y, en especial, en los
derechos fundamentales, al evaluar el impacto de la coetánea Propuesta de Directiva del Parlamento
Europeo y del Consejo, sobre responsabilidad por los daños causados por productos defectuosos. En
particular, descartó la inversión de la carga de la prueba en base a lo que considera «un reparto
equitativo del riesgo» (68) , apostando por limitarse a facilitar la misma mediante distintas
presunciones contempladas en su artículo 9 en relación con el carácter defectuoso de producto o de
la relación causal entre el defecto y el daño en determinados contextos, eso sí, eliminando el umbral
de daños materiales y extendiendo el período de responsabilidad. Asimismo, aborda aspectos que
precisaban su revisión, como la inclusión expresa como producto de los programas informáticos, de
los sistemas de IA y de los productos basados en IA, la pérdida o corrupción de datos como daños, la
responsabilidad de los proveedores de software o el régimen de responsabilidad solidaria del
fabricante de un componente y del fabricante del producto en el que aquél se integre. Pero finalmente
desecha la inversión de la carga de la prueba, optando por el establecimiento de algunas
presunciones sujetas a determinadas condiciones. La Directiva propuesta prevé igualmente distintas
causas de exención de responsabilidad en su artículo 10, de su reducción en los supuestos
contemplados en su artículo 12, así como de exclusión o limitación en su artículo 13. Al igual que la
Directiva propuesta coetánea, ya prevé su futura revisión de su aplicación y posible modificación
consecuente en caso de que se considere necesaria.
En este sentido y en relación con el objeto de este trabajo, merece significarse que la Comisión
también valoró en su evaluación de impacto previa pero descartó, la opción de adicionar la inclusión
de cualquier software con implicaciones para los derechos fundamentales, de modo que fueran
indemnizables los daños derivados de la vulneración de los derechos fundamentales en el marco de
la Directiva propuesta, como la violación de la protección de datos, la vulneración de la intimidad o
la discriminación.

18 / 41
04/03/2023

En definitiva, en mi opinión, las Directivas propuestas suponen una oportunidad e importantes


esfuerzos, tanto ahora, en su elaboración, como posteriormente, en su transposición, revisión y
adaptación de los ordenamientos jurídicos nacionales, los cuales no deben ser desaprovechados. La
adopción de medidas más profundas como las precitadas no es fácil pero considero que el momento
oportuno puede ser ahora, especialmente en relación con determinados sistemas de alto riesgo,
finalidades y contexto de uso, y ello ante la evolución, desarrollo y crecimiento exponencial del
despliegue y uso de la IA, el aumento incesante de sus capacidades, características, recursos,
disponibilidad de datos, capacidad de procesamiento e interacción con otras tecnologías, pluralidad
de sujetos intervinientes en su ciclo de vida y la asincronía de su evolución, despliegue y aplicación
con la adaptación de los ordenamientos jurídicos para proporcionar respuestas adecuadas a sus retos
y riesgos.

3.3. Otros países


A nivel internacional, las iniciativas reguladoras nacionales a partir de sus estrategias nacionales
sobre IA son múltiples. Una de las más recientes es la de Israel, que el 30 de octubre de 2022
publicó su Libro blanco sobre IA bajo el título Principios de política, regulación y ética de la IA (69) ,
elaborado por su Ministerio de Innovación, Ciencia y Tecnología y en el que sienta sus bases para su
regulación. El documento propone 6 principios éticos, basándose en la Recomendación sobre IA de la
OCDE precitada, sobre los que debe construirse su regulación, en particular, una IA centrada en el ser
humano que respete los derechos fundamentales y los intereses públicos, igualdad y no
discriminación, transparencia y explicabilidad, confiabilidad, robustez, seguridad, protección y
responsabilidad.
El enfoque regulatorio propuesto por el Libro blanco israelí difiere del que sirvió de base para la
elaboración de la AI Act, apostando por un esfuerzo regulatorio sectorial y no general con carácter
transversal para los distintos sectores —similar al enfoque inicial propuesto por el Reino Unido, al
que aludiré a continuación—. Sin embargo, propone su elaboración bajo un enfoque de riesgos
similar al de la AI Act, con una regulación suave para no desincentivar su desarrollo y adopción, con
un diseño regulatorio local compatible con los estándares de la industria global y los marcos
reguladores de referencia en materia de IA a nivel internacional. No prevé usos absolutamente
prohibidos como la AI Act. Del mismo modo, propone un marco modular de regulación a desarrollar
de manera flexible y acorde a los distintos desarrollos tecnológicos, con participación pública en su
diseño y la creación de sandboxes regulatorios controlados para su experimentación.
No obstante, una regulación menos rigurosa basada en el soft law y focalizada principalmente en el
desarrollo y adopción de la IA y en la competitividad, puede conllevar efectos adversos en el
mantenimiento del necesario equilibrio al que he hecho referencia repetidamente en estas reflexiones,
en especial, respecto de la seguridad y los derechos y libertades fundamentales.
Por su parte, Reino Unido también ha iniciado el camino para su regulación mediante la elaboración
de su hoja de ruta regulatoria de la IA, sobre la base de 6 principios fundamentales, en particular, la
seguridad y su inclusión en el diseño, transparencia, explicabilidad, equidad, accountability y
responsabilidad, si bien, apartándose del enfoque centralizado de la AI Act. El 18 de julio de 2022
publicó el documento Establishing a pro-innovation approach to regulating AI (70) que recoge estos
principios como base, con la pretensión de que el nuevo marco favorezca la innovación, la confianza
y la inversión y que sea flexible, protegiendo los derechos y valores fundamentales, conforme
plasmará en el próximo Libro Blanco y consulta pública que prevé publicar a finales de 2022.
En España, dejando a un lado alguna referencia genérica a la IA en
La Ley 15/2022, de 12 distintas normas generales o especiales, la Ley 15/2022, de 12 de

19 / 41
04/03/2023

de julio, integral para la julio, integral para la igualdad de trato y la no discriminación (71)
igualdad de trato y la no incluye por primera vez en la legislación española, conforme significa
discriminación incluye
Fernández Hernández (72) , un precepto específico dedicado a la IA
por primera vez en la
legislación española, un
(73) y los mecanismos para la toma de decisiones automatizadas, y lo
precepto específico hace con el mandato a las Administraciones públicas para que
dedicado a la IA y los establezcan mecanismos para que los algoritmos que utilicen,
mecanismos para la toma involucrados en la toma de decisiones, tengan en cuenta la no
d e d e c i s i o n e s discriminación (minimización de sesgos), la transparencia y la
automatizadas, «siempre rendición de cuentas (74) , eso sí, según recoge la norma, «siempre
q u e s e a f a c t i b l e
que sea factible técnicamente». Este matiz podría colisionar
técnicamente»
frontalmente con la doctrina precitada del TJUE respecto de que una
tecnología no puede prevalecer sobre un derecho fundamental. Y,
además, exige estos aspectos en el diseño y en los datos de entrenamiento. Del mismo modo, el
precepto citado exige que las Administraciones públicas y las empresas promuevan el uso de una IA
ética, confiable y respetuosa con los derechos fundamentales, «siguiendo especialmente las
recomendaciones de la UE». Por último, recoge la futura creación de un sello de calidad de los
algoritmos que no regula.
Otros países han iniciado igualmente el camino hacia su regulación bajo distintos enfoques, objeto,
alcance y técnicas. La actividad legislativa en EE.UU. ha sido muy prolífica (75) , especialmente en
2022, en la medida que durante este año se ha presentado proyectos de ley o disposiciones generales
sobre IA en al menos 17 estados en 2022. A nivel global, destacar la Algorithmic Accountability Act de
2022 (76) , los proyectos de ley Algorithmic Justice and Online Platform Transparency Act (77) (2021-
22), la National AI Initiative Act (78) (2020) o la Artificial Intelligence Capabilities and Transparency
Act (79) (AICT) de 2021. También destacar algunas iniciativas locales como la Stop Discrimination by
Algorithms Act de 2021 (80) en Washington, DC.
China publicó su Internet Information Service Algorithmic Recommendation Management Provisions
(81) (Reglamento sobre algoritmos de recomendación en Internet), exigible desde el pasado 1 de
marzo de 2022. A nivel local, el 6 de septiembre de 2022, el gobierno de Shenzhen aprobó la primera
regulación local de China dedicada a impulsar el desarrollo de la IA bajo el título Shenzhen AI
Regulation aims to promote the AI industry (Regulación sobre la promoción de la industria de
inteligencia artificial en la Zona Económica Especial de Shenzhen —la Regulación de IA de Shenzhen
—) (82) , en vigor desde el 1 de noviembre. Y a nivel provincial, el 22 de septiembre de 2022,
Shanghái aprobó la primera norma a nivel provincial de China para promover el desarrollo de la IA,
en concreto las Shanghai Regulations on Promoting the Development of the AI Industry(Regulaciones
de Shanghái para promover el desarrollo de la industria de la IA), vigente a partir del 1 de octubre de
2022 (83) .
Otros países orientales han creado marcos reguladores específicos para determinados sectores, por
ejemplo, Hong Kong para la banca, y otros están construyendo ahora su regulación más general
como Japón, Singapur o Taiwán. Corea del Sur ya dispone desde hace una década de normas
relacionadas con la IA como su Intelligent Robots Development and Distribution Promotion Act d e
2008 y la Legal Regulation of Autonomous Systems in South Korea de 2012.
Por su parte, India está acelerando su proceso para iniciar su regulación sobre la base del documento
publicado bajo el título Responsible AI for All (84) de 2021. Y, Brasil también está tramitando en la
actualidad su regulación en materia de IA, iniciada con el Proyecto de Ley n.o 21/2020, de 30 de
septiembre de 2021 (85) , que pretende establecer el marco legal de la IA.

4. Normas especiales y guías sectoriales


La ausencia de una regulación global de la IA en la actualidad no comporta que existan ya normas

20 / 41
04/03/2023

jurídicas generales que regulen algunos aspectos relacionados con la misma como, por ejemplo, el
precitado artículo 22 del GDPR (86) relativo a la adopción de decisiones individuales automatizadas
(incluida la elaboración de perfiles), o marcos, guías y normas sectoriales que regulen determinados
aspectos de la IA.
A modo de ejemplo y en relación con la denominada «conducción autónoma», la Comisión Económica
de las Naciones Unidas para Europa (UNECE) publicó una normativa sobre ciberseguridad (87) al
objeto de definir un conjunto de requisitos que deben cumplir los fabricantes de vehículos, los
proveedores y los prestadores de servicios, y que abarca todo el ciclo de vida del vehículo (es decir,
desde su desarrollo hasta su retirada). Asimismo, aunque en el marco de guías y códigos de buenas
prácticas sectoriales (88) , el Centro de Análisis e Intercambio de Información de Automoción d e
EE.UU. (Auto-ISAC) mantiene desde 2016 una serie de buenas prácticas de ciberseguridad e n e l
sector de la automoción (89) , que proporcionan orientación sobre la aplicación de los principios de
ciberseguridad en el sector de la automoción. La Administración Nacional de Seguridad del Tráfico en
Carreteras (NHTSA) del gobierno de los EEUU publicó un código de buenas prácticas denominado
Cybersecurity Best Practices for Modern Vehicles en el que se introdujeron buenas prácticas de
ciberseguridad para los coches inteligentes. Sin perjuicio de estos principios y buenas prácticas en
EE.UU., algunos estados han venido desarrollando o actualizando durante estos últimos años la
normativa jurídica vigente para la prueba y circulación de vehículos autónomos, entre otros, Nevada
—que fue el primer Estado en permitir la circulación en 2011—, Florida, California o Louisiana. El
Florida Status de 2021 —S 316.85 (3) (a)— establece la posibilidad de que un vehículo autónomo
pueda operar en dicho estado, con independencia de si un operador humano está físicamente
presente en el vehículo o no.

5. Regulación contractual, normas corporativas y estándares


La ausencia de una adecuada regulación legal, general y global de la IA y de su seguridad no impide
la articulación de otros mecanismos disponibles para su regulación y para la protección de personas,
bienes, derechos e intereses, en particular y entre otros, mediante la elaboración de marcos
contractuales adecuados para la contratación de bienes o servicios basados en IA o IA as a Service,
los cuales carecen de carácter vinculante para la generalidad pero si para las partes intervinientes, o
mediante la autorregulación basada en estándares, códigos éticos y/o de conducta corporativos, que
se presentan como instrumentos de soft law que, inicialmente, carecerían de carácter vinculante,
cuanto menos, externamente.
Cualquiera que sea la forma de los contratos asociados a la IA, constituyen una oportunidad para
todas las partes implicadas para regular los requisitos (incluidos los de origen ético), obligaciones,
garantías y responsabilidad de las partes implicadas durante todo su ciclo de vida, incluso frente a
terceros relacionados, especialmente usuarios de los sistemas inteligentes puestos a su disposición o
personas relacionadas o afectadas por su uso y funcionamiento, y, en especial, de los niveles de
servicio y funcionamiento exigidos y esperados del mismo a través de los Acuerdos de Nivel de
Servicio (Service Level Agreement —SLA por sus siglas en inglés—), así como de las medidas de
información, transparencia y seguridad a cumplir por aquellos.
Los contratos pueden constituir un instrumento jurídico muy eficaz y oportuno para garantizar la
seguridad y la protección de los derechos fundamentales (desde el diseño y por defecto —by design y
by default—) en todas las fases y en relación con los distintos sujetos participantes durante todo el
ciclo de vida de un sistema inteligente, desde el diseño y desarrollo del sistema, cesión, licencia,
integración, entrada de datos, entrenamiento, comercialización, despliegue, puesta en
funcionamiento, uso, mantenimiento, soporte, actualización, revisión y auditoría o retirada del
mercado. Pero también para prevenir riesgos, así como para establecer mecanismos reactivos en caso
de incumplimiento o daños, como garantías adicionales a las comerciales —que en su caso resulten

21 / 41
04/03/2023

de aplicación conforme a la normativa general aplicable—, cláusulas de responsabilidad o la


exigencia de seguros de responsabilidad civil, error informático o sobre pérdida de datos.
Del mismo modo, las organizaciones que utilicen IA pueden establecer códigos y normas corporativas
—vinculantes o no a todo el grupo empresarial o unión de empresas—, o de buenas prácticas
asociadas a su uso y funcionamiento, que contemplen sus compromisos en todas las materias
relacionadas, que pueden incluso integrar estándares de referencia publicados por terceros
convertidos en vinculantes corporativamente para las mismas, los cuales, incluso, podrían ser
auditados periódicamente y certificados por parte de terceros. Es más, estos compromisos
corporativos pueden ser igualmente convertidos en vinculantes en relación con terceras partes
mediante su inclusión contractual como exigencia y requerimiento específico, certificados o no por
terceros. Asimismo, estos códigos corporativos o de buenas prácticas pueden ser igualmente
promovidos por organizaciones que representen determinados sectores en el ejercicio de la
autorregulación sectorial, que igualmente pueden convertirse en requerimientos contractuales, si su
cumplimiento se integra dentro del contenido obligacional del contrato.
No obstante, en la práctica profesional nos encontramos ante diversos contextos, en función de la
tipología de producto o sistema basado o que integre IA, y representando distintos intereses de las
diversas partes que pueden conformar la relación contractual planteada (desarrolladores, fabricantes,
comercializadores, operadores o usuarios, entre otros). En estos contextos debemos afrontar
cuestiones como el desequilibrio entre las partes contratantes, la elaboración de contratos complejos
negociados en todos sus extremos, como la elaboración o, en su caso, aceptación de contratos de
adhesión con condiciones generales, en los que el proveedor y/u operador establecen todas las
condiciones técnicas, éticas, jurídicas y de seguridad.
En el ámbito de los contratos entre empresas, los aspectos contractuales de especial relevancia en el
tratamiento y regulación de aspectos relacionados con sistemas inteligentes o productos/servicios
que los integren, junto con los anteriores, son los relativos a servicios adicionales, asistencia,
soporte y mantenimiento, niveles de disponibilidad y servicio, KPIs (en su caso), certificaciones o
estándares (en su caso), precios, terminación y continuidad, confidencialidad, protección de datos,
propiedad intelectual/industrial y entregables, documentación técnica, responsabilidad, garantías y
seguros, evaluaciones y certificaciones, penalizaciones, seguridad, revisiones, controles y auditorías,
gestión de relaciones con terceros (en su caso), compliance, ley aplicable y jurisdicción competente.
Finalmente, debo significar el especial protagonismo de la
Debe significarse el especial estandarización en relación con la IA. Durante los últimos años la
protagonismo de la necesidad de estandarización en la industria de la IA ha generado una
estandarización en relación
intensa y creciente actividad, especialmente ante el importante papel
con la IA, pues, durante los
que desempeña para su normalización, todavía más destacado por su
últimos años, la necesidad
de estandarización en la tratamiento expreso de la misma en la AI Act (90) . De manera
industria ha generado una enunciativa, significar las iniciativas y propuestas desarrolladas por
intensa y creciente distintas organizaciones, institutos y centros de investigación, como el
actividad, especialmente informe «Harmonizing Artificial Intelligence: The Role of Standards in
ante el importante papel the EU AI Regulation«, del Oxford Information Labs, las iniciativas del
que desempeña para su Instituto de Estándares de Telecomunicaciones Europeo (ETSI) —
normalización
Grupo de Especificaciones Industriales para la Securización de la IA
(ISG SAI)— del Comité Europeo de Normalización (CEN), de la
International Organization for Standardization (ISO) (91) , el Institute of Electrical and Electronics
Engineers (IEEE) o el Subcomité ISO/IEC JTC 1/SC 42 (Comité técnico conjunto sobre IA) (92) .
En la actualidad, existen múltiples normas de referencia, pero constituyen, por el momento,
estándares y buenas prácticas no vinculantes, salvo su conversión como tales por decisiones
corporativas o contractuales en el ámbito público o privado, por ejemplo, exigiendo su adhesión o

22 / 41
04/03/2023

futura certificación a los mismos en pliegos y contratos.


A modo de ejemplo y, entre otras, significar algunas de las iniciativas de normalización y estándares
ISO/IEC más recientes: ISO/IEC 22989:2022 Tecnología de la información. Inteligencia artificial.
Conceptos y terminología de la inteligencia artificial.; Marco para sistemas de inteligencia artificial
(IA) que utilizan el aprendizaje automático (ML) [ISO/IEC WD 23053]; Tecnología de la información
—Inteligencia artificial— Gestión de riesgos [ISO/IEC AWI 23894]; ISO/IEC TR 24027:2021
Tecnología de la información —Inteligencia artificial (IA)— Sesgo en los sistemas de IA y toma de
decisiones asistida por IA; ISO/IEC TR 24028:2020 Tecnología de la información. Inteligencia
artificial. Descripción general de la confiabilidad en la inteligencia artificial; ISO/IEC TR 24029—
1:2021 Inteligencia artificial (IA) —Evaluación de la solidez de las redes neuronales— Parte 1:
Descripción general; ISO/IEC DIS 24029-2 Inteligencia artificial (IA) —Evaluación de la robustez de
las redes neuronales— Parte 2: Metodología para el uso de métodos formales (En desarrollo);
ISO/IEC TR 24030:2021 Tecnología de la información —Inteligencia artificial (IA)— Casos de uso;
ISO/IEC TR 24368:2022 Tecnología de la información —Inteligencia artificial— Resumen de
preocupaciones éticas y sociales; ISO/IEC TR 24372:2021 Tecnología de la información —Inteligencia
artificial (IA)— Descripción general de los enfoques computacionales para los sistemas de IA;
ISO/IEC 24668:2022 Tecnología de la información —Inteligencia artificial— Marco de gestión de
procesos para el análisis de Big data; ISO/IEC 38507:2022 Tecnología de la información —
Gobernanza de TI— Implicaciones de gobernanza del uso de la inteligencia artificial por parte de las
organizaciones
Sin perjuicio de estos estándares generales, también se han ido generando múltiples normas y
estándares sectoriales, por ejemplo, en el ámbito de los vehículos «autónomos» o automatizados,
adicionales a las directrices, guías y regulación sectorial a las que he hecho referencia anteriormente.
El grupo British Standards Institution (BSI) publicó en diciembre de 2018 dos especificaciones
públicamente disponibles (PAS), PAS 1885 y PAS 11281. La primera, titulada Los principios
fundamentales de laciberseguridad en la automoción, proporciona una orientación de alto nivel para
proporcionar y mantener la ciberseguridad. PAS 11281, titulada Connected automotive ecosystems —
Impact of security on safety— Code of practice, ofrece recomendaciones para gestionar los riesgos de
seguridad en un ecosistema automovilístico conectado (93) .
El Instituto Europeo de Normas de Telecomunicación (ETSI) desarrolló un conjunto de
especificaciones técnicas para definir una arquitectura de seguridad del Sistema de Transporte
Inteligente (ITS), junto con la especificación de los servicios para garantizar la confidencialidad de la
información y evitar el acceso no autorizado a los servicios ITS. También abordan la gestión de la
confianza y la privacidad en las comunicaciones de los STI. Estas normas son la base integral de las
políticas europeas de certificación y seguridad de los C-ITS, que son los documentos políticos que
rigen la aplicación de algunas de las normas del ETSI como base para el despliegue interoperable y
seguro de los C-ITS en la UE (94) .
La norma de la Sociedad de Ingenieros de Automoción «SAE J3061» de 2016, se consideró la primera
norma que aborda la ciberseguridad en la automoción. Proporciona un conjunto de principios de
ciberseguridad de alto nivel y orientación para los sistemas ciberfísicos de los vehículos (95) .
Posteriormente, la International Organization for Standardization (ISO) y la SAE precitada
colaboraron también para sustituir la práctica recomendada en SAE J3061 y propusieron la norma
ISO/SAE 21434 (96) . Esta norma se centra en la ingeniería de ciberseguridad del automóvil,
especificando los requisitos y proporcionando recomendaciones para la gestión de los riesgos de
ciberseguridad de los automóviles (incluidos sus componentes, software e interfaces) a lo largo de
todo su ciclo de vida. Por su parte, la norma SAE J3101 define los requisitos comunes de seguridad
que deben implementarse en el hardware de los vehículos autónomos (97) .

23 / 41
04/03/2023

6. Evolución de la tecnología y de los derechos fundamentales: Derechos


digitales y «Neuroderechos»
El ser humano se halla viviendo una revolución tecnológica constante en sus dos dimensiones, la
física y la virtual, en la que la transversalidad, convergencia y fusión entre ambas es cada vez mayor.
La evolución tecnológica es incesante y el ritmo de su crecimiento cada vez más exponencial,
especialmente tecnologías como la IA, en las que su desarrollo, despliegue y uso es incesante,
constituyendo una de las principales tecnologías habilitadoras para la transformación digital y de
mayor impacto.
Conforme viene afirmando el analista económico Marc Vidal (98) , una de las personas más
influyentes en el ámbito de la Economía Digital, en apenas 15 años hemos vivido más innovación que
en los 150 anteriores, y en ese siglo y medio, más que en los últimos 150.000 años.
La evolución de los derechos fundamentales, conforme significa Barrio Andrés (99) , ha llegado a una
última etapa, por el momento, que es la instauración de una nueva generación de derechos, los
derechos digitales.
Estos derechos de nueva generación pueden verse igualmente comprometidos por el uso y
funcionamiento de la IA y precisan su adecuada garantía y protección, especialmente el derecho a la
seguridad digital o ciberseguridad y el derecho a la intimidad. No obstante, no debemos obviar el
derecho incuestionable de acceso a la IA, que ha sido omitido en la mayor parte de los marcos de
soft law propuestos más recientemente.
Del mismo modo, los denominados «neuroderechos» han irrumpido como nuevos derechos humanos
frente a las «neurotecnologías», sobre los cuales se ha suscitado una ardua discusión doctrinal
respecto de su naturaleza y categorización. Al margen de la misma, la irrupción de esta supuesta
nueva categoría de derechos en relación con el uso de la tecnología y, en particular, de la IA, requiere
algunas reflexiones específicas, aunque de forma muy sucinta por el objeto y alcance de este artículo.
Uno de los expertos mundiales que más ha profundizado sobre los mismos es Rafael Yuste,
Catedrático de la Universidad de Columbia en EE. UU. e impulsor «BRAIN», la iniciativa más relevante
de los últimos años para conocer el cerebro humano. Según el mismo, «a corto plazo, el peligro más
inminente es la pérdida de privacidad mental». Incluso estas tecnologías podrían servir para
manipular los pensamientos a través de señales eléctricas (100) . Este experto propone una
regulación desde dos dimensiones: Una autorregulación para ingenieros, informáticos y otros
especialistas, y un marco legal que contemple los denominados «neuroderechos» dentro de los
derechos humanos básicos y que evite los abusos. Incluso propone incluirlos expresamente en la
Carta de las Naciones Unidas.
Los denominados «neuroderechos» podrían definirse de manera muy simple como aquellos derechos
digitales destinados específicamente a proteger el cerebro y su actividad, y pueden incluir la
identidad y autonomía personal, el libre albedrío y autodeterminación, la privacidad mental, el acceso
equitativo y la protección frente al sesgo.
Distintos autores asocian el concepto de los «neuroderechos» al marco legal surgido para la
protección de los derechos humanos que se ven vulnerados con la aplicación de las técnicas de
«Neurotecnología», confluyendo disciplinas basadas en la inteligencia artificial y la neurociencia». Los
«neuroderechos» son concebidos por la plataforma NeuroRights Initiative (101) de la precitada
Universidad de Columbia, como un nuevo marco jurídico internacional de derechos humanos
destinados específicamente a proteger el cerebro y su actividad a medida que se produzcan avances
en «neurotecnología».
La cuestión relativa a la necesidad de creación de una nueva categoría de derechos no es pacífica, en
la medida que algunos expertos consideran que es una «redundancia estéril» en la medida que están

24 / 41
04/03/2023

ya contemplados, entre otros instrumentos, en la propia Constitución y se trataría, en todo caso, de


derechos derivados o asociados a los ya existentes. Otros autores, como Ienca o Andorno (102) ,
consideran que el marco actual de derechos humanos puede resultar insuficiente para los desafíos
planteados por las «neurotecnologías», proponiendo la definición de unos nuevos derechos humanos,
los «neuroderechos» (103) . Dejando a un lado estas cuestiones, los gigantes tecnológicos como
Facebook, Microsoft o Google ya están invirtiendo y trabajando en conectar el cerebro humano con
las máquinas, y superpotencias como China están trabajando en la fusión entre la IA y la
«neurotecnología».
En relación con todo ello, me permito significar el informe publicado por la NeuroRights Foundation
bajo el título International Human Rights Protection Gaps in the Age of Neurotechnology (104) , que
se presenta como la primera revisión exhaustiva de la legislación internacional sobre derechos
humanos aplicada a la «neurotecnología». El informe concluye que los tratados internacionales de
derechos humanos existentes no están actualmente preparados para proteger los «neuroderechos» y
que los rápidos avances de la «neurotecnología» ya no son ciencia ficción sino ciencia, por lo que
advierte de la urgencia de considerar estos avances científicos, de la necesidad de proteger los
derechos humanos y de garantizar el desarrollo ético de la «neurotecnología», destacando el papel en
este sentido que debe desempeñar la ONU. Yuste y otros expertos propusieron las prioridades éticas
para las «neurotecnologías» y la IA en su informe Four ethical priorities for neurotechnologies and AI
(105) .
Chile fue el primer país del mundo en proponer una regulación y una protección legal de los
«neuroderechos» y además constitucionalmente, en una iniciativa sustentada en la iniciativa liderada
por el experto precitado. Otros países como Francia o Brasil protegen la privacidad mental. Argentina
ha acometido una iniciativa legislativa orientada a la protección del derecho a la integridad física y
psíquica, la privacidad de los datos neuronales, la autonomía o libertad de decisión individual y al
acceso en forma igualitaria y equitativa a los beneficios de las «neurotecnologías». Por su parte
México, permite el uso de «neurotecnologías» como pruebas judiciales.
La iniciativa chilena comportaba la modificación del artículo 19.1 de su Carta Magna (106) . La
reforma constitucional en Chile fue sancionada el 25 de octubre de 2021 (107) , convirtiéndose en la
Ley n.o 21.383 (108) que «Modifica la Carta Fundamental, para establecer el desarrollo científico y
tecnológico al servicio de las personas». La norma consta de un artículo único que modifica el
número 1 del artículo 19 de la Constitución Política de la República de Chile del siguiendo modo: «El
desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a
la vida y a la integridad física y psíquica. La ley regulará los requisitos, condiciones y restricciones
para su utilización en las personas, debiendo resguardar especialmente la actividad cerebral, así
como la información proveniente de ella». La iniciativa se materializó en pleno proceso para la
aprobación de una nueva Constitución (109) en Chile, cuya propuesta finalmente fue rechazada por el
62% de los votos, manteniéndose la versión vigente (110) .
España incluyó en la denominada Carta de Derechos Digitales (111) elaborada por la Secretaría de
Estado de Digitalización e IA, del Ministerio de Asuntos Económicos y Transformación Digital,
adicionalmente a un apartado específico denominado «Derechos ante la IA», un apartado específico
denominado «Derechos digitales en el empleo de las neurotecnologías».
El documento no tiene carácter jurídico vinculante ni impone obligaciones específicas, si bien,
contempla una declaración general relativa a que las condiciones, límites y garantías de implantación
y empleo en las personas de las neurotecnologías podrán ser reguladas por la ley con la finalidad de:
a) Garantizar el control de cada persona sobre su propia identidad; b) Garantizar la
autodeterminación individual, soberanía y libertad en la toma de decisiones; c) Asegurar la
confidencialidad y seguridad de los datos obtenidos o relativos a sus procesos cerebrales y el pleno
dominio y disposición sobre los mismos; d) Regular el uso de interfaces persona-máquina

25 / 41
04/03/2023

susceptibles de afectar a la integridad física o psíquica; e) Asegurar que las decisiones y procesos
basados en neurotecnologías no sean condicionadas por el suministro de datos, programas o
informaciones incompletos, no deseados, desconocidos o sesgados.
Asimismo, la carta incorpora una declaración específica relativa a la mejora del ser humano mediante
estas tecnologías, estableciendo que la ley podrá regular aquellos supuestos y condiciones de empleo
de las neurotecnologías que, más allá de su aplicación terapéutica, pretendan el aumento cognitivo o
la estimulación o potenciación de las capacidades de las personas.

7. Conclusiones
Los derechos fundamentales no son absolutos y deben ser evolutivos, de modo que deben adaptarse
al contexto social, económico, político y digital en el que se halle el ser humano en cada momento,
especialmente ahora en el que la convergencia y fusión entre la dimensión física y digital es cada vez
mayor.
La evolución social, económica y política junto con la globalización, el desarrollo tecnológico y la
digitalización está motivando la irrupción de nuevos derechos, así como nuevas dimensiones y
subcategorías de los existentes, que deben ser igualmente protegidas y garantizadas por el Derecho.
La IA constituye un conjunto de tecnologías con un potencial disruptivo transversal en todos los
ámbitos y dimensiones del ser humano y en todos los sectores de su actividad y, consecuentemente,
también en sus derechos fundamentales y libertades públicas.
El desarrollo, despliegue y aplicación de la IA y de la tecnología relacionada con la misma es
incesante, al igual que el aumento de sus capacidades, características, recursos, disponibilidad de
datos, interacción con otras tecnologías o la conectividad. Las capacidades de los sistemas
inteligentes son cada vez mayores al igual que su posible autonomía, si bien, conforme a los marcos
éticos y jurídicos deseables, no debería permitirse la creación de sistemas inteligentes plenamente
autónomos, sino, en cualquier caso, de autonomía limitada o restringida, sujetos en todo momento
durante su ciclo de vida al control y supervisión humana, desde su diseño y concepción hasta su
retirada del mercado, apagado definitivo o destrucción, pasando por su desarrollo, entrenamiento,
despliegue, funcionamiento y uso.
Corresponde al ser humano definir la IA con la que desea o necesita compartir su futuro, así como
ordenar sus usos, capacidades y funcionamiento.
El respeto de los derechos fundamentales debe ser la base sobre la que se deben construir los
marcos reguladores de la IA. El legislador debe abordar adecuadamente el necesario equilibrio entre
regulación, seguridad, confianza, accesibilidad, uso, desarrollo, innovación y competitividad, de
modo que cualquier aspecto que pueda inclinar la balanza entre todos los intereses en juego deba
siempre dirimirse en favor de los derechos fundamentales para impedir cualquier afectación de los
mismos, y ello en base a los principios de precaución, prevención, preservación, garantía y
protección, sin perjuicio de las posibles limitaciones, razonables y proporcionadas, que puedan
proceder conforme a Derecho en base a los principios de licitud, idoneidad, necesidad y
proporcionalidad. Regular desde un enfoque de riesgos comporta que cualquier análisis y evaluación
de impacto en los derechos fundamentales de cualquier propuesta reguladora debe decantarse en
favor éstos. Los derechos fundamentales siempre deben prevalecer sobre cualquier tecnología o su
uso.
La seguridad de los sistemas inteligentes debe ser no sólo una exigencia ética, sino jurídica para los
mismos, como para cualquier producto o máquina que integre este tipo de sistemas, de modo que se
exija no sólo al conjunto o sistemas, sino a todos los elementos que lo integren. La AI Act en
tramitación en el ámbito de la UE contempla esta exigencia.

26 / 41
04/03/2023

Del mismo modo, el respeto de los derechos fundamentales integra los principales marcos éticos de
mayor consenso internacional en el ámbito de la IA y constituye una exigencia jurídica impuesta por
convenios internacionales, constituciones y leyes nacionales generales, que debe igualmente tener su
reflejo en las leyes especiales que regulen la IA, como expresamente establece la precitada AI Act.
Sin embargo, esta propuesta reguladora no regula la IA globalmente, sino la prohibición de
determinados sistemas inteligentes y aplicaciones por su riesgo inaceptable, y los requisitos y
obligaciones de los sistemas inteligentes considerados de alto riesgo para la misma, no regulando el
resto.
Los derechos humanos tienen una naturaleza evolutiva y deben admitir adiciones de nuevas
categorías y/o subcategorías para adecuarse a la realidad en cada momento, como los derechos
digitales, por lo que su categorización y protección, así como los marcos regulatorios que tienen
como objeto su garantía, deben adecuarse dinámicamente a la evolución tecnológica y la realidad
social, por lo que, a mi juicio, no veo inconveniente en la adecuación de los marcos legales vigentes
como en la creación de marcos específicos para garantizar la seguridad y la protección de los
derechos fundamentales, incluidas las nuevas categorías o subcategorías, frente a tecnologías
emergentes o de evolución incesante que puedan ponerlos en riesgo, y ello desde un enfoque
estratégico y de riesgos, desde la prudencia, la precaución y la prevención, con carácter global,
proactivo y reactivo, y sobre tendencias más que novedades, ante la asincronía en el ritmo de
evolución de la tecnología y del Derecho.
En mi opinión, la regulación de la IA no es una cuestión de oportunidad sino de necesidad y desde
los valores esenciales europeos y los derechos fundamentales, entre otras razones, para la
conversión de determinadas exigencias, todavía meramente éticas, en imperativas jurídicamente. Y lo
es también inclusive, para asegurar un futuro sostenible, ante el impacto medioambiental de la IA.
Del mismo modo, a mi juicio, dicha regulación debe ser global, estratégica, proactiva, evolutiva,
flexible y responsive, y considerar en su construcción la salvaguarda del difícil y precitado equilibrio
de todos los intereses en juego en constante tensión.
Y, por último, en mi opinión, su regulación debe construirse desde una visión estratégica y en base a
tendencias tecnológicas y no sobre novedades, así como utilizar distintas técnicas, combinando el
hard y el soft law de manera inteligente.

8. Bibliografía
Alarcón, G. (2014). «El soft law y el sistema de fuentes». Tratado sobre la Ley General Tributaria:
Homenaje a Álvaro Rodríguez. Vol. 1, Tomo I. Editorial Aranzadi Thomson Reuters.
Álvarez Olalla, P. (2019). «Responsabilidad Civil en la circulación de vehículos autónomos», en
Monterrosso Casado, E. (Dir.), Inteligencia artificial y riesgos cibernéticos. Responsabilidades y
aseguramiento. Tirant lo Blanch 2019.
Amat Llombart, P. (2020). «La protección de las personas físicas en relación al tratamiento de sus
datos personales. Condiciones para el ejercicio de sus derechos y en el marco de la normativa
comunitaria y española», en Bello Janeiro, D. (Coord.) Nuevas tecnologías y responsabilidad civil.
Editorial Reus.
Asimov, I. (1942). Runaround. Astounding Science Fiction, 1942. N.29 (1).
Atienza Navarro, M.ª. L. (2020). «Una aproximación a la Propuesta de Reglamento del Parlamento
Europeo y del Consejo relativo a la responsabilidad civil por el funcionamiento de los sistemas de
inteligencia artificial de 27 de abril de 2020». Revista Aranzadi de derecho y nuevas tecnologías. ISSN
1696-0351, N.o. 54.
Ausín, T., Morte, R. et Monasterio Astobiza, A. (2020) «Neuroderechos: Derechos humanos para las

27 / 41
04/03/2023

neurotecnologías». Diario La Ley. núm. 43, Sección Ciberderecho.


Ayerbe, A. (2020). La ciberseguridad y su relación con la inteligencia artificial. ARI 128/2020. Real
Instituto Elcano.
Badillo Arias, J.A. (2019). «Responsabilidad civil y aseguramiento obligatorio de los robots». En
Monterrosso Casado, E. (Dir.). Inteligencia artificial y riesgos cibernéticos. Responsabilidades y
aseguramiento. Tirant lo Blanch.
Ballarín, P. (2021). Desafíos de la ciberseguridad en la inteligencia artificial (IA). Análisis del informe
de ENISA. ODISEIA.
Barredo, A.; Díaz-Rodríguez. N. et al. (2017), «Explainable Artificial Intelligence (XAI): Concepts,
taxonomies, opportunities and challenges toward responsable AI». Information Fusion. Science
Direct. Vol. 58. Elsevier.
Barrio Andrés, M. (2018). Derecho de los Robots. Wolters Kluwer España, S.A. Madrid.
Barrio Andrés, M. (2021). Formación y evolución de los derechos digitales. Ediciones Olejnik.
Argentina.
Barrio Andrés, M. (2022). Manual de Derecho Digital. 2ª Edición. Tirant lo Blanch. Valencia.
Bauzá Reilly, M. (1994). «Responsabilidad civil en materia informática». Actualidad Informática
Aranzadi, n.o 12.
Benjamins, R.; Barbado, A. y Sierra, D. (2019). «Responsible AI by Design in Practice». Proceedings
of the Human-Centered AI: Trustworthiness of AI Models & Data (HAI) track at AAAI Fall Symposium.
DC.
Benjamins, R. (2020). «Los líderes mundiales de la inteligencia artificial ética». Thing Big /
Empresas. 08.01.2020. Disponible en: https://empresas.blogthinkbig.com/los-lideres-mundiales-de-
la-inteligencia-artificial-etica/. Consultado el 24.02.2021
Benjamins, R. y Salazar, I. (2020)El mito del algoritmo. Editorial Anaya Multimedia. Madrid.
Bertolini, A. (2013). «Robots as Products: The Case for a Realistic Analysis of Robotic Applications
and Liability Rules». Law, Innovation and Technology 5 ( 2 ) . D O I :
http://dx.doi.org/10.5235/17579961.5.2.214
Blackiston, D. et al. (2021). «A cellular platform for the development of synthetic living machines».
Science Robotics, vol. 6, edición 52, eabf1571. DOI: 10.1126 / scirobotics.abf1571. Disponible en:
https://robotics.sciencemag.org/content/6/52/eabf1571.Consultado el 31.03.2021.
Bonfanti, M. E. (2020). Artificial Intelligence and Cybersecurity: A Promising but Uncertain Future. Real
Instituto Elcano. ARI 139/2020.
Bonfanti, M.E. y Kohler, K. (2020). «Artificial Intelligence for Cybersecurity». CSS Analyses in
Security Policy, n.o 265. ETH Zurich.
Bonnefon, J.F.; Shariff A. y Rahwan, I. (2016). «El dilema social de los vehículos autónomos».
Science. Vol. 352, n.o 6293.
Bostrom, N. y Yudkowsky, E. (2011). «The Ethics of Artificial Intelligence», en Ramsey, W. y
Frankish, K. (2011). Cambridge Handbook of Artificial Intelligence. Cambridge University Press.
Recuperado de: http://www.nickbostrom.com/ethics/artificial-intelligence.pdf. C o n s u l t a d o e l
20.02.2021
Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. Oxford.
Brozek, B. y Jakubiec, M. (2017). «On the legal responsibility of autonomous machines». Artificial

28 / 41
04/03/2023

Intelligence and Law, vol. 25, n.o 3. DOI 10.1007/s10506-017-9207-8.


Buchanan, B. (2020). A National Security Research Agenda for Cybersecurity and Artificial Intelligence.
Center for Security and Emerging Technology —CSET—.
Buolamwini, J. y Gebru, T. (2018). «Proceedings of the 1st Conference on Fairness, Accountability
and Transparency». PMLR. Vol. 81.
Camacho Clavijo, S. (2017). «La subjetividad «cyborg». En Navas Navarro, S. (Dir.). Inteligencia
artificial, tecnología, derecho. Editorial Tirant lo Blanch. Valencia
Cerrillo i Martínez, A. y Pequera Poch, M. (Coord). (2020). Retos jurídicos de la inteligencia artificial.
Aranzadi S.A.U. (Thomson Reuters). Navarra.
Cornejo Plaza, M. I. (2021). «Neuroderechos en Chile: consagración constitucional y regulación de
las neurotecnologías», Agenda Estado de Derecho.
Cotino, L. (2020). «SyRI, ¿a quién sanciono? «Garantías frente al uso de inteligencia artificial y
decisiones automatizadas en el sector público y la sentencia holandesa de febrero de 2020». La Ley
Privacidad, n.o 4. Wolters Kluwer.
De Santos Pascual, J.C. (2022). «Chile rechaza la nueva Constitución con una amplia mayoría.
Euronews. 05.09.2022. Disponible en: https://es.euronews.com/2022/09/05/chile-rechaza-la-nueva-
constitucion-con-una-amplia-mayoria. Consultado el 11.10.2022
Dunnmon, J.; Goodman, B.; Kirechu, P.; Smith, P. y Van Deusen, A. (2021). Responsible AI
Guidelines. Defense Innovation Unit. 2021
Ercilla García, J. (2018). «Aproximación a una Personalidad Jurídica Específica para los robots».
Revista Aranzadi de derecho y nuevas tecnologías. N.o 47.
Ercilla García, J. (2018). Normas de derecho civil y robótica. Robots inteligentes, personalidad jurídica,
responsabilidad civil y regulación. (Primera edición, 2018). Thomson Reuters Aranzadi.
Fernández Hernández, C. (2022). «La Ley 15/2022 introduce la primera regulación positiva de la
inteligencia artificial en España». Diario La Ley, Sección Ciberderecho. Wolters Kluwer Legal &
Regulatory España, S.A.
Fjeld, J. et alt. (2020). Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based
Approaches to Principles for AI. Berkman Klein Center for Internet & Society.
García Mexía, P.L. (2016). «Lex robótica y derecho digital». Revista de privacidad y derecho digital.
N.o 2.
García Teruel, R.M. (2021). «El derecho de daños ante la inteligencia artificial y el machine learning:
una aproximación desde las recomendaciones del Parlamento Europeo y del Grupo de Expertos de la
Comisión Europea», en Ataz López, J. y Cobacho Gómez, J.A. (Coords). Cuestiones clásicas y actuales
del Derecho de daños. Estudio en Homenaje al Profesor Dr. Roca Guillamón. Tomo II. Ed. Aranzadi-
Thomson Reuters. 2021.
García-Prieto, J. (2018). «¿Qué es un robot?». En Barrio Andrés, M. (Dir.). Derecho de los robots.
Wolters Kluwer, Madrid.
Genser, J., Herrmann, S. et Yuste, R. (2022). International Human Rights Protection Gaps in the Age
of Neurotechnology. NeuroRights Foundation.
Gervais, D.J. (2020). «The machine as author». Iowa Law Review, 105 Rev.2053. Disponible:
https://ilr.law.uiowa.edu/assets/Uploads/ILR-105-5-Gervais.pdf. Consultado el 10.03.2021
Gómez-Riesco, J. (2018). «Los robots y la responsabilidad civil». En Barrio Andrés, M. (Coord.),

29 / 41
04/03/2023

Derecho de los Robots. Wolkers Kluwer.


Gutiérrez Santiago, P. (2012). «El «daño» en la responsabilidad civil por productos defectuosos
(Régimen Jurídico de sus clases, cobertura y limitaciones en la legislación de consumo española, a la
luz del cuarto Informe de la Comisión Europea, de 8 de septiembre de 2011, sobre la Directiva
85/374/CEE)». Diario La Ley, n.o 7859, Sección Doctrina, Ref. D-201, Editorial La Ley.
Ienca, M., & Andorno, R. (2021). «Hacia nuevos derechos humanos en la era de la neurociencia y la
neurotecnología». Análisis filosófico. Vol. 41, N.o 1. Sociedad Argentina de Análisis Filosófico
Jorge Ricart, R., Van Roy, V., Rossetti, F., Tangi, L. (2022) AI Watch —National strategies on Artificial
Intelligence: A European perspective. 2022 Edition, EUR 31083 EN, Publications Office of the
European Union, Luxembourg, 2022, ISBN 978-92-76-52910- 1, DOI:10.2760/385851, JRC129123
Kharpal, A. «Stephen Hawking says A.I. could be "worst event in the history of our civilization"».
Publicado en CBNC el 06.11.2017. Recuperado de: https://www.cnbc.com/2017/11/06/stephen-
hawking-ai-could-be-worst-event-in-civilization.html. Consultado el 14.01.2021.
Kingston, J. (2016). «Artificial Intelligence and Legal Liability» (2016). En Bramer M. y Petridis M.
(Eds) Investigación y desarrollo en sistemas inteligentes XXXIII. S G A I . S p r i n g e r , C h a m .
https://doi.org/10.1007/978-3-319-47175-4_20.
Lacoz Moratinos, G. (2020). «Análisis de la propuesta de reglamento sobre los principios éticos para
el desarrollo, el despliegue y el uso de la inteligencia artificial, la robótica y las tecnologías
conexas». Ius et Scientia. Vol. 6, n.o 2.
Lee, Kai-Fu (2018). Superpotencias de la inteligencia artificial. Versión Kindle. Deusto.
Leenders, G. (2019). «The Regulation of Artificial Intelligence — A Case Study of the Partnership on
AI». Medium. Publicado el 13.04.2019. Recuperado de: https://becominghuman.ai/the-regulation-of-
artificial-intelligence-a-case-study-of-the-partnership-on-ai-c1c22526c19f. Consultado el 14.01.2021.
Leslie, D.; Burr, C.; Aitken, M.; Cowls, J.; Katell, M. and Briggs, M. (2021). Artificial intelligence,
human rights, democracy, and the rule of law: a primer. The Council of Europe.
Lloret, J.A. (2019). «Estándares y seguridad en el uso humano de la IA». Revista La Biblia de AI,
21.10.2019. Recuperado de: https://editorialia.com/2019/10/21/estandares-y-seguridad-en-el-uso-
humano-de-la-ia/. Consultado el 20.12.2020.
López de Mántaras, R. y Meseguer, P. (2017). Inteligencia artificial. Madrid, CSIC.
Marsden, C. et al. (2019)Regulating disinformation with artificial Intelligence. EPRS European
Parliamentary Research Service.
Martínez Mercadal, J.J. (2018). «Vehículos autónomos y derecho de daños. La estructura clásica de la
responsabilidad civil frente al avance de la inteligencia artificial». Revista de la Facultad de Ciencias
Económicas UNNE, n .o 20. Universidad de la República de Montevideo Uruguay. Disponible en
https://revistas.unne.edu.ar/index.php/rfce/article/view/3267. Consultado el 31.01.2021
Martínez Rey, M.A. y Pazos Sierra, J. (2019). «La inteligencia artificial y el derecho: Pasado, presente
y f u t u r o » , e n Monterrosso Casado, E. (Dir.), Inteligencia artificial y riesgos cibernéticos.
Responsabilidades y aseguramiento. Tirant lo Blanch.
Martínez Quirante, R. (2018). Inteligencia artificial y armas letales autónomas. Un nuevo reto para
Naciones Unidas. Tres Ensayos. Asturias.
McCarthy, J.; Minsky, M.; Rochester, N.; Shannon, C. (1955). A Proposal for the Dartmouth Summer
R e s e a r c h P r o j e c t o n A r t i f i c i a l I n t e l l i g e n c e. 3 1 . 0 8 . 1 9 5 5 . R e c u p e r a d o d e : http://www-
formal.stanford.edu/jmc/history/dartmouth/dartmouth.html. Consultado el 24.11.2020.

30 / 41
04/03/2023

Mozo Seoane, A. (2018). «Robots e inteligencia artificial: Control de sus riesgos». Revista General de
Legislación y Jurisprudencia, n.o 2. Editorial Reus. Madrid.
Muñoz Villarreal, A. y Gallego Corchero, V. (2019). «Inteligencia artificial e irrupción de una nueva
personalidad en nuestro ordenamiento jurídico ante la imputación de responsabilidad a los robots».
En Monterrosso Casado, E. (Dir.). Inteligencia artificial y riesgos cibernéticos. Responsabilidades y
aseguramiento. Tirant lo Blanch.
Muñoz Vela, J.M. (2019). «Los retos del Derecho en una Sociedad Digital», en Giménez, I. (Coord.).
Retos de la sociedad digital y medios de pago. Colección Tratados y Manuales de Economía. Editorial
Civitas — Thomson Reuters Aranzadi. Navarra.
Muñoz Vela, J.M. (2021). Cuestiones éticas de la Inteligencia Artificial y repercusiones jurídicas. De lo
dispositivo a lo imperativo. Ed. Aranzadi Thomson Reuters. Navarra.
Muñoz Vela, J.M. (2021). Derecho de la Inteligencia Artificial. Un enfoque global de responsabilidad
desde la ética, la seguridad y las nuevas propuestas reguladoras europeas. Tesis Doctoral. Universidad
de Valencia. octubre 2021.
Muñoz Vela, J.M. (2022). «Inteligencia artificial y responsabilidad penal». Derecho Digital e
Innovación. Núm. 11. Enero-Marzo 2022. ISSN 2659-871X, Ed. Wolters Kluwer.
Muñoz Vela, J.M. (2022). Retos, riesgos, responsabilidad y regulación de la inteligencia artificial. Un
enfoque de seguridad física, lógica, moral y jurídica. Editorial Aranzadi (Thomson Reuters). Navarra
Navas Navarro, S. (2017). «Derecho e inteligencia artificial desde el diseño. Aproximaciones», en
Navas Navarro, S. (Dir.). Inteligencia artificial, tecnología, derecho. Editorial Tirant lo Blanch.
Valencia.
Navas Navarro, S. (2016). «Smart Robots y otras máquinas inteligentes en nuestra vida cotidiana».
Revista CESCO Digital. N.o 20.
Núñez Zorrilla, M.C. (2018). «Los nuevos retos de la Unión Europea en la regulación de la
responsabilidad civil por los daños causados por la inteligencia artificial». Revista Española de
Derecho Europeo, n.o 66 (Abril-junio 2018). Editorial Civitas (Thomson Reuters). Navarra.
Núñez Zorrilla, M.C. (2019). Inteligencia artificial y responsabilidad civil. Reus Editorial, Madrid.
Orozco González, M. (2021) «Reflexiones acerca de la relación entre inteligencia artificial y robótica»,
en Ataz López, J. y Cobacho Gómez, J.A. (Coords). Cuestiones clásicas y actuales del Derecho de
daños. Estudio en Homenaje al Profesor Dr. Roca Guillamón. Tomo III. Ed. Aranzadi-Thomson
Reuters.
Ortiz Fernández, M. (2020). «Reflexiones acerca de la responsabilidad civil derivada del uso de la
inteligencia artificial: los «principios» de la Unión Europea». Revista de Direito da ULP. Vol. 14. N.o.
1.
Panezi, A. (2021). «IA: un enfoque ecosistémico para gestionar el riesgo y la incertidumbre», en
García Mexia, P. y Pérez Bes, F. (Eds); Panezi. A. (Coord). (2021). Artificial Intelligence and the Law.
Ed. La Ley (Wolters Kluwer). 2021. Edición electrónica (SMARTECA).
Peguera, M. (2020). «En búsqueda de un marco normativo para la inteligencia artificial» en Cerrillo i
Martínez, A. y Pequera Poch, M. (Coord). Retos jurídicos de la inteligencia artificial. Aranzadi S.A.U.
(Thomson Reuters). Navarra.
Plaza Penadés, J. (2018). «Primeras reflexiones desde el Derecho sobre la inteligencia artificial».
Revista Aranzadi de Derecho y Nuevas Tecnologías. N. 47, Editorial. Thomson Reuters (Legal)
Limited.

31 / 41
04/03/2023

Ramón Fernández, F. (2019). «Robótica, inteligencia artificial y seguridad: ¿Cómo encajar la


responsabilidad civil?». La Ley Digital 9365. Wolters Kluwer.
Robles Carrillo, M. (2020). «La gobernanza de la inteligencia artificial: contexto y parámetros
generales». Revista electrónica de estudios internacionales (REEI). N.o. 39 2020.
Rubí, A. (2020). «Retos de la inteligencia artificial y adaptabilidad del derecho de daños», en Cerrillo i
Martínez, A. y Pequera Poch, M. (Coord). Retos jurídicos de la inteligencia artificial. Aranzadi S.A.U.
(Thomson Reuters). Navarra.
Rubio, A. (2014) «Los efectos jurídicos del soft law en materia de igualdad efectiva. La experiencia
española». Anuario de filosofía del derecho AFD. N .o 30, 2014. ISSN 0518-0872. Universidad de
Granada.
Santos González, M.J. (2017). «Regulación legal de la robótica y la inteligencia artificial: Retos del
futuro». Revista Jurídica de la Universidad de León. N.o 4.
Terrones, A.L. (2018). «Inteligencia artificial y ética de la responsabilidad». Cuestiones de filosofía.
Vol. 4. N.o 22.
Vázquez de Castro, E. (2020). «Aproximación a la responsabilidad derivada de los riesgos de la
inteligencia artificial en Europa». En Solar Cayón, J.I. Dimensiones éticas y jurídicas de la inteligencia
artificial en el marco del Estado de Derecho. Cuadernos de la Cátedra de Democracia y Derechos
Humanos. Universidad de Alcalá: Defensor del Pueblo. 2020.
Vidal, M. (2019). La era de la humanidad. Versión Kindle. Ediciones Deusto. Barcelona 2019.
Wagner, B. (2018). Ethics as an Escape from Regulation: From ethics-washing to ethics-shopping? En
Hildebrandt, M. (Ed.), Being Profiling: Cogitas ergo sum. Amsterdam University Press.
Xin Y. et Al. (2018). Machine Learning and Deep Learning Methods for Cybersecurity. IEEE. Disponible
en: https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8359287. Consultado el 03.03.2021.

Yuste, R. et al. (2017). «Four ethical priorities for neurotechnologies and AI». Nature. Vol. 551. N.o
7679.
Zurita Martín, I. (2021). «Gestión de riesgos y responsabilidad civil de los robots», en Ataz López, J.
y Cobacho Gómez, J.A. (Coords). Cuestiones clásicas y actuales del Derecho de daños. Estudio en
Homenaje al Profesor Dr. Roca Guillamón. Tomo III. Ed. Aranzadi-Thomson Reuters. 2021.

(1) Hawking, S. (2016). Discurso a cargo del astrofísico inglés durante la inauguración del Centro Leverhulme para el futuro de la
inteligencia —CFI por sus siglas en inglés—, en la Universidad de Cambridge, el 20.10.2016. Recuperado de:
https://www.rtve.es/noticias/20161020/stephen-hawking-inteligencia-artificial-sera-mejor-peor-pase-
humanidad/1428740.shtml. Consultado el 22.01.2022.

(2) Libro blanco sobre la inteligencia artificial — Un enfoque europeo orientado a la excelencia y la confianza. 19.02.2020. COM
(2020) 65 final.

(3) Muñoz Vela, J.M. (2022). Retos, riesgos, responsabilidad y regulación de la inteligencia artificial. Un enfoque de seguridad
física, lógica, moral y jurídica. Editorial Aranzadi (Thomson Reuters). Navarra. Pp. 49-101.

(4) Asimov, I. (1942). Runaround. Astounding Science Fiction, 1942. N.29 (1). Pp. 94-103. La primera ley de Asimov establecía
que un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño. La segunda, que un
robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera
ley. Y, la tercera, que un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con
la primera o con la segunda ley.

32 / 41
04/03/2023

(5) McCarthy, J.; Minsky, M.; Rochester, N.; Shannon, C. (1955). A Proposal for the Dartmouth Summer Research Project on
Artificial Intelligence. 31.08.1955. Recuperado de: http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html.
Consultado el 14.11.2022. Durante la misma, John McCarthy, coorganizador, destacado profesor e investigador a nivel mundial
en materia de IA, fundador del Laboratorio de inteligencia artificial del MIT junto con Marvin Minsky, y al que se atribuye también
el concepto de cloud computing, acuñó por primera vez el término IA.

(6) Wagner, B. (2018). Ethics as an Escape from Regulation: From ethics-washing to ethics-shopping? In M.Hildebrandt (Ed.),
Being Profiling. Cogitas ergo sum. Amsterdam University Press. 2018. Conforme he referido, son múltiples las iniciativas
privadas que han creado sus principios éticos en el marco de su autorregulación, si bien, en ocasiones, surgen dudas de algunas
iniciativas y su intención cuando, de un lado se anuncia por una empresa su compromiso con la privacidad y la no
discriminación, pero de otro, en su práctica y funcionamiento se vulneran estos principios. Benjamins, R. (2020). «Los líderes
mundiales de la IA ética». Thing Big / Empresas. 08.01.2020. Disponible en: https://empresas.blogthinkbig.com/los-lideres-
mundiales-de-la-inteligencia-artificial-etica/. Consultado el 04.11.2022.

(7) Leenders, G. (2019). «The Regulation of Artificial Intelligence — A Case Study of the Partnership on AI». Medium. Publicado el
13.04.2019. Recuperado de: https://becominghuman.ai/the-regulation-of-artificial-intelligence-a-case-study-of-the-
partnership-on-ai-c1c22526c19f. Consultado el 14.01.2021.

(8) García Mexía, P. (Dir.). (2022). Claves de inteligencia artificial y derecho. Wolters Kluwer Legal & Regulatory España, S.A.
2022. P. 87.

(9) Barrio Andrés, M. (2022). Manual de Derecho Digital. 2ª Edición. Tirant Lo Blanch. 2022. P.68.

(10) Muñoz Vela, J.M. (2021). Cuestiones éticas de la Inteligencia Artificial y repercusiones jurídicas. De lo dispositivo a lo
imperativo. Editorial Aranzadi (Thomson Reuters). Navarra.

(11) Asilomar AI Principles. Future of Life Institute. 2017. Recuperado de: https://futureoflife.org/person/asilomar-ai-principles/.
Consultado el 06.11.2022

(12) Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas
de Derecho civil sobre robótica (2015/2103(INL)).

(13) Una gran parte de estos valores han sido reflejados en los documentos de trabajo y propuestas reguladoras posteriores, si
bien, otros no han sido considerados o lo han sido, pero parcialmente, como la previsibilidad, por ejemplo, en las sendas
definiciones que acompañaron a las propuestas de Reglamento incorporadas por el Parlamento Europeo en sus Resoluciones
de 20 de octubre de 2020 a las que aludiré con posterioridad, centradas en la autonomía del sistema y su posible actuación al
margen de las instrucciones dadas al mismo en su concepción.

(14) Recuperado de: http://www.bioeticayderecho.ub.edu/archivos/pdf/EGE_inteligencia-artificial.pdf. Consultado el 18.10.2022

(15) European Commission, Directorate-General for Communications Networks, Content and Technology, Directrices éticas para
una IA fiable, Publications Office, 2019. Recuperado de: https://data.europa.eu/doi/10.2759/14078. Consultado el
28.10.2022.

(16) Recuperado de: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificialintelligence. Consultado el


15.10.2022.

(17) Disponible en: https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2


020)654179. Consultado el 15.10.2022.

33 / 41
04/03/2023

(18) Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un
marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (2020/2012(INL)).

(19) Muñoz Vela, J.M. (2021). Cuestiones éticas de la Inteligencia Artificial y repercusiones jurídicas. De lo dispositivo a lo
imperativo. Op. Cit. Pp. 65-98.

(20) Propuesta de Reglamento del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas en materia de
inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión, de 21 de abril de
2021. COM (2021) 206 final.

(21) Otros ejemplos, los Principles on Explainable AI del NIST (Septiembre 2021) o Explaining Decisions Made with AI de la ICO &
Alan Turing Institute, la AI Governance Principles.

(22) R e c o m e n d a c i ó n s o b r e I n t e l i g e n c i a A r t i f i c i a l. O C D E . 2 2 . 0 5 . 2 0 1 9 . D i s p o n i b l e e n :
https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449. Consultada el 05.11.2022.

(23) Recomendación sobre la Ética de la Inteligencia Artificial. UNESCO. 23.11.2021.

(24) Artificial Intelligence Governance Principles: Towards Ethical and Trustworthy Artificial Intelligence in the European Insurance
Sector. European Insurance and Occupational Pensions Authority —EIOPA-. 2021.

(25) Ethics and governance of artificial intelligence for health: WHO guidance. Geneva: World Health Organization. 2021. Licence:
CC BY-NC-SA 3.0 IGO.

(26) Otro ejemplo sería Japón, con la publicación el 9 de julio de 2021 de sus directrices sobre gobernanza para la aplicación de los
principios de la IA bajo el título Japanese Governance Guidelines for Implementation of AI Principles.

(27) Recuperado de: https://www.gov.uk/government/publications/ethics-transparency-and-accountability-framework-for-


automated-decision-making. Consultado el 10.11.2022.

(28) Artificial Intelligence: An Accountability new Framework for Federal Agencies and Other Entities. U.S. Government
Accountability Office. 30.06.2021. Recuperado de: https://www.gao.gov/products/gao-21-519sp. Consultado el 30.10.2022.

(29) Recuperado de: https://www-cdn.law.stanford.edu/wp-content/uploads/2020/02/ACUS-AI-Report.pdf. Consultado el


10.10.2022.

(30) B l u e p r i n t f o r a n A I B i l l o f R i g h t s. O f f i c e o f S c i e n c e a n d T e c h n o l o g y P o l i c y . 2 0 2 2 . R e c u p e r a d o d e :
https://www.whitehouse.gov/ostp/ai-bill-of-rights/. Consultado el 10.11.2022.

(31) Recuperado de: https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html. Consultado el 03.09.2022.

(32) Fjeld, J., Nele A., Hannah Hilligoss, A. & Madhulika S. (2020).Principled Artificial Intelligence: Mapping Consensus in Ethical and
Rights-based Approaches to Principles for AI. Berkman Klein Center for Internet & Society, 2020.

(33) Jobin, A., Ienca, M. & Vayena, E. (2019). «The global landscape of AI ethics guidelines». Nat Mach Intell (Nature) 1. Pp. 389-
399 (2019). https://doi.org/10.1038/s42256-019-0088-2

(34) Recuperado de: https://algorithmwatch.org/en/ai-ethics-guidelines-global-inventory/. Consultado el 20.10.2022.

34 / 41
04/03/2023

(35) Recuperado de: https://www.odiseia.org/wp-content/uploads/2022/07/GuIA_buenas_praticas.pdf. Consultado el 20.10.2022

(36) Declaración Europea sobre los Derechos y Principios Digitales para la Década Digital. COM(2022) 28 final

(37) Disponible en: https://www.lamoncloa.gob.es/presidente/actividades/Documents/2021/140721-


Carta_Derechos_Digitales_RedEs.pdf. Consultado el 25.10.2022.

(38) Barrio Andrés, M. (2022). Manual de Derecho Digital. 2ª Edición. Tirant Lo Blanch. Valencia 2022. P. 232.

(39) Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y
al Comité de las Regiones. Inteligencia artificial para Europa. 25.04.2018. COM/2018/237 final.

(40) Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y
al Comité de las Regiones. Plan coordinado sobre la inteligencia artificial. 07.12.2018. COM (2018) 795 final.

(41) R e c u p e r a d o d e : R e c u p e r a d o d e :
https://www.ciencia.gob.es/stfls/MICINN/Ciencia/Ficheros/Estrategia_Inteligencia_Artificial_IDI.pdf. Consultado el 30.10.2022.

(42) Estrategia Nacional de inteligencia artificial. Gobierno de España. Versión 1.0. Disponible en:
https://www.lamoncloa.gob.es/presidente/actividades/Documents/2020/ENIA2B.pdf Consultado el 30.10.2022.

(43) Jorge Ricart, R., Van Roy, V., Rossetti, F., Tangi, L. (2022) AI Watch —National strategies on Artificial Intelligence: A European
perspective. 2022 Edition, EUR 31083 EN, Publications Office of the European Union, Luxembourg, 2022, ISBN 978-92-76-
52910- 1, DOI:10.2760/385851, JRC129123

(44) Los derechos fundamentales siempre deben prevalecer sobre cualquier tecnología, doctrina que recogió el Tribunal de Justicia
de la Unión Europea en su Sentencia de 13 de mayo de 2014, en el Asunto C-131/12 —Coteja vs Google-.

(45) COM (2020) 66 final.

(46) El Libro blanco significó la necesidad de apostar por un ecosistema de excelencia para cuya consecución, conforme a su plan de
actuaciones y entre otras, consideró que la UE debía liderar mundialmente el uso ético de la IA —para lo que ha llevado a cabo
un continuo esfuerzo e intensa actividad, especialmente plasmada en distintas iniciativas, propuestas y en su cooperación
internacional con otros organismos supranacionales-, basado en el respeto de los derechos fundamentales, la dignidad, el
pluralismo, la inclusión, la ausencia de discriminación o sesgo y la protección de la privacidad y de los datos personales,
considerando en que estos valores deben ser exportados al resto del mundo.

(47) El Comité alemán sobre ética en materia de datos propuso un sistema de regulación de cinco niveles sustentado en un enfoque
basado en el riesgo, que contempla desde la ausencia absoluta de regulación en el caso de los sistemas inteligentes más
inocuos hasta la prohibición absoluta en el caso de los más peligrosos. Otros países como Dinamarca han creado un sello de
ética y Malta ha creado un sistema voluntario de certificación. Libro blanco sobre la inteligencia artificial. Comisión Europea.
19.02.2020. COM (2020) 65 final. P. 12.

(48) Muñoz Vela, J.M. (2021). Cuestiones éticas de la Inteligencia Artificial y repercusiones jurídicas. De lo dispositivo a lo
imperativo. Op. Cit. P. 63.

(49) Las primeras propuestas regulatorias emanadas del Parlamento Europeo en materia de ética y responsabilidad civil de la IA que
se acompañaron a sus Resoluciones de 20 de octubre de 2020, destacaban la posibilidad de que la UE pudiera concurrir en la
carrera por liderar la IA a nivel internacional pero sustentada en los valores europeos y en la protección de los derechos

35 / 41
04/03/2023

fundamentales, si bien, las últimas resoluciones, a la que igualmente me referiré, evidencian una postura más moderada y
realista acorde a la situación actual. La Resolución del Parlamento Europeo, de 3 de mayo de 2022, sobre la IA en la era digital
(2020/2266 (INI), recoge la situación del mercado a nivel internacional con datos concretos muy significativos. Entre otros,
destaca que la gran mayoría de las 100 empresas líderes en IA a nivel mundial tienen su sede en EE.UU., mientras que solo
algunas tienen su sede en la UE. Los EE.UU. lideran el número total de empresas de IA de reciente creación. Solo el 7 % de las
empresas de la UE con al menos 10 empleados utilizaban tecnologías de IA en 2020, con diferencias significativas entre los
Estados miembros y entre los distintos sectores empresariales. Por último, refleja otro aspecto que considero clave para
comprender el contexto actual y venidero: La inversión pública anual estimada de la UE en IA en 2018 era de 1.000 millones de
euros, muy inferior a los 5.100 millones de euros que se invierten anualmente en EE.UU. y los 6.800 millones de euros en
China.

(50) Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un
régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL))

(51) Muñoz Vela, J. M. (2021). Derecho de la Inteligencia Artificial. Un enfoque global de responsabilidad desde la ética, la
seguridad y las nuevas propuestas reguladoras europeas. Tesis doctoral. Universidad de Valencia. 2021. Pp. 780-847.

(52) Significar que el Parlamento Europeo ya había abordado previamente las cuestiones relativas a la responsabilidad por daños
derivados del uso y funcionamiento de la IA, en su Resolución de 16 de febrero de 2017, con recomendaciones destinadas a la
Comisión sobre normas de Derecho civil sobre robótica [2015/2103(INL) — OJ L C252 18.7.2018. Pp. 239-257]. Entre otros
aspectos relevantes y propuestas, el Parlamento Europeo distinguía en su Resolución dos posibles regímenes de
responsabilidad distintos. De un lado, un sistema de responsabilidad objetiva, que únicamente exigiría probar que se ha
producido un daño o perjuicio y el establecimiento de un nexo causal entre el funcionamiento perjudicial del sistema inteligente
y los daños y perjuicios causados a la persona afectada. Y de otro, un sistema de responsabilidad sustentada en el riesgo que
se focalizaría en la persona que tiene el control del riesgo potencial y es capaz, en determinadas circunstancias, de minimizarlo
y gestionar el impacto negativo. Asimismo, el Parlamento Europeo propuso una solución híbrida compuesta por instrumentos
legislativos y no legislativos, esto es, de hard y soft law, sin que se pudiera limitar el tipo y alcance de daños y perjuicios objeto
de compensación, ni limitar la naturaleza de la compensación, que la Directiva 85/374/CEE si permitía a los Estados, en
particular, limitar la responsabilidad por daños personales. Además, el Parlamento propuso en esta Resolución como
complemento del seguro obligatorio, la constitución de un fondo de compensación que garantice la reparación de los daños o
perjuicios causados por un robot o sistema dotado de IA avanzada ante la ausencia de un seguro o no cobertura por éste, del
que además podría beneficiarse el fabricante, programador, operador, propietario o usuario, ante la posibilidad de ver limitada su
responsabilidad si contribuyen al mismo. Badillo Arias, J.A. (2019). «Responsabilidad civil y aseguramiento obligatorio de los
robots». En Monterrosso Casado, E. (Dir.). Inteligencia artificial y riesgos cibernéticos. Responsabilidades y aseguramiento.
Tirant lo Blanch 2019. Pp. 49 y 59.

(53) El régimen de responsabilidad objetiva se inspira en la Directiva 2009/103/CE del Parlamento Europeo y del Consejo, relativa al
seguro de responsabilidad civil de los automóviles, en especial para el establecimiento de un seguro obligatorio de
responsabilidad civil y sus límites indemnizatorios. Directiva 2009/103/CE del Parlamento Europeo y del Consejo, de 16 de
septiembre de 2009, relativa al seguro de la responsabilidad civil que resulta de la circulación de vehículos automóviles, así
como al control de la obligación de asegurar esta responsabilidad (Texto pertinente a efectos del EEE). OJ L 263, 7.10.2009. P.
11-31.

(54) Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las
personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se
deroga la Directiva 95/46/CE (Reglamento General de Protección de Datos). DOUE L 119/1 04.05.2016.

(55) Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo, de 8 de junio de 2016, relativa a la protección de los
conocimientos técnicos y la información empresarial no divulgados (secretos comerciales) contra su obtención, utilización y
revelación ilícitas. OJ L 157, 15.6.2016. Pp. 1-18.

(56) A modo de ejemplo, significar algunas de las definiciones más sencillas y dispares de IA de las que podemos partir: Desde la
inteligencia llevada a cabo por máquinas o inteligencia propia de una máquina, la inteligencia emulada por máquinas, los
sistemas que procesan datos y generan decisiones en base a los datos analizados hasta llegar a definirla como lo que
«simplemente lo que aún no se ha logrado».

36 / 41
04/03/2023

(57) Las técnicas y estrategias a las que hace referencia el Anexo I son: Estrategias de aprendizaje automático (ML), incluidos el
aprendizaje supervisado, el no supervisado y el realizado por refuerzo, que emplean una amplia variedad de métodos, entre
ellos el aprendizaje profundo (DL). Estrategias basadas en la lógica y el conocimiento, especialmente la representación del
conocimiento, la programación (lógica) inductiva, las bases de conocimiento, los motores de inferencia y deducción, los
sistemas expertos y de razonamiento (simbólico). Estrategias estadísticas, estimación bayesiana, métodos de búsqueda y
optimización.

(58) Resolución del Parlamento Europeo, de 20 de enero de 2021, sobre inteligencia artificial: Cuestiones de interpretación y de
aplicación del Derecho internacional en la medida en que la UE se ve afectada en los ámbitos de los usos civil y militar, así como
de la autoridad del Estado fuera del ámbito de la justicia penal (2020/2013(INI)).

(59) El reciente documento elaborado por el Joint Research Centre (JRC) de la Comisión Europea bajo el título Glosario de términos
sobre inteligencia artificial centrada en el ser humano, relaciona y define los conceptos básicos relacionados con la IA, en
especial, el concepto de inteligencia artificial, el cual es necesario delimitar para construir su regulación. El glosario elaborado
incluyendo 6 definiciones de IA emanadas de distintas entidades. La primera, la elaborada por la OCDE, que la define de este
modo: Un sistema de IA es un sistema basado en máquinas que es capaz de influir en el entorno produciendo un resultado
(predicciones, recomendaciones o decisiones) para un conjunto determinado de objetivos. Utiliza datos y entradas basados en
máquinas y/o humanos para (i) percibir entornos reales y/o virtuales; (ii) abstraer estas percepciones en modelos mediante el
análisis de forma automatizada (por ejemplo, con aprendizaje automático), o manual; y (iii) utilizar la inferencia del modelo
para formular opciones de resultados. Los sistemas de IA están diseñados para funcionar con distintos niveles de autonomía.
Estévez Alménzar, M., Fernández Llorca, D., Gomez Gutierrez, E. et Martinez Plumed, F., Glossary of human-centric artificial
intelligence, EUR 31113 EN, Publications Office of the European Union, Luxembourg, 2022, ISBN 978-92-76-53432-7,
doi:10.2760/860665, JRC129614.

(60) Propuesta de Reglamento del Parlamento Europeo y del Consejo sobre los requisitos de ciberseguridad para los productos con
componentes digitales, —Cyber Resilience Act—, de 15.09.2022. COM (2022) 454 final. El Reglamento propuesto establece en
su Considerando 29º que los productos con elementos digitales considerados sistemas IA de alto riesgo conforme al artículo 6
de la IA Act y que entren en el ámbito de aplicación de la Cyber Resilience Act propuesta, deberán cumplir los requisitos
esenciales establecidos en ésta y, además, se considerará que dichos sistemas cumplirán también los requisitos de
ciberseguridad establecidos en el artículo 15 actual de la AI Act en tramitación cuando estos sistemas cumplan dichos requisitos
propuestos por la Comisión, en la medida en que dichos requisitos estén contemplados en la declaración UE de conformidad
expedida conforme a la Cyber Resilience Act o en partes de ésta.

(61) Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la seguridad general de los productos.
COM(2021)346 final.

(62) Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a los productos de las máquinas. COM (2021) 202
final.

(63) Reglamento Delegado (UE) 2022/30 de la Comisión por el que se completa la Directiva 2014/53/UE del Parlamento Europeo y
del Consejo en lo que respecta a la aplicación de los requisitos esenciales contemplados en el artículo 3, apartado 3, letras d),
e) y f), de dicha Directiva. DO L 7 de 12.1.2022. P.6.

(64) Propuesta de Directiva del Parlamento Europeo y del Consejo, relativa a la adaptación de las normas de responsabilidad civil
extracontractual a la inteligencia artificial (Directiva sobre responsabilidad civil en materia de IA). 28.9.2022. COM (2022) 496
final.

(65) Propuesta de Directiva del Parlamento Europeo y del Consejo, sobre la responsabilidad por los daños causados por productos
defectuosos, de 28.09.2022. COM (2022) 495 final

(66) Liability for Artificial Intelligence and other emerging digital technologies. U E . 2 0 1 9 . R e c u p e r a d o d e :
https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/DV/2020/01-09/AI-report_EN.pdf.

37 / 41
04/03/2023

(67) La Directiva propuesta prevé la exhibición de pruebas y adopción de medidas de preservación y conservación de las mismas a
requerimiento judicial, y la presunción de incumplimiento de los deberes de diligencia del demandado en determinados
supuestos y condiciones en relación con los sistemas de alto riesgo conforme a la AI Act (Artículo 3). Del mismo modo prevé
una presunción iuris tantum de existencia de relación causal (artículo 4) sujeto a condiciones y no limitada a sistemas
inteligentes de alto riesgo.

(68) Considerando 30º.

(69) Recuperado de: https://www.gov.il/he/departments/news/most-news20223110. Consultado el 08.11.2022.

(70) Presentado al Parlamento por el Secretario de Estado para Asuntos Digitales, Cultura, Medios de Comunicación y Deporte.
Recuperado de: https://www.gov.uk/government/publications/establishing-a-pro-innovation-approach-to-regulating-
ai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statement. Consultado el 20.20.2022.

(71) Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación. BOE 13.07.2022

(72) Fernández Hernández, C. (2022). «La Ley 15/2022 introduce la primera regulación positiva de la inteligencia artificial en
España». Diario La Ley, Sección Ciberderecho. Wolters Kluwer Legal & Regulatory España, S.A. 13.07.2022.

(73) Artículo 23. Inteligencia Artificial y mecanismos de toma de decisión automatizados


1. En el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales y de las iniciativas europeas
en torno a la Inteligencia Artificial, las administraciones públicas favorecerán la puesta en marcha de mecanismos para que los
algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de
minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se
incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se
promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio.
2. Las administraciones públicas, en el marco de sus competencias en el ámbito de los algoritmos involucrados en procesos de
toma de decisiones, priorizarán la transparencia en el diseño y la implementación y la capacidad de interpretación de las
decisiones adoptadas por los mismos.
3. Las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa
con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido.
4. Se promoverá un sello de calidad de los algoritmos.

(74) Significar en relación con estos aspectos y su omisión en el sector público, la Sentencia del Tribunal de Distrito de la Haya de 5
de febrero de 2020 sobre un sistema de IA holandés llamado «Systeem Risico Indicatie» —SyRI—, utilizado por el gobierno de
los Países Bajos para detectar diversas formas de fraude a las Administraciones públicas. [Cotino, L. (2020). «SyRI, ¿a quién
sanciono? "Garantías frente al uso de inteligencia artificial y decisiones automatizadas en el sector público y la sentencia
holandesa de febrero de 2020"». La Ley Privacidad. Wolters Kluwer. N.o 4. mayo 2020].

(75) Illinois fue uno de los primeros estados en regular el uso de la inteligencia artificial, en particular, en los procesos de selección,
mediante un nuevo marco normativo vigente desde el 1 de enero de 2020, en cual se basa en el consentimiento del candidato
antes de usar la inteligencia artificial para evaluar los videos de las entrevistas de trabajo. Informe Riesgos de la inteligencia
artificial: ¿qué oculta 2020? Clifford Chance 2019.

(76) Recuperado de: https://www.congress.gov/bill/117th-congress/house-bill/6580/text. Consultado el 14.11.2022.

(77) Recuperado de: https://www.congress.gov/bill/117th-congress/house-bill/3611/text. Consultado el 20.10.2022.

(78) Recuperado de: https://www.congress.gov/bill/116th-congress/house-bill/6216. Consultado el 20.10.2022.

(79) Recuperado de: https://www.congress.gov/bill/117th-congress/senate-bill/1705/text?r=82&s=1. Consultado el 20.10.2022.

38 / 41
04/03/2023

(80) Recuperado de: https://www.law.com/legaltechnews/2022/07/11/as-the-u-s-grapples-with-regulating-ai-eus-approach-


looms-overhead/?slreturn=20221014143846. Consultado el 14.11.2022.

(81) Recuperado de: https://digichina.stanford.edu/work/translation-internet-information-service-algorithmic-recommendation-


management-provisions-effective-march-1-2022/. Consultado el 14.11.2022.

(82) Recuperado de: https://law.pkulaw.com/chinalaw/eb370a7e0d9edd5e8ca8bb1a5fa6a5e7bdfb.html. C o n s u l t a d o e l


30.10.2022.

(83) Recuperado de: http://www.spcsc.sh.cn/n8347/n8483/u1ai248771.html. Consultado el 30.10.2022.

(84) Responsible AI for All. NITI Aayog. 2021. Disponible en: https://www.niti.gov.in/sites/default/files/2021-02/Responsible-AI-
22022021.pdf. Consultado el 30.10.2022.

(85) Recuperado de: https://www25.senado.leg.br/web/atividade/materias/-/materia/151547. Consultado el 5.09.2022.

(86) El artículo 22.1 del GDPR establece que «Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente
en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte
significativamente de modo similar».

(87) Regulation on uniform provisions concerning the approval of vehicles with regards to cyber security and cyber security
management system. United Nations — Economic Commission for Europe.

(88) En adición a los ejemplos expuestos, adicionar los siguientes: La agencia canadiense Transport Canada publicó en 2020 la guía
Canada’s Vehicle Cyber Security Guidance, que proporciona principios rectores para ayudar a garantizar la ciberseguridad de los
vehículos a lo largo de su ciclo de vida. Asimismo, los OEM —Original Equipment Manufacturer o Fabricante de Equipo Original—
europeos publicaron un conjunto de principios de ciberseguridad que ya son aplicados por las empresas OEM. Del mismo modo,
la Corporación Nacional de Desarrollo y Reforma (NDRC) de China actualizó en febrero de 2020 su Estrategia para el Desarrollo
de los Vehículos Inteligentes, que estableció un «sistema integral de ciberseguridad» [M. Schaub y A. Zhao. (2020). China
Releases Big Plan for Autonomous Vehicles. China Law Insight. 2020]. El Consejo de Estándares de Singapur publicó en 2019
una serie de directrices para el despliegue de los coches autónomos denominado Technical Reference 68 — Autonomous
vehicles. Singapore Standards Council, que contiene un apartado específico en el que se definen los principios de ciberseguridad
y un marco de evaluación. A nivel de la UE, también han sido numerosas las iniciativas hasta la fecha en esta materia. En 2014,
la Dirección General de Movilidad y Transportes (DG MOVE) de la Comisión Europea creó una plataforma de despliegue de
sistemas inteligentes de transporte cooperativos (C-ITS). En 2016, la Comisión Europea adoptó una Estrategia Europea sobre
Sistemas Inteligentes de Transporte Cooperativos y se puso en marcha la plataforma C- Roads. En 2017, la Dirección General
de Mercado Interior, Industria, Emprendimiento y Pequeñas y Medianas Empresas (DG GROW) de la Comisión Europea puso en
marcha una iniciativa sobre la normativa de seguridad con el objetivo de contribuir a una mayor disminución del número de
víctimas mortales y heridos en la carretera considerando las modificaciones del Reglamento General de Seguridad y del
Reglamento de Seguridad de los Peatones. En 2018, la Comisión Europea publicó la Estrategia de la UE para la movilidad del
futuro, estableciendo una acción específica para implementar un piloto sobre las infraestructuras y los procesos de
ciberseguridad comunes en toda la UE que son necesarios para una comunicación segura y fiable entre los vehículos y la
infraestructura para la seguridad vial y la gestión del tráfico. Desde 2018, la Comisión Europea está implementando el Sistema
de Gestión de Credenciales de Seguridad C-ITS de la UE (EU CCMS) basado en la Política de Seguridad C-ITS (SP) y la Política
de Certificación C-ITS (CP). En 2019, la Comisión Europea creó un grupo de expertos de la Comisión sobre movilidad
cooperativa, conectada, automatizada y autónoma, denominado «CCAM», para asesorar y apoyar a la Comisión en el ámbito
de las pruebas de despliegue. El mismo año, ENISA realizó, con la participación del Joint Research Centre de la Comisión
Europea —JRC por sus siglas en inglés—, un estudio sobre Buenas prácticas para la seguridad de los coches inteligentes
centrado en los coches semiautónomos y autónomos (Ya en 2016, ENISA había realizado un estudio sobre cuestiones de
seguridad de los coches inteligentes, que dio lugar a un documento titulado Cyber Security and Resilience of smart cars). En
2020, el CCI publicó un informe sobre el futuro del transporte por carretera y ENISA creó el Grupo de Expertos en Seguridad de
la Movilidad Conectada y Automatizada (CAMSec), para abordar las amenazas, los retos y las soluciones en materia de
ciberseguridad de los sistemas de transporte inteligentes (ITS) y del transporte CAM. Previamente, ENISA también había creado

39 / 41
04/03/2023

el grupo de trabajo Cars and Roads SECurity (CaRSEC), para abordar las amenazas a la ciberseguridad de los coches
inteligentes, los retos y las soluciones para proteger la seguridad de los usuarios de la carretera. En septiembre de 2020, la
Comisión Europea publicó un informe elaborado por un grupo independiente de expertos sobre la ética de los vehículos
conectados y automatizados. ENISA publicó posteriormente, en diciembre de 2020, el informe AI Cybersecurity Challenges, y
el 11.02.2021, ENISA y el Joint Research Centre de la Comisión Europea —JRC— publicaron el informe Cybersecurity
challenges in the uptake of artificial intelligence in autonomous driving. En la actualidad, las principales marcas con mayor
inversión en coches autónomos y en plataformas aseguran estar preparándose para el denominado «Transporte como
Servicio» —Transportation as a Service o TaaS por sus siglas en inglés—. Dentro de la UE, Francia fue uno de los primeros
países europeos en aprobar una norma que permite a los vehículos autónomos hacer pruebas por sus calles. Londres ya ha
realizado pruebas autorizadas de vehículos autónomos en zonas de conducción abierta. Algunas poblaciones de Suiza tienen
ya autobuses que hacen circuitos sin conductor. Reino Unido publicó su Automatic and Electric Vehicles Act 2018, aprobada el
19 de julio de 2018, la cual no es muy distinta a la que tenemos en España para vehículos convencionales, si bien, se regulan
aspectos muy interesantes en el ámbito de la responsabilidad.

(89) Best Practices — Executive Summary. Auto-ISAC. 2016.

(90) La adhesión a mecanismos de armonización podría conllevar la presunción de conformidad con la AI Act, conforme prevén los
artículos 40 y 41 del texto propuesto.

(91) ISO 10218-1:2011, Robots and robotic devices Safety requirements for industrial robots; ISO 13855, Safety of machinery —
Positioning of safeguards with respect to the approach speeds of parts of the human body; ISO/TS 15066:2016 (en) Robots
and robotic devices— Collaborative robots; otras.

(92) El comité técnico conjunto ISO/IEC JTC 1, Tecnologías de la Información de ISO y la Comisión Electrotécnica Internacional (IEC)
fundaron en 2018 el Subcomité SC 42 sobre inteligencia artificial, constituyendo el primer ecosistema de la IA para la creación
de estándares y normalización. El denominado Subcomité ISO/IEC JTC 1/SC 42, dedicado a la IA, ha publicado varias normas
relacionadas con el Big data y con múltiples proyectos en la actualidad. Su objetivo es desarrollar e implementar un programa
de normalización de la IA para guiar a otros comités de ISO en el desarrollo de aplicaciones de la misma. ISOfocus noviembre-
diciembre 2019. P. 2. Recuperado de: https://www.iso.org/files/live/sites/isoorg/files/news/magazine/ISOfocus%20(2013-
NOW)/sp/ISOfocus_137_sp.pdf. Consultado el 05.10.2022.

(93) PAS 1885:2018 The fundamental principles of automotive cyber security. Specification. BS. 2018; BSI, «PAS 11281:2018
Connected automotive ecosystems. Impact of security on safety. Code of practice».

(94) ETSI TS 102 940 —V1.3.1— Intelligent Tranport Systems (ITS); Security; ITS communications security architecture and
security management. ETSI. 2018; «TS 102 941 —V1.2.1— Intelligent Transport Systems (ITS); Security; Trust and Privacy
Management». ETSI. 2018; «TS 102 942 —V1.1.1— Intelligent Transport Systems (ITS); Security; Access Control». ETSI.
2012; «TS 102 943 —V1.1.1— Intelligent Transport Systems (ITS); Security; Confidentiality services». ETSI. 2012.

(95) SAE J3061: Cybersecurity Guidebook for Cyber-Physical Vehicle Systems. SAE. 2016.

(96) ISO/SAE DIS 21434 —Road vehicles— Cybersecurity engineering. ISO/SAE. 2020.

(97) SAE J3101: Hardware Protected Security for Ground Vehicles.

(98) Vidal, M. (2019). La era de la humanidad. Versión Kindle. Ediciones Deusto. Barcelona 2019. Pos. 2736.

(99) Barrio Andrés, M. (2021). Formación y evolución de los derechos digitales. Ediciones Olejnik. Argentina. 2021. P.28.

(100) Yuste, R.et al. (2017). «Four ethical priorities for neurotechnologies and AI». Nature. Vol. 551. N.o 7679. noviembre 2017.

40 / 41
04/03/2023

(101) Recuperado de: https://neurorightsfoundation.org/. Consultado el 04.10.2022.

(102) Ienca, M., & Andorno, R. (2021). «Hacia nuevos derechos humanos en la era de la neurociencia y la neurotecnología». Análisis
filosófico. Vol. 41, N.o 1. Sociedad Argentina de Análisis Filosófico. P. 143.

(103) Ausín, T., Morte, R. et Monasterio Astobiza, A. (2020) «Neuroderechos: Derechos humanos para las neurotecnologías». Diario
La Ley. núm. 43, Sección Ciberderecho. 2020, P.5.

(104) Genser, J., Herrmann, S. et Yuste, R. (2022). International Human Rights Protection Gaps in the Age of Neurotechnology.
NeuroRights Foundation. 06.05.2022. P. 50.

(105) Yuste, R., Goering, S., Arcas, B. et al. (2017). «Four ethical priorities for neurotechnologies and AI». Nature 551. 2017. Pp.
159-163. https://doi.org/10.1038/551159a

(106) Artículo 19.- La Constitución asegura a todas las personas:


1º.- El derecho a la vida y a la integridad física y psíquica de la persona.
La ley protege la vida del que está por nacer.
La pena de muerte sólo podrá establecerse por delito contemplado en ley aprobada con quórum calificado.
Se prohíbe la aplicación de todo apremio ilegítimo.
El desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a la vida y a la integridad
física y psíquica. La ley regulará los requisitos, condiciones y restricciones para su utilización en las personas, debiendo
resguardar especialmente la actividad cerebral, así como la información proveniente de ella.

(107) Recuperado de: https://www.bcn.cl/leychile/navegar?idNorma=1166983. Consultado el 30.06.2022.

(108) Diario Oficial 25/10/2021. Boletín n.o 13827-19

(109) Cornejo Plaza, M. I. (2021). «Neuroderechos en Chile: consagración constitucional y regulación de las neurotecnologías»,
Agenda Estado de Derecho, 2021/12/13. Disponible en: https://agendaestadodederecho.com/neuroderechos-en-chile-
consagracion-constitucional-y-regulacion-de-las-neurotecnologias/. Consultado el 09.11.2022.

(110) De Santos Pascual, J.C. (2022). «Chile rechaza la nueva Constitución con una amplia mayoría. Euronews. 05.09.2022.
Disponible en: https://es.euronews.com/2022/09/05/chile-rechaza-la-nueva-constitucion-con-una-amplia-mayoria.
Consultado el 11.10.2022.

(111) R e c u p e r a d o d e : h t t p s : / / w w w . l a m o n c l o a . g o b . e s / p r e s i d e n t e / a c t i v i d a d e s / D o c u m e n t s / 2 0 2 1 / 1 4 0 7 2 1 -
Carta_Derechos_Digitales_RedEs.pdf.

41 / 41

También podría gustarte