Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Avanzando en la regulación de la IA
LA LEY 11109/2022
Resumen
La inteligencia artificial es una tecnología de un potencial disruptivo
incuestionable en todos los ámbitos y sectores de actividad que cambiará el
mundo que conocemos. Sus bondades están fuera de toda duda, si bien,
comporta distintos riesgos y retos que deben ser adecuadamente identificados y
gestionados, los cuales no pueden ser abordados exclusivamente desde la ética
o la autorregulación, sino que exigirán la intervención reguladora del legislador
al objeto de garantizar la adecuada protección de los bienes, derechos e
intereses en juego. Esta intervención no es ni será fácil, y su objeto y alcance
está siendo objeto de una ardua discusión en la actualidad a nivel internacional
y, por supuesto, también en el ámbito de la UE, ante la tramitación de la
conocida como Artificial Intelligence Act (AI Act), que pretende ser una norma
pionera y de referencia internacional, pero que está evidenciado desde su
elaboración las discrepancias existentes respecto del propio concepto de IA —
sobre el que no existe actualmente un consenso ni científico, ni ético ni jurídico
—, como respecto del adecuado enfoque, objeto, alcance y técnicas para la
regulación de la IA.
La regulación propuesta en el seno de la UE parte de los principios y valores
europeos, lo que comporta situar a la persona y sus derechos fundamentales
como los aspectos prioritarios, pero sin descuidar la necesidad de garantizar la
seguridad para ciudadanos, empresas y Administraciones Públicas, la
innovación y sus incentivos, el desarrollo tecnológico así como la
competitividad de la industria europea, en una carrera por liderar la misma y
que encabezan países como EE.UU. y China, así como los gigantes tecnológicos.
La consecución del equilibrio entre todos los intereses en juego, en constante e
inevitable tensión, no es una tarea fácil, especialmente ante el imparable avance
y evolución de la IA, si bien, para conseguirlo no debe obviarse el derecho a la
misma y su accesibilidad, y no sólo por ciudadanos, sino por Gobiernos,
Administraciones públicas y empresas. Los derechos fundamentales y la
dignidad de la persona deben estar siempre por encima de cualquier tecnología,
incluida la IA, y corresponde al ser humano definir su futuro, así como el de la
IA que necesita o desea. El presente artículo pretende abordar el tratamiento de
los derechos fundamentales en los principales marcos éticos propuestos hasta
la fecha, en las propuestas reguladoras presentadas, especialmente en el ámbito
europeo, y como se ha abordado dicho equilibrio en las mismas.
Palabras clave
Inteligencia artificial, IA, sistema inteligente, algoritmo, autoría, personalidad
jurídica, responsabilidad civil, seguridad, ética, derechos fundamentales,
derechos humanos, dignidad humana, accesibilidad, innovación, competitividad.
Abstract
1 / 41
04/03/2023
1. Introducción
La IA constituye un conjunto de tecnologías en constante evolución y el crecimiento de su desarrollo,
despliegue y aplicación es exponencial. Su potencial disruptivo y habilitador es incuestionable, al
igual que sus bondades, sus retos y sus riesgos.
La evolución y mejora de sus capacidades, características y de las tecnologías asociadas, junto a la
mayor capacidad de computación, conectividad y disponibilidad de datos, entre otros factores, están
2 / 41
04/03/2023
3 / 41
04/03/2023
4 / 41
04/03/2023
5 / 41
04/03/2023
6 / 41
04/03/2023
7 / 41
04/03/2023
organizaciones supranacionales han sido múltiples, entre otras (21) , la Organización para la
Cooperación y el Desarrollo Económicos —OCDE— publicó su Recomendación sobre Inteligencia
Artificial (22) , adoptada por el Consejo de la misma el 22 de mayo de 2019, con el propósito expreso
de fomentar la innovación y la confianza en la IA, garantizando el respeto de los derechos humanos y
los valores democráticos, y complementando los estándares de la OCDE en materias como la
privacidad, la seguridad, la gestión de riesgos y la conducta empresarial responsable. La
recomendación identifica un conjunto de principios complementarios basados en valores para una IA
confiable, en particular, crecimiento inclusivo, desarrollo sostenible y bienestar, equidad, valores
centrados en el ser humano, transparencia y explicabilidad, responsabilidad y, por último, robustez,
seguridad y protección. El gráfico mostrado a continuación muestra los Gobiernos que se han
comprometido con los principios de la IA propugnados por la OCDE:
8 / 41
04/03/2023
Towards Ethical and Trustworthy Artificial Intelligence in the European Insurance Sector (24) , con el
objetivo de poner en el mercado asegurador soluciones de IA de forma confiable y segura. Y la
Organización Mundial de la Salud —OMS— también publicó en 2021 una nueva guía sobre ética y
gobernanza de la IA bajo el título Ethics and Governance of Artificial Intelligence for Health (25) ,
situando la ética y los derechos en el centro del diseño, implementación y uso de la IA. De esta guía
me permito destacar la cita inicial que incorpora de Stephen Hawking: «Our future is a race between
the growing power of technology and the wisdom with which we use it» (Nuestro futuro es una
carrera entre el creciente poder de la tecnología y la sabiduría con la que la utilizamos), a la que
permitiría adicionar «in which the law is always behind» (en la que el derecho siempre va por detrás).
Asimismo, las iniciativas nacionales en el ámbito ético por parte de países fuera de la UE también se
han multiplicado (26) como, por ejemplo, Reino Unido que, habiendo salido de la UE desde el 1 de
febrero de 2020 y finalizado ya el denominado Acuerdo de Retirada —que motivó que su relación con
la misma pasara a regirse por el Acuerdo de Comercio y Cooperación—, lanzara su propuesta ética en
el ámbito ético de la IA, con la publicación, el 13 de mayo de 2021, de su nueva guía sobre el marco
de ética, transparencia y rendición de cuentas para la toma de decisiones automatizadas en relación
con el sector público, bajo el título Ethics, Transparency and Accountability Frameworkfor Automated
Decision-Making (27) , al que prosiguió la reciente definición de sus bases para su regulación, con la
publicación de su proyecto de Ley de Protección de datos e Información Digital (DPDIB), acompañada
de una serie de nuevas propuestas de regulación de la IA, a las que haré referencia posteriormente.
Por su parte, EE.UU., a través de su U.S. Government Accountability Office publicó en junio de 2021
su informe Artificial Intelligence: An Accountability new Framework for Federal Agencies and Other
Entities ( 2 8 ) , en la que identificó algunas prácticas clave para la rendición de cuentas o
accountability. Este informe se une al marco de gobernanza algorítmica propuesta por la misma en el
sector público, en su informe Government by Algorithm: Artificial Intelligence in Federal Administrative
Agencies (29) , entre otras iniciativas, también legislativas, a las que me referiré posteriormente.
Asimismo, EE.UU. ha publicado recientemente su proyecto de Carta de Derechos de la IA (30) . China
publicó en septiembre de 2021 sus Ethical Norms for New Generation Artificial Intelligence (31) .
Del mismo modo, son múltiples las empresas que han creado sus propios marcos corporativos en
materia de ética de la IA, incluyendo gigantes tecnológicos. De lo distintos estudios más recientes
que analizan algunos de los principales marcos mundiales, me permito significar el estudio Principled
artificial intelligence: a Map of Ethical and Rights-Based Approaches llevado a cabo por el Berkman
Klein Center for Internet & Society de la Universidad de Harvard en 2020 (32) , donde se analizaron
32 marcos distintos elaborados por gobiernos, entidades intergubernamentales o empresas hasta
2020, y que queda perfectamente reflejado en este gráfico que recoge el mismo:
Fuente: Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches
9 / 41
04/03/2023
to Principles for AI. Berkman Klein Center for Internet & Society, 2020. P. 20.
Asimismo, significar otros estudios recientes, como las directrices de la Escuela Politécnica Federal de
Zúrich —ETH—, bajo el título Artificial Intelligence: the global landscape of ethics guidelines (33) ,
para las que analizó 84 organizaciones a nivel internacional, o las directrices publicadas por
Algorithm Watch en 2020 bajo el título AI Ethics Guidelines Global Inventory (34) , para las que
analizó más de 83 organizaciones, o la GuIA de buenas prácticas en el uso de la inteligencia artificial
ética (35) , elaborada por Odiseia en 2021, en las que se analizaron 27 iniciativas mundiales.
Durante estos últimos años, la UE ha mostrado su pretensión de liderazgo internacional en materia
ética, habiendo colaborado estrechamente en la elaboración de los precitados principios éticos de la
OCDE en materia de IA que posteriormente fueron suscritos por el G20. Asimismo, la UE ha venido
asumiendo un especial protagonismo en materia ética en otros foros multilaterales, como el Consejo
de Europa, la UNESCO, la Organización Mundial del Comercio, la Unión Internacional de
Telecomunicaciones (UIT) y Naciones Unidas.
Por último, significar que el 26 de enero de 2022, se publicó la Declaración Europea sobre los
Derechos y Principios Digitales para la Década Digital (36) , del Parlamento Europeo, el Consejo y la
Comisión, concibiendo a las personas en el centro de la transformación digital. Estos principios se
presentan como esenciales y basados en valores europeos, con el objetivo de que los mismos y los
derechos fundamentales y libertades de los ciudadanos garantizados por el Derecho de la UE sean,
del mismo modo, garantizados tanto en la dimensión física como digital en las que vivimos y
operamos. La declaración dedica el primer apartado de su Capítulo III a las interacciones con
algoritmos y sistemas de IA, la necesidad de transparencia, equidad y seguridad, recogiendo
expresamente que debe asegurarse la protección de las personas «frente a los riesgos y daños a su
salud, su seguridad y sus derechos fundamentales». Con esta finalidad recoge un conjunto de
compromisos con dicho objetivo, que incluyen la transparencia, la no discriminación, la autonomía
personal, el control y supervisión humana, la seguridad y el respeto a los derechos fundamentales de
las personas. Asimismo, dedica su Capítulo V a la seguridad, protección, accesibilidad y
empoderamiento, al objeto de que toda persona tenga «acceso a tecnologías, productos y servicios
digitales que sean seguros y protejan la intimidad desde el diseño», es decir, exigiendo la seguridad
y la privacidad en el diseño.
Por su parte, en España, la Carta de Derechos Digitales (37) de 2021 reconoce el derecho a la
seguridad de los sistemas digitales de información, dedicando un apartado específico sobre
«Derechos ante la IA», que no, a los «Derechos a la IA», como entiendo sería deseable, en referencia
a su accesibilidad, principalmente para empresas y ciudadanos. Tanto la Declaración Europea sobre
los Derechos y Principios Digitales para la Década Digital como la Carta de Derechos Digitales
constituyen instrumentos de soft law no vinculantes, como significa Barrio Andrés (38) .
3. Propuestas reguladoras de la IA
3.1. Introducción.
La IA no se halla actualmente regulada a nivel global en ningún país del mundo, lo que ha planteado,
de un lado, un arduo debate sobre la necesidad de su regulación y, en su caso, el enfoque, objeto,
alcance y técnicas más adecuadas para ello y, de otro, la proposición de distintas iniciativas
legislativas en los países que han identificado la necesidad de regularla por razones diversas. La
ausencia de regulación hasta la fecha nos ha obligado como juristas a realizar una labor integradora
e interpretativa a la hora de resolver los problemas y conflictos que ya surgen en relación con la
misma, tomando como referencia la legislación sobre propiedad intelectual e industrial,
ciberseguridad, protección de datos, secretos empresariales, seguridad industrial, seguridad de los
productos y consumo, así como el resto de marcos normativos generales o sectoriales en materia
10 / 41
04/03/2023
civil, mercantil, laboral, administrativa o penal. Del mismo modo, la vía contractual y la
autorregulación corporativa (códigos de gobierno, éticos y de conducta —soft law—) nos han servido
para definir sus requerimientos, obligaciones, seguridad, garantías y responsabilidades, tomando
como referencia algunos de los estándares y marcos éticos de referencia a nivel mundial sobre IA.
La regulación de la IA se ha incorporado en la agenda legislativa de distintos países y constituye un
objetivo para la UE en el marco de su estrategia digital, datos e IA, la cual pretende aprobar la
primera norma reguladora de la IA de referencia mundial.
El motivo, enfoque, objeto, alcance y técnicas para su regulación son diversas, aunque parten en su
gran mayoría de un enfoque centrado en el ser humano y en la protección de sus derechos
fundamentales y libertades públicas como, por ejemplo, la estrategia española en materia de IA a la
que aludiré posteriormente, pero sin descuidar la innovación y la competitividad de la industria local
o regional. No obstante, no todos los países disponen de una estrategia en materia de IA y, los que
disponen de la misma, no todos han identificado y enfocado de la misma manera su posible
regulación.
La UE elaboró su estrategia en materia de IA bajo el título Inteligencia artificial para Europa» (39) y
su Plan coordinado sobre la inteligencia artificial (40) . A nivel de Estados miembros, España aprobó
su Estrategia Española de I+D+I en IA (41) en 2019 y su Estrategia Nacional de IA (42) —ENIA— en
diciembre de 2020, si bien, algunas de sus comunidades autónomas tienen su propia estrategia
autonómica, como Cataluña y la Comunidad Valenciana. Otros países pertenecientes a la UE disponen
ya de su estrategia nacional como Alemania, Bulgaria, Chequia, Chipre, Dinamarca, Eslovaquia,
Estonia, Finlandia, Francia, Hungría, Letonia, Lituania, Luxemburgo, Malta, Países Bajos, Portugal,
Suecia, España, Polonia y Noruega. A nivel internacional, países como China, Canadá, India, Japón o
UK disponen de sus propias estrategias ( 4 3 ) . El siguiente gráfico de la OECD.AI muestra
gráficamente las iniciativas políticas y estrategias de IA a nivel mundial:
Fuente: OECD.AI (2021), powered by EC/OECD (2021), database of national AI policies, accessed on
15/11/2022.
Las principales preocupaciones de los legisladores al abordar la regulación de la IA, partiendo de la
exigencia imperativa y necesidad primigenia de garantizar los valores y derechos fundamentales, son,
de un lado, mantener el equilibrio entre la seguridad y la confianza y, de otro, su despliegue, su
accesibilidad, su uso, la innovación, el desarrollo y la competitividad. El riesgo de una
hiperregulación o intervención legislativa excesiva con el objetivo de garantizar lo primero podría
impactar directamente en garantizar lo segundo. Y este equilibrio se haya en constante tensión,
especialmente, ante el desarrollo, despliegue y aplicación incesante de la IA en nuevos ámbitos y
sectores, la potenciación de sus capacidades asociadas y relacionadas, mayor disponibilidad de
datos, conectividad y capacidad de computación, relación e interacción con otras tecnologías, el
avance científico incesante y los potenciales riesgos asociados de alto impacto.
El legislador europeo es consciente que, salvaguardar ese equilibrio
11 / 41
04/03/2023
12 / 41
04/03/2023
13 / 41
04/03/2023
sistema de IA, junto con otras adicionales y específicas únicamente exigibles para los sistemas
considerados de alto riesgo, así como definir un conjunto de obligaciones adicionales relacionadas
que aseguren su observancia en el desarrollo, comercialización y uso de la IA.
La coetánea Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones
destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial
(50) , recogió el posicionamiento y recomendaciones del Parlamento destinadas a la Comisión para el
establecimiento de un régimen legal de responsabilidad civil en materia de IA en la UE, incorporando
una Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la responsabilidad civil
por el funcionamiento de los sistemas de IA, que tuve igualmente ocasión de analizar con profundidad
en el marco de mi tesis doctoral en materia de IA y derecho de daños (51) .
Esta Resolución significó, de nuevo, la importancia de legislar de manera «estratégica» de modo que
se permita la inclusión de futuros avances tecnológicos. Asimismo, planteó un sistema dual de
responsabilidad (52) , esto es, de un lado, una responsabilidad objetiva para los operadores de
sistemas de IA de alto riesgo (53) y, de otro lado, una responsabilidad subjetiva para el resto de
sistemas inteligentes. Y todo ello sin pretensión de «sustituir» sino «integrar y complementar» el
régimen actual de responsabilidad por productos defectuosos. Por último, el Parlamento Europeo
pidió expresamente a la Comisión que considerara la posibilidad de revertir las normas que rigen la
carga de la prueba para los daños ocasionados por las tecnologías digitales emergentes en casos
concretos, previa y adecuada evaluación. La responsabilidad objetiva contemplada en el mismo debía
corresponder inicialmente al operador, y al fabricante cuando el control del riesgo recayera en aquél,
y se acompañaba de la exigencia de un seguro obligatorio de responsabilidad civil tanto al operador
final como inicial de un sistema de IA de alto riesgo, al que ya aludía el Parlamento Europeo en su
precitada Resolución de 16 de febrero de 2017, así como de una limitación cuantitativa de las
indemnizaciones.
Estas dos propuestas del Parlamento Europeo han sido relegadas por las posteriores propuestas de la
Comisión, que difieren sustancialmente respecto de aquellas en su enfoque, definiciones, objeto,
contenido y alcance, así como incluso en el tipo de instrumento o acto jurídico propuesto para su
regulación, en concreto, en materia de responsabilidad civil, como luego expondré.
La posterior Propuesta deReglamento del Parlamento Europeo y del Consejo, por el que se establecen
normas armonizadas en materia de IA (Ley de Inteligencia Artificial) —AI Act—, se presentó como la
primera norma reguladora de la IA y sus usos a nivel europeo y horizontal, con vocación de
convertirse en referencia internacional como lo fue el GDPR (54) . Sin embargo, como he referido, no
regula la IA toda su extensión y de manera global, sino exclusivamente determinadas aplicaciones y
sistemas inteligentes considerados de riesgo inaceptable, por consiguiente, prohibidos por razones de
prudencia, y otros de alto riesgo, previendo todo un conjunto de requisitos y obligaciones para los
mismos. Sin embargo, a pesar de tratarse de una propuesta construida desde un enfoque de riesgos,
por el momento, deja el resto de sistemas a la autorregulación, a excepción de concretos sistemas a
los que exige determinadas obligaciones de transparencia e información. El Reglamento propuesto
parte de la consideración de la IA como una «actividad de riesgo», que precisa regulación en los
niveles más altos.
De las opciones valoradas por el legislador europeo para acometer la regulación de la IA, conforme
consta en su Evaluación de Impacto, apostó por la plasmada en el texto finalmente propuesto, que no
comparto totalmente, dado que, como he referido, únicamente regula la IA calificada conforme al
mismo de alto riesgo, dejando al margen el resto de sistemas a los que remite a la autorregulación.
En mi opinión, esta opción es incongruente con el enfoque de riesgos y objetivos pretendidos con la
norma propuesta. De manera congruente con dicho enfoque y objetivos, a mi juicio y de inicio,
debería exigirse un análisis de riesgos a todo sistema inteligente antes de su lanzamiento al mercado
y su puesta en funcionamiento y, desde luego, en el caso de que el sistema se relacione con
14 / 41
04/03/2023
personas, sus derechos fundamentales o sus datos, ya sean sistemas de riesgo medio o limitado,
reducido o mínimo conforme a la AI Act, considerando que siempre existe un riesgo intrínseco o
inherente cuando el sistema interaccione con aquéllas y aquéllos.
La propuesta recoge como primer objetivo de la misma, garantizar que los sistemas de IA
comercializados y utilizados en la UE sean seguros y respeten la legislación vigente sobre valores y
derechos fundamentales de la UE. Conforme expresamente recoge en su exposición de motivos, la
propuesta pretende mejorar y promover la protección de los derechos fundamentales propugnados
por la Carta de los Derechos Fundamentales de la UE, en particular: El derecho a la dignidad humana
(Artículo 1), el respeto a la vida privada y la protección de datos personales (Artículos 7 y 8), no
discriminación (Artículo 21) e igualdad entre mujeres y hombres (Artículo 23), libertad de expresión
(Artículo 11), la libertad de reunión (Artículo 12), la protección del derecho a un recurso efectivo y a
un juicio justo, los derechos de defensa y la presunción de inocencia (Artículos 47 y 48), así como el
principio general de buena administración. Asimismo, conforme igualmente recoge dicha exposición
de motivos, la Comisión considera que la propuesta afectará positivamente a los derechos de un
conjunto de grupos especiales, como los derechos de los trabajadores a unas condiciones de trabajo
justas y equitativas (Artículo 31), un alto nivel de protección del consumidor (Artículo 38), los
derechos del niño (Artículo 24) y la integración de las personas con discapacidad (Artículo 26). Y que
también repercutirá del mismo modo en el derecho a un alto nivel de protección ambiental y la
mejora de la calidad del medio ambiente (Artículo 37), incluso en relación con la salud y la seguridad
de las personas.
No obstante, debo destacar que la propuesta contiene algunas limitaciones consideradas por la
misma como «proporcionadas y limitadas» a la libertad de empresa (Artículo 16) y a la libertad
artística y científica (Artículo 13) por razones de interés público y para proteger derechos
fundamentales como la salud, la seguridad, la protección del consumidor u otros, así como a la
propiedad intelectual (Artículo 17.2), ante los requerimientos de transparencia e información, cuya
divulgación estaría sometida en cualquier caso a la Directiva 2016/943 (55) .
Del mismo modo, la AI Act integra un conjunto de principios éticos esenciales en sus disposiciones,
requerimientos y obligaciones, los cuales integran los principales marcos éticos a nivel internacional
a los que he hecho referencia anteriormente —entre otros, control y supervisión humana,
transparencia, explicabilidad, responsabilidad, seguridad o privacidad—, si bien, exclusivamente
exigibles a los sistemas inteligentes considerados de alto riesgo y no exigibles al resto —por ejemplo
un chatbot inteligente que puede estar interactuando con menores o personas afectadas por
determinadas enfermedades mentales, afecciones neurológicas o discapacidades intelectuales—, lo
que considero una oportunidad perdida e incongruente, de nuevo, con el enfoque de riesgos desde el
que se construye el acto jurídico propuesto. La AI Act difiere en estos aspectos de la previa propuesta
reguladora integrada por el Parlamento Europeo en su Resolución de 20 de octubre de 2020, que
contemplaba un conjunto de normas y principios éticos exigibles a cualquier sistema inteligente,
cualquiera que fuera su nivel de riesgo, junto con otros únicamente exigibles a los considerados de
alto riesgo según la misma, conforme he referido anteriormente.
En mi opinión, un sistema inteligente que trate inicialmente con personas y sus derechos
fundamentales, desde un punto de vista de riesgos y en términos de análisis de su impacto para las
mismas, al margen de su probabilidad y siguiendo la clasificación de la AI Act, debería presumirse de
inicio de alto riesgo, salvo que el hipotético análisis de riesgos, previo y preceptivo, al que hecho
referencia, evidencie un nivel distinto, considerando especialmente sus capacidades, características,
interacción con otras tecnologías, contexto de uso y finalidad, así como las medidas de seguridad que
reduzcan el nivel de riesgo y lo lleven a un nivel aceptable.
La propuesta es técnica y compleja, con un enfoque basado en la industria, la seguridad y la ética
más que en los derechos fundamentales y libertades públicas del ciudadano, no contemplando
15 / 41
04/03/2023
mecanismos específicos de garantía o tutela de derechos de las personas afectadas y las posibles
evaluaciones de impacto en los derechos humanos.
La propuesta incorpora un régimen sancionador del que adolecía la precitada Propuesta de
Reglamento del Parlamento Europeo y del Consejo, sobre los principios éticos para el desarrollo, el
despliegue y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, de 20 de
octubre de 2020, como herramienta conminatoria para el cumplimiento de las obligaciones previstas
en el mismo.
La iniciativa legislativa ha proseguido su tramitación, en la que se han producido incesantes
enmiendas y propuestas de modificación, empezando por el propio concepto de IA que constituye su
objeto, sobre el que no existe consenso, como he referido (56) .
La definición incorporada en la propuesta inicial definía el concepto de «Sistema de inteligencia
artificial» (sistema de IA) en su artículo 3, como el software desarrollado con una o más de las
técnicas y enfoques enumerado en el Anexo I (57) y que puede, para un conjunto dado de objetivos
definidos por el ser humano, generar resultados como contenido, predicciones, recomendaciones o
decisiones que influyen en los entornos con los que interactúan. La nueva definición jurídica de dicho
concepto eliminaba el atributo de «autonomía» del mismo y difiere absolutamente de las definiciones
incorporadas en las precitadas resoluciones del Parlamento Europeo de 20 de octubre de 2020 y de la
posterior de 2021 (58) , que incorporan dicho atributo y lo asocian inexorablemente a la IA. Las
definiciones incorporadas en aquellas propuestas hacían referencia a sistemas basados en programas
informáticos o incorporados en dispositivos físicos que manifiestan un comportamiento inteligente al
ser capaces, entre otras cosas, de recopilar y tratar datos, analizar e interpretar su entorno y pasar a
la acción, con cierto grado de autonomía, con el fin de alcanzar objetivos específicos. La cuestión es
que parece que el Parlamento Europeo partía de un IA más avanzada al definir correlativamente
«autonomía», como el atributo propio de un sistema de IA que funciona interpretando determinados
datos de entrada y utilizando un conjunto de instrucciones predeterminadas, sin limitarse a ellas, a
pesar de que el comportamiento del sistema esté orientado a cumplir el objetivo que se le haya
asignado y esté limitado por este y por otras decisiones de diseño pertinentes tomadas por su
desarrollador. Es decir, una IA no limitada a las instrucciones predeterminadas.
En cualquier caso, dentro de las enmiendas presentadas durante su tramitación, se abogó de inicio
por modificar la definición de IA incorporada en la AI Act, proponiendo la incorporación de la
definición propuesta por la OCDE (59) . La versión final de la propuesta presentada el pasado 8 de
noviembre de 2022 para su remisión al Comité de representantes permanentes del Consejo, incorpora
importantes cambios respecto de las tres versiones anteriores, entre otras, del propio concepto de IA,
que recupera e incorpora el atributo de «autonomía», concibiendo un sistema de IA como un sistema
diseñado para operar con un cierto nivel de autonomía y que, basándose en datos e insumos
proporcionados por la máquina y/o el ser humano, infiere cómo lograr un conjunto determinado de
objetivos definidos por el ser humano objetivos definidos por el ser humano utilizando enfoques
basados en el aprendizaje automático y/o en la lógica y el conocimiento, y produce resultados
generados por el sistema, como contenidos (sistemas de IA generativa), predicciones,
recomendaciones o decisiones, que influyen en los entornos con los que el sistema de IA interactúa.
Con posterioridad, la Comisión publicó el 15.09.2022 su Propuesta de Reglamento del Parlamento
Europeo y del Consejo sobre los requisitos de ciberseguridad para los productos con componentes
digitales, —Cyber Resilience Act— (60) , Junto a la seguridad regulada en la AI Act y en esta nueva
propuesta, también se están revisando las normas generales de seguridad de los productos (61) y
sectoriales sobre máquinas (62) y equipos de radio (63) .
Por último, la Comisión acaba de presentar la Propuesta de Directiva del Parlamento Europeo y del
Consejo, relativa a la adaptación de las normas de responsabilidad civil extracontractual a la
16 / 41
04/03/2023
17 / 41
04/03/2023
oportuna, si bien, como he anticipado, con un alcance y contenido alejados de los informes y
propuesta previa del Parlamento Europeo, con la pretendida intención, de nuevo, de mantener el
precitado y difícil equilibrio entre seguridad, confianza, despliegue, uso, accesibilidad, inversión,
innovación, desarrollo, competitividad y demás intereses de las distintas partes implicadas analizados
durante su evaluación de impacto, en la que se escucharon y atendieron las principales peticiones de
la industria en esta materia, conforme recoge la Exposición de Motivos de las mismas, con la
consiguiente afectación y menor protección de los perjudicados por daños derivados de la IA, al optar
por la opción menos intervencionista desde el punto de vista legal, pero, a su vez, menos
proteccionista de sus intereses y derechos.
Las medidas suponen una mejora de la situación actual del perjudicado pero supone una intervención
prudente y «de mínimos» ante el posicionamiento de la industria —firmemente contraria a la
objetivización de la responsabilidad, los seguros obligatorios o la inversión de la carga de la prueba
—, pero, a mi juicio insuficiente para garantizar la eficacia de los regímenes de responsabilidad que
pretende adecuar ante los distintos supuestos que plantea la IA presente y futura, así como para
garantizar el resarcimiento efectivo de los perjudicados, especialmente ante la evolución y desarrollo
incesante de la IA y el previsible crecimiento de conflictos en paralelo al crecimiento exponencial de
su despliegue, aplicación, uso y su complejidad.
La Comisión descartó medidas de mayor impacto como la determinación de una responsabilidad
objetiva o la inversión de la carga de la prueba en la Propuesta de Directiva sobre la responsabilidad
en materia de IA), optando por otras más moderadas como la facilitación de la prueba y el
establecimiento de presunciones iuris tantum en el marco de un procedimiento judicial (67) , lo que
en la práctica no evita al perjudicado tener acudir a la vía judicial para defender sus derechos e
intereses, con los costes e incertidumbres asociadas a todo ello, aunque se prevea una reducción de
litigios ante las medidas ya establecidas.
Del mismo modo, la Comisión también descartó medidas de mayor impacto y, en especial, en los
derechos fundamentales, al evaluar el impacto de la coetánea Propuesta de Directiva del Parlamento
Europeo y del Consejo, sobre responsabilidad por los daños causados por productos defectuosos. En
particular, descartó la inversión de la carga de la prueba en base a lo que considera «un reparto
equitativo del riesgo» (68) , apostando por limitarse a facilitar la misma mediante distintas
presunciones contempladas en su artículo 9 en relación con el carácter defectuoso de producto o de
la relación causal entre el defecto y el daño en determinados contextos, eso sí, eliminando el umbral
de daños materiales y extendiendo el período de responsabilidad. Asimismo, aborda aspectos que
precisaban su revisión, como la inclusión expresa como producto de los programas informáticos, de
los sistemas de IA y de los productos basados en IA, la pérdida o corrupción de datos como daños, la
responsabilidad de los proveedores de software o el régimen de responsabilidad solidaria del
fabricante de un componente y del fabricante del producto en el que aquél se integre. Pero finalmente
desecha la inversión de la carga de la prueba, optando por el establecimiento de algunas
presunciones sujetas a determinadas condiciones. La Directiva propuesta prevé igualmente distintas
causas de exención de responsabilidad en su artículo 10, de su reducción en los supuestos
contemplados en su artículo 12, así como de exclusión o limitación en su artículo 13. Al igual que la
Directiva propuesta coetánea, ya prevé su futura revisión de su aplicación y posible modificación
consecuente en caso de que se considere necesaria.
En este sentido y en relación con el objeto de este trabajo, merece significarse que la Comisión
también valoró en su evaluación de impacto previa pero descartó, la opción de adicionar la inclusión
de cualquier software con implicaciones para los derechos fundamentales, de modo que fueran
indemnizables los daños derivados de la vulneración de los derechos fundamentales en el marco de
la Directiva propuesta, como la violación de la protección de datos, la vulneración de la intimidad o
la discriminación.
18 / 41
04/03/2023
19 / 41
04/03/2023
de julio, integral para la julio, integral para la igualdad de trato y la no discriminación (71)
igualdad de trato y la no incluye por primera vez en la legislación española, conforme significa
discriminación incluye
Fernández Hernández (72) , un precepto específico dedicado a la IA
por primera vez en la
legislación española, un
(73) y los mecanismos para la toma de decisiones automatizadas, y lo
precepto específico hace con el mandato a las Administraciones públicas para que
dedicado a la IA y los establezcan mecanismos para que los algoritmos que utilicen,
mecanismos para la toma involucrados en la toma de decisiones, tengan en cuenta la no
d e d e c i s i o n e s discriminación (minimización de sesgos), la transparencia y la
automatizadas, «siempre rendición de cuentas (74) , eso sí, según recoge la norma, «siempre
q u e s e a f a c t i b l e
que sea factible técnicamente». Este matiz podría colisionar
técnicamente»
frontalmente con la doctrina precitada del TJUE respecto de que una
tecnología no puede prevalecer sobre un derecho fundamental. Y,
además, exige estos aspectos en el diseño y en los datos de entrenamiento. Del mismo modo, el
precepto citado exige que las Administraciones públicas y las empresas promuevan el uso de una IA
ética, confiable y respetuosa con los derechos fundamentales, «siguiendo especialmente las
recomendaciones de la UE». Por último, recoge la futura creación de un sello de calidad de los
algoritmos que no regula.
Otros países han iniciado igualmente el camino hacia su regulación bajo distintos enfoques, objeto,
alcance y técnicas. La actividad legislativa en EE.UU. ha sido muy prolífica (75) , especialmente en
2022, en la medida que durante este año se ha presentado proyectos de ley o disposiciones generales
sobre IA en al menos 17 estados en 2022. A nivel global, destacar la Algorithmic Accountability Act de
2022 (76) , los proyectos de ley Algorithmic Justice and Online Platform Transparency Act (77) (2021-
22), la National AI Initiative Act (78) (2020) o la Artificial Intelligence Capabilities and Transparency
Act (79) (AICT) de 2021. También destacar algunas iniciativas locales como la Stop Discrimination by
Algorithms Act de 2021 (80) en Washington, DC.
China publicó su Internet Information Service Algorithmic Recommendation Management Provisions
(81) (Reglamento sobre algoritmos de recomendación en Internet), exigible desde el pasado 1 de
marzo de 2022. A nivel local, el 6 de septiembre de 2022, el gobierno de Shenzhen aprobó la primera
regulación local de China dedicada a impulsar el desarrollo de la IA bajo el título Shenzhen AI
Regulation aims to promote the AI industry (Regulación sobre la promoción de la industria de
inteligencia artificial en la Zona Económica Especial de Shenzhen —la Regulación de IA de Shenzhen
—) (82) , en vigor desde el 1 de noviembre. Y a nivel provincial, el 22 de septiembre de 2022,
Shanghái aprobó la primera norma a nivel provincial de China para promover el desarrollo de la IA,
en concreto las Shanghai Regulations on Promoting the Development of the AI Industry(Regulaciones
de Shanghái para promover el desarrollo de la industria de la IA), vigente a partir del 1 de octubre de
2022 (83) .
Otros países orientales han creado marcos reguladores específicos para determinados sectores, por
ejemplo, Hong Kong para la banca, y otros están construyendo ahora su regulación más general
como Japón, Singapur o Taiwán. Corea del Sur ya dispone desde hace una década de normas
relacionadas con la IA como su Intelligent Robots Development and Distribution Promotion Act d e
2008 y la Legal Regulation of Autonomous Systems in South Korea de 2012.
Por su parte, India está acelerando su proceso para iniciar su regulación sobre la base del documento
publicado bajo el título Responsible AI for All (84) de 2021. Y, Brasil también está tramitando en la
actualidad su regulación en materia de IA, iniciada con el Proyecto de Ley n.o 21/2020, de 30 de
septiembre de 2021 (85) , que pretende establecer el marco legal de la IA.
20 / 41
04/03/2023
jurídicas generales que regulen algunos aspectos relacionados con la misma como, por ejemplo, el
precitado artículo 22 del GDPR (86) relativo a la adopción de decisiones individuales automatizadas
(incluida la elaboración de perfiles), o marcos, guías y normas sectoriales que regulen determinados
aspectos de la IA.
A modo de ejemplo y en relación con la denominada «conducción autónoma», la Comisión Económica
de las Naciones Unidas para Europa (UNECE) publicó una normativa sobre ciberseguridad (87) al
objeto de definir un conjunto de requisitos que deben cumplir los fabricantes de vehículos, los
proveedores y los prestadores de servicios, y que abarca todo el ciclo de vida del vehículo (es decir,
desde su desarrollo hasta su retirada). Asimismo, aunque en el marco de guías y códigos de buenas
prácticas sectoriales (88) , el Centro de Análisis e Intercambio de Información de Automoción d e
EE.UU. (Auto-ISAC) mantiene desde 2016 una serie de buenas prácticas de ciberseguridad e n e l
sector de la automoción (89) , que proporcionan orientación sobre la aplicación de los principios de
ciberseguridad en el sector de la automoción. La Administración Nacional de Seguridad del Tráfico en
Carreteras (NHTSA) del gobierno de los EEUU publicó un código de buenas prácticas denominado
Cybersecurity Best Practices for Modern Vehicles en el que se introdujeron buenas prácticas de
ciberseguridad para los coches inteligentes. Sin perjuicio de estos principios y buenas prácticas en
EE.UU., algunos estados han venido desarrollando o actualizando durante estos últimos años la
normativa jurídica vigente para la prueba y circulación de vehículos autónomos, entre otros, Nevada
—que fue el primer Estado en permitir la circulación en 2011—, Florida, California o Louisiana. El
Florida Status de 2021 —S 316.85 (3) (a)— establece la posibilidad de que un vehículo autónomo
pueda operar en dicho estado, con independencia de si un operador humano está físicamente
presente en el vehículo o no.
21 / 41
04/03/2023
22 / 41
04/03/2023
23 / 41
04/03/2023
24 / 41
04/03/2023
25 / 41
04/03/2023
susceptibles de afectar a la integridad física o psíquica; e) Asegurar que las decisiones y procesos
basados en neurotecnologías no sean condicionadas por el suministro de datos, programas o
informaciones incompletos, no deseados, desconocidos o sesgados.
Asimismo, la carta incorpora una declaración específica relativa a la mejora del ser humano mediante
estas tecnologías, estableciendo que la ley podrá regular aquellos supuestos y condiciones de empleo
de las neurotecnologías que, más allá de su aplicación terapéutica, pretendan el aumento cognitivo o
la estimulación o potenciación de las capacidades de las personas.
7. Conclusiones
Los derechos fundamentales no son absolutos y deben ser evolutivos, de modo que deben adaptarse
al contexto social, económico, político y digital en el que se halle el ser humano en cada momento,
especialmente ahora en el que la convergencia y fusión entre la dimensión física y digital es cada vez
mayor.
La evolución social, económica y política junto con la globalización, el desarrollo tecnológico y la
digitalización está motivando la irrupción de nuevos derechos, así como nuevas dimensiones y
subcategorías de los existentes, que deben ser igualmente protegidas y garantizadas por el Derecho.
La IA constituye un conjunto de tecnologías con un potencial disruptivo transversal en todos los
ámbitos y dimensiones del ser humano y en todos los sectores de su actividad y, consecuentemente,
también en sus derechos fundamentales y libertades públicas.
El desarrollo, despliegue y aplicación de la IA y de la tecnología relacionada con la misma es
incesante, al igual que el aumento de sus capacidades, características, recursos, disponibilidad de
datos, interacción con otras tecnologías o la conectividad. Las capacidades de los sistemas
inteligentes son cada vez mayores al igual que su posible autonomía, si bien, conforme a los marcos
éticos y jurídicos deseables, no debería permitirse la creación de sistemas inteligentes plenamente
autónomos, sino, en cualquier caso, de autonomía limitada o restringida, sujetos en todo momento
durante su ciclo de vida al control y supervisión humana, desde su diseño y concepción hasta su
retirada del mercado, apagado definitivo o destrucción, pasando por su desarrollo, entrenamiento,
despliegue, funcionamiento y uso.
Corresponde al ser humano definir la IA con la que desea o necesita compartir su futuro, así como
ordenar sus usos, capacidades y funcionamiento.
El respeto de los derechos fundamentales debe ser la base sobre la que se deben construir los
marcos reguladores de la IA. El legislador debe abordar adecuadamente el necesario equilibrio entre
regulación, seguridad, confianza, accesibilidad, uso, desarrollo, innovación y competitividad, de
modo que cualquier aspecto que pueda inclinar la balanza entre todos los intereses en juego deba
siempre dirimirse en favor de los derechos fundamentales para impedir cualquier afectación de los
mismos, y ello en base a los principios de precaución, prevención, preservación, garantía y
protección, sin perjuicio de las posibles limitaciones, razonables y proporcionadas, que puedan
proceder conforme a Derecho en base a los principios de licitud, idoneidad, necesidad y
proporcionalidad. Regular desde un enfoque de riesgos comporta que cualquier análisis y evaluación
de impacto en los derechos fundamentales de cualquier propuesta reguladora debe decantarse en
favor éstos. Los derechos fundamentales siempre deben prevalecer sobre cualquier tecnología o su
uso.
La seguridad de los sistemas inteligentes debe ser no sólo una exigencia ética, sino jurídica para los
mismos, como para cualquier producto o máquina que integre este tipo de sistemas, de modo que se
exija no sólo al conjunto o sistemas, sino a todos los elementos que lo integren. La AI Act en
tramitación en el ámbito de la UE contempla esta exigencia.
26 / 41
04/03/2023
Del mismo modo, el respeto de los derechos fundamentales integra los principales marcos éticos de
mayor consenso internacional en el ámbito de la IA y constituye una exigencia jurídica impuesta por
convenios internacionales, constituciones y leyes nacionales generales, que debe igualmente tener su
reflejo en las leyes especiales que regulen la IA, como expresamente establece la precitada AI Act.
Sin embargo, esta propuesta reguladora no regula la IA globalmente, sino la prohibición de
determinados sistemas inteligentes y aplicaciones por su riesgo inaceptable, y los requisitos y
obligaciones de los sistemas inteligentes considerados de alto riesgo para la misma, no regulando el
resto.
Los derechos humanos tienen una naturaleza evolutiva y deben admitir adiciones de nuevas
categorías y/o subcategorías para adecuarse a la realidad en cada momento, como los derechos
digitales, por lo que su categorización y protección, así como los marcos regulatorios que tienen
como objeto su garantía, deben adecuarse dinámicamente a la evolución tecnológica y la realidad
social, por lo que, a mi juicio, no veo inconveniente en la adecuación de los marcos legales vigentes
como en la creación de marcos específicos para garantizar la seguridad y la protección de los
derechos fundamentales, incluidas las nuevas categorías o subcategorías, frente a tecnologías
emergentes o de evolución incesante que puedan ponerlos en riesgo, y ello desde un enfoque
estratégico y de riesgos, desde la prudencia, la precaución y la prevención, con carácter global,
proactivo y reactivo, y sobre tendencias más que novedades, ante la asincronía en el ritmo de
evolución de la tecnología y del Derecho.
En mi opinión, la regulación de la IA no es una cuestión de oportunidad sino de necesidad y desde
los valores esenciales europeos y los derechos fundamentales, entre otras razones, para la
conversión de determinadas exigencias, todavía meramente éticas, en imperativas jurídicamente. Y lo
es también inclusive, para asegurar un futuro sostenible, ante el impacto medioambiental de la IA.
Del mismo modo, a mi juicio, dicha regulación debe ser global, estratégica, proactiva, evolutiva,
flexible y responsive, y considerar en su construcción la salvaguarda del difícil y precitado equilibrio
de todos los intereses en juego en constante tensión.
Y, por último, en mi opinión, su regulación debe construirse desde una visión estratégica y en base a
tendencias tecnológicas y no sobre novedades, así como utilizar distintas técnicas, combinando el
hard y el soft law de manera inteligente.
8. Bibliografía
Alarcón, G. (2014). «El soft law y el sistema de fuentes». Tratado sobre la Ley General Tributaria:
Homenaje a Álvaro Rodríguez. Vol. 1, Tomo I. Editorial Aranzadi Thomson Reuters.
Álvarez Olalla, P. (2019). «Responsabilidad Civil en la circulación de vehículos autónomos», en
Monterrosso Casado, E. (Dir.), Inteligencia artificial y riesgos cibernéticos. Responsabilidades y
aseguramiento. Tirant lo Blanch 2019.
Amat Llombart, P. (2020). «La protección de las personas físicas en relación al tratamiento de sus
datos personales. Condiciones para el ejercicio de sus derechos y en el marco de la normativa
comunitaria y española», en Bello Janeiro, D. (Coord.) Nuevas tecnologías y responsabilidad civil.
Editorial Reus.
Asimov, I. (1942). Runaround. Astounding Science Fiction, 1942. N.29 (1).
Atienza Navarro, M.ª. L. (2020). «Una aproximación a la Propuesta de Reglamento del Parlamento
Europeo y del Consejo relativo a la responsabilidad civil por el funcionamiento de los sistemas de
inteligencia artificial de 27 de abril de 2020». Revista Aranzadi de derecho y nuevas tecnologías. ISSN
1696-0351, N.o. 54.
Ausín, T., Morte, R. et Monasterio Astobiza, A. (2020) «Neuroderechos: Derechos humanos para las
27 / 41
04/03/2023
28 / 41
04/03/2023
29 / 41
04/03/2023
30 / 41
04/03/2023
Mozo Seoane, A. (2018). «Robots e inteligencia artificial: Control de sus riesgos». Revista General de
Legislación y Jurisprudencia, n.o 2. Editorial Reus. Madrid.
Muñoz Villarreal, A. y Gallego Corchero, V. (2019). «Inteligencia artificial e irrupción de una nueva
personalidad en nuestro ordenamiento jurídico ante la imputación de responsabilidad a los robots».
En Monterrosso Casado, E. (Dir.). Inteligencia artificial y riesgos cibernéticos. Responsabilidades y
aseguramiento. Tirant lo Blanch.
Muñoz Vela, J.M. (2019). «Los retos del Derecho en una Sociedad Digital», en Giménez, I. (Coord.).
Retos de la sociedad digital y medios de pago. Colección Tratados y Manuales de Economía. Editorial
Civitas — Thomson Reuters Aranzadi. Navarra.
Muñoz Vela, J.M. (2021). Cuestiones éticas de la Inteligencia Artificial y repercusiones jurídicas. De lo
dispositivo a lo imperativo. Ed. Aranzadi Thomson Reuters. Navarra.
Muñoz Vela, J.M. (2021). Derecho de la Inteligencia Artificial. Un enfoque global de responsabilidad
desde la ética, la seguridad y las nuevas propuestas reguladoras europeas. Tesis Doctoral. Universidad
de Valencia. octubre 2021.
Muñoz Vela, J.M. (2022). «Inteligencia artificial y responsabilidad penal». Derecho Digital e
Innovación. Núm. 11. Enero-Marzo 2022. ISSN 2659-871X, Ed. Wolters Kluwer.
Muñoz Vela, J.M. (2022). Retos, riesgos, responsabilidad y regulación de la inteligencia artificial. Un
enfoque de seguridad física, lógica, moral y jurídica. Editorial Aranzadi (Thomson Reuters). Navarra
Navas Navarro, S. (2017). «Derecho e inteligencia artificial desde el diseño. Aproximaciones», en
Navas Navarro, S. (Dir.). Inteligencia artificial, tecnología, derecho. Editorial Tirant lo Blanch.
Valencia.
Navas Navarro, S. (2016). «Smart Robots y otras máquinas inteligentes en nuestra vida cotidiana».
Revista CESCO Digital. N.o 20.
Núñez Zorrilla, M.C. (2018). «Los nuevos retos de la Unión Europea en la regulación de la
responsabilidad civil por los daños causados por la inteligencia artificial». Revista Española de
Derecho Europeo, n.o 66 (Abril-junio 2018). Editorial Civitas (Thomson Reuters). Navarra.
Núñez Zorrilla, M.C. (2019). Inteligencia artificial y responsabilidad civil. Reus Editorial, Madrid.
Orozco González, M. (2021) «Reflexiones acerca de la relación entre inteligencia artificial y robótica»,
en Ataz López, J. y Cobacho Gómez, J.A. (Coords). Cuestiones clásicas y actuales del Derecho de
daños. Estudio en Homenaje al Profesor Dr. Roca Guillamón. Tomo III. Ed. Aranzadi-Thomson
Reuters.
Ortiz Fernández, M. (2020). «Reflexiones acerca de la responsabilidad civil derivada del uso de la
inteligencia artificial: los «principios» de la Unión Europea». Revista de Direito da ULP. Vol. 14. N.o.
1.
Panezi, A. (2021). «IA: un enfoque ecosistémico para gestionar el riesgo y la incertidumbre», en
García Mexia, P. y Pérez Bes, F. (Eds); Panezi. A. (Coord). (2021). Artificial Intelligence and the Law.
Ed. La Ley (Wolters Kluwer). 2021. Edición electrónica (SMARTECA).
Peguera, M. (2020). «En búsqueda de un marco normativo para la inteligencia artificial» en Cerrillo i
Martínez, A. y Pequera Poch, M. (Coord). Retos jurídicos de la inteligencia artificial. Aranzadi S.A.U.
(Thomson Reuters). Navarra.
Plaza Penadés, J. (2018). «Primeras reflexiones desde el Derecho sobre la inteligencia artificial».
Revista Aranzadi de Derecho y Nuevas Tecnologías. N. 47, Editorial. Thomson Reuters (Legal)
Limited.
31 / 41
04/03/2023
Yuste, R. et al. (2017). «Four ethical priorities for neurotechnologies and AI». Nature. Vol. 551. N.o
7679.
Zurita Martín, I. (2021). «Gestión de riesgos y responsabilidad civil de los robots», en Ataz López, J.
y Cobacho Gómez, J.A. (Coords). Cuestiones clásicas y actuales del Derecho de daños. Estudio en
Homenaje al Profesor Dr. Roca Guillamón. Tomo III. Ed. Aranzadi-Thomson Reuters. 2021.
(1) Hawking, S. (2016). Discurso a cargo del astrofísico inglés durante la inauguración del Centro Leverhulme para el futuro de la
inteligencia —CFI por sus siglas en inglés—, en la Universidad de Cambridge, el 20.10.2016. Recuperado de:
https://www.rtve.es/noticias/20161020/stephen-hawking-inteligencia-artificial-sera-mejor-peor-pase-
humanidad/1428740.shtml. Consultado el 22.01.2022.
(2) Libro blanco sobre la inteligencia artificial — Un enfoque europeo orientado a la excelencia y la confianza. 19.02.2020. COM
(2020) 65 final.
(3) Muñoz Vela, J.M. (2022). Retos, riesgos, responsabilidad y regulación de la inteligencia artificial. Un enfoque de seguridad
física, lógica, moral y jurídica. Editorial Aranzadi (Thomson Reuters). Navarra. Pp. 49-101.
(4) Asimov, I. (1942). Runaround. Astounding Science Fiction, 1942. N.29 (1). Pp. 94-103. La primera ley de Asimov establecía
que un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño. La segunda, que un
robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera
ley. Y, la tercera, que un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con
la primera o con la segunda ley.
32 / 41
04/03/2023
(5) McCarthy, J.; Minsky, M.; Rochester, N.; Shannon, C. (1955). A Proposal for the Dartmouth Summer Research Project on
Artificial Intelligence. 31.08.1955. Recuperado de: http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html.
Consultado el 14.11.2022. Durante la misma, John McCarthy, coorganizador, destacado profesor e investigador a nivel mundial
en materia de IA, fundador del Laboratorio de inteligencia artificial del MIT junto con Marvin Minsky, y al que se atribuye también
el concepto de cloud computing, acuñó por primera vez el término IA.
(6) Wagner, B. (2018). Ethics as an Escape from Regulation: From ethics-washing to ethics-shopping? In M.Hildebrandt (Ed.),
Being Profiling. Cogitas ergo sum. Amsterdam University Press. 2018. Conforme he referido, son múltiples las iniciativas
privadas que han creado sus principios éticos en el marco de su autorregulación, si bien, en ocasiones, surgen dudas de algunas
iniciativas y su intención cuando, de un lado se anuncia por una empresa su compromiso con la privacidad y la no
discriminación, pero de otro, en su práctica y funcionamiento se vulneran estos principios. Benjamins, R. (2020). «Los líderes
mundiales de la IA ética». Thing Big / Empresas. 08.01.2020. Disponible en: https://empresas.blogthinkbig.com/los-lideres-
mundiales-de-la-inteligencia-artificial-etica/. Consultado el 04.11.2022.
(7) Leenders, G. (2019). «The Regulation of Artificial Intelligence — A Case Study of the Partnership on AI». Medium. Publicado el
13.04.2019. Recuperado de: https://becominghuman.ai/the-regulation-of-artificial-intelligence-a-case-study-of-the-
partnership-on-ai-c1c22526c19f. Consultado el 14.01.2021.
(8) García Mexía, P. (Dir.). (2022). Claves de inteligencia artificial y derecho. Wolters Kluwer Legal & Regulatory España, S.A.
2022. P. 87.
(9) Barrio Andrés, M. (2022). Manual de Derecho Digital. 2ª Edición. Tirant Lo Blanch. 2022. P.68.
(10) Muñoz Vela, J.M. (2021). Cuestiones éticas de la Inteligencia Artificial y repercusiones jurídicas. De lo dispositivo a lo
imperativo. Editorial Aranzadi (Thomson Reuters). Navarra.
(11) Asilomar AI Principles. Future of Life Institute. 2017. Recuperado de: https://futureoflife.org/person/asilomar-ai-principles/.
Consultado el 06.11.2022
(12) Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas
de Derecho civil sobre robótica (2015/2103(INL)).
(13) Una gran parte de estos valores han sido reflejados en los documentos de trabajo y propuestas reguladoras posteriores, si
bien, otros no han sido considerados o lo han sido, pero parcialmente, como la previsibilidad, por ejemplo, en las sendas
definiciones que acompañaron a las propuestas de Reglamento incorporadas por el Parlamento Europeo en sus Resoluciones
de 20 de octubre de 2020 a las que aludiré con posterioridad, centradas en la autonomía del sistema y su posible actuación al
margen de las instrucciones dadas al mismo en su concepción.
(15) European Commission, Directorate-General for Communications Networks, Content and Technology, Directrices éticas para
una IA fiable, Publications Office, 2019. Recuperado de: https://data.europa.eu/doi/10.2759/14078. Consultado el
28.10.2022.
33 / 41
04/03/2023
(18) Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un
marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (2020/2012(INL)).
(19) Muñoz Vela, J.M. (2021). Cuestiones éticas de la Inteligencia Artificial y repercusiones jurídicas. De lo dispositivo a lo
imperativo. Op. Cit. Pp. 65-98.
(20) Propuesta de Reglamento del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas en materia de
inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión, de 21 de abril de
2021. COM (2021) 206 final.
(21) Otros ejemplos, los Principles on Explainable AI del NIST (Septiembre 2021) o Explaining Decisions Made with AI de la ICO &
Alan Turing Institute, la AI Governance Principles.
(22) R e c o m e n d a c i ó n s o b r e I n t e l i g e n c i a A r t i f i c i a l. O C D E . 2 2 . 0 5 . 2 0 1 9 . D i s p o n i b l e e n :
https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449. Consultada el 05.11.2022.
(24) Artificial Intelligence Governance Principles: Towards Ethical and Trustworthy Artificial Intelligence in the European Insurance
Sector. European Insurance and Occupational Pensions Authority —EIOPA-. 2021.
(25) Ethics and governance of artificial intelligence for health: WHO guidance. Geneva: World Health Organization. 2021. Licence:
CC BY-NC-SA 3.0 IGO.
(26) Otro ejemplo sería Japón, con la publicación el 9 de julio de 2021 de sus directrices sobre gobernanza para la aplicación de los
principios de la IA bajo el título Japanese Governance Guidelines for Implementation of AI Principles.
(28) Artificial Intelligence: An Accountability new Framework for Federal Agencies and Other Entities. U.S. Government
Accountability Office. 30.06.2021. Recuperado de: https://www.gao.gov/products/gao-21-519sp. Consultado el 30.10.2022.
(30) B l u e p r i n t f o r a n A I B i l l o f R i g h t s. O f f i c e o f S c i e n c e a n d T e c h n o l o g y P o l i c y . 2 0 2 2 . R e c u p e r a d o d e :
https://www.whitehouse.gov/ostp/ai-bill-of-rights/. Consultado el 10.11.2022.
(32) Fjeld, J., Nele A., Hannah Hilligoss, A. & Madhulika S. (2020).Principled Artificial Intelligence: Mapping Consensus in Ethical and
Rights-based Approaches to Principles for AI. Berkman Klein Center for Internet & Society, 2020.
(33) Jobin, A., Ienca, M. & Vayena, E. (2019). «The global landscape of AI ethics guidelines». Nat Mach Intell (Nature) 1. Pp. 389-
399 (2019). https://doi.org/10.1038/s42256-019-0088-2
34 / 41
04/03/2023
(36) Declaración Europea sobre los Derechos y Principios Digitales para la Década Digital. COM(2022) 28 final
(38) Barrio Andrés, M. (2022). Manual de Derecho Digital. 2ª Edición. Tirant Lo Blanch. Valencia 2022. P. 232.
(39) Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y
al Comité de las Regiones. Inteligencia artificial para Europa. 25.04.2018. COM/2018/237 final.
(40) Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y
al Comité de las Regiones. Plan coordinado sobre la inteligencia artificial. 07.12.2018. COM (2018) 795 final.
(41) R e c u p e r a d o d e : R e c u p e r a d o d e :
https://www.ciencia.gob.es/stfls/MICINN/Ciencia/Ficheros/Estrategia_Inteligencia_Artificial_IDI.pdf. Consultado el 30.10.2022.
(42) Estrategia Nacional de inteligencia artificial. Gobierno de España. Versión 1.0. Disponible en:
https://www.lamoncloa.gob.es/presidente/actividades/Documents/2020/ENIA2B.pdf Consultado el 30.10.2022.
(43) Jorge Ricart, R., Van Roy, V., Rossetti, F., Tangi, L. (2022) AI Watch —National strategies on Artificial Intelligence: A European
perspective. 2022 Edition, EUR 31083 EN, Publications Office of the European Union, Luxembourg, 2022, ISBN 978-92-76-
52910- 1, DOI:10.2760/385851, JRC129123
(44) Los derechos fundamentales siempre deben prevalecer sobre cualquier tecnología, doctrina que recogió el Tribunal de Justicia
de la Unión Europea en su Sentencia de 13 de mayo de 2014, en el Asunto C-131/12 —Coteja vs Google-.
(46) El Libro blanco significó la necesidad de apostar por un ecosistema de excelencia para cuya consecución, conforme a su plan de
actuaciones y entre otras, consideró que la UE debía liderar mundialmente el uso ético de la IA —para lo que ha llevado a cabo
un continuo esfuerzo e intensa actividad, especialmente plasmada en distintas iniciativas, propuestas y en su cooperación
internacional con otros organismos supranacionales-, basado en el respeto de los derechos fundamentales, la dignidad, el
pluralismo, la inclusión, la ausencia de discriminación o sesgo y la protección de la privacidad y de los datos personales,
considerando en que estos valores deben ser exportados al resto del mundo.
(47) El Comité alemán sobre ética en materia de datos propuso un sistema de regulación de cinco niveles sustentado en un enfoque
basado en el riesgo, que contempla desde la ausencia absoluta de regulación en el caso de los sistemas inteligentes más
inocuos hasta la prohibición absoluta en el caso de los más peligrosos. Otros países como Dinamarca han creado un sello de
ética y Malta ha creado un sistema voluntario de certificación. Libro blanco sobre la inteligencia artificial. Comisión Europea.
19.02.2020. COM (2020) 65 final. P. 12.
(48) Muñoz Vela, J.M. (2021). Cuestiones éticas de la Inteligencia Artificial y repercusiones jurídicas. De lo dispositivo a lo
imperativo. Op. Cit. P. 63.
(49) Las primeras propuestas regulatorias emanadas del Parlamento Europeo en materia de ética y responsabilidad civil de la IA que
se acompañaron a sus Resoluciones de 20 de octubre de 2020, destacaban la posibilidad de que la UE pudiera concurrir en la
carrera por liderar la IA a nivel internacional pero sustentada en los valores europeos y en la protección de los derechos
35 / 41
04/03/2023
fundamentales, si bien, las últimas resoluciones, a la que igualmente me referiré, evidencian una postura más moderada y
realista acorde a la situación actual. La Resolución del Parlamento Europeo, de 3 de mayo de 2022, sobre la IA en la era digital
(2020/2266 (INI), recoge la situación del mercado a nivel internacional con datos concretos muy significativos. Entre otros,
destaca que la gran mayoría de las 100 empresas líderes en IA a nivel mundial tienen su sede en EE.UU., mientras que solo
algunas tienen su sede en la UE. Los EE.UU. lideran el número total de empresas de IA de reciente creación. Solo el 7 % de las
empresas de la UE con al menos 10 empleados utilizaban tecnologías de IA en 2020, con diferencias significativas entre los
Estados miembros y entre los distintos sectores empresariales. Por último, refleja otro aspecto que considero clave para
comprender el contexto actual y venidero: La inversión pública anual estimada de la UE en IA en 2018 era de 1.000 millones de
euros, muy inferior a los 5.100 millones de euros que se invierten anualmente en EE.UU. y los 6.800 millones de euros en
China.
(50) Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un
régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL))
(51) Muñoz Vela, J. M. (2021). Derecho de la Inteligencia Artificial. Un enfoque global de responsabilidad desde la ética, la
seguridad y las nuevas propuestas reguladoras europeas. Tesis doctoral. Universidad de Valencia. 2021. Pp. 780-847.
(52) Significar que el Parlamento Europeo ya había abordado previamente las cuestiones relativas a la responsabilidad por daños
derivados del uso y funcionamiento de la IA, en su Resolución de 16 de febrero de 2017, con recomendaciones destinadas a la
Comisión sobre normas de Derecho civil sobre robótica [2015/2103(INL) — OJ L C252 18.7.2018. Pp. 239-257]. Entre otros
aspectos relevantes y propuestas, el Parlamento Europeo distinguía en su Resolución dos posibles regímenes de
responsabilidad distintos. De un lado, un sistema de responsabilidad objetiva, que únicamente exigiría probar que se ha
producido un daño o perjuicio y el establecimiento de un nexo causal entre el funcionamiento perjudicial del sistema inteligente
y los daños y perjuicios causados a la persona afectada. Y de otro, un sistema de responsabilidad sustentada en el riesgo que
se focalizaría en la persona que tiene el control del riesgo potencial y es capaz, en determinadas circunstancias, de minimizarlo
y gestionar el impacto negativo. Asimismo, el Parlamento Europeo propuso una solución híbrida compuesta por instrumentos
legislativos y no legislativos, esto es, de hard y soft law, sin que se pudiera limitar el tipo y alcance de daños y perjuicios objeto
de compensación, ni limitar la naturaleza de la compensación, que la Directiva 85/374/CEE si permitía a los Estados, en
particular, limitar la responsabilidad por daños personales. Además, el Parlamento propuso en esta Resolución como
complemento del seguro obligatorio, la constitución de un fondo de compensación que garantice la reparación de los daños o
perjuicios causados por un robot o sistema dotado de IA avanzada ante la ausencia de un seguro o no cobertura por éste, del
que además podría beneficiarse el fabricante, programador, operador, propietario o usuario, ante la posibilidad de ver limitada su
responsabilidad si contribuyen al mismo. Badillo Arias, J.A. (2019). «Responsabilidad civil y aseguramiento obligatorio de los
robots». En Monterrosso Casado, E. (Dir.). Inteligencia artificial y riesgos cibernéticos. Responsabilidades y aseguramiento.
Tirant lo Blanch 2019. Pp. 49 y 59.
(53) El régimen de responsabilidad objetiva se inspira en la Directiva 2009/103/CE del Parlamento Europeo y del Consejo, relativa al
seguro de responsabilidad civil de los automóviles, en especial para el establecimiento de un seguro obligatorio de
responsabilidad civil y sus límites indemnizatorios. Directiva 2009/103/CE del Parlamento Europeo y del Consejo, de 16 de
septiembre de 2009, relativa al seguro de la responsabilidad civil que resulta de la circulación de vehículos automóviles, así
como al control de la obligación de asegurar esta responsabilidad (Texto pertinente a efectos del EEE). OJ L 263, 7.10.2009. P.
11-31.
(54) Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las
personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se
deroga la Directiva 95/46/CE (Reglamento General de Protección de Datos). DOUE L 119/1 04.05.2016.
(55) Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo, de 8 de junio de 2016, relativa a la protección de los
conocimientos técnicos y la información empresarial no divulgados (secretos comerciales) contra su obtención, utilización y
revelación ilícitas. OJ L 157, 15.6.2016. Pp. 1-18.
(56) A modo de ejemplo, significar algunas de las definiciones más sencillas y dispares de IA de las que podemos partir: Desde la
inteligencia llevada a cabo por máquinas o inteligencia propia de una máquina, la inteligencia emulada por máquinas, los
sistemas que procesan datos y generan decisiones en base a los datos analizados hasta llegar a definirla como lo que
«simplemente lo que aún no se ha logrado».
36 / 41
04/03/2023
(57) Las técnicas y estrategias a las que hace referencia el Anexo I son: Estrategias de aprendizaje automático (ML), incluidos el
aprendizaje supervisado, el no supervisado y el realizado por refuerzo, que emplean una amplia variedad de métodos, entre
ellos el aprendizaje profundo (DL). Estrategias basadas en la lógica y el conocimiento, especialmente la representación del
conocimiento, la programación (lógica) inductiva, las bases de conocimiento, los motores de inferencia y deducción, los
sistemas expertos y de razonamiento (simbólico). Estrategias estadísticas, estimación bayesiana, métodos de búsqueda y
optimización.
(58) Resolución del Parlamento Europeo, de 20 de enero de 2021, sobre inteligencia artificial: Cuestiones de interpretación y de
aplicación del Derecho internacional en la medida en que la UE se ve afectada en los ámbitos de los usos civil y militar, así como
de la autoridad del Estado fuera del ámbito de la justicia penal (2020/2013(INI)).
(59) El reciente documento elaborado por el Joint Research Centre (JRC) de la Comisión Europea bajo el título Glosario de términos
sobre inteligencia artificial centrada en el ser humano, relaciona y define los conceptos básicos relacionados con la IA, en
especial, el concepto de inteligencia artificial, el cual es necesario delimitar para construir su regulación. El glosario elaborado
incluyendo 6 definiciones de IA emanadas de distintas entidades. La primera, la elaborada por la OCDE, que la define de este
modo: Un sistema de IA es un sistema basado en máquinas que es capaz de influir en el entorno produciendo un resultado
(predicciones, recomendaciones o decisiones) para un conjunto determinado de objetivos. Utiliza datos y entradas basados en
máquinas y/o humanos para (i) percibir entornos reales y/o virtuales; (ii) abstraer estas percepciones en modelos mediante el
análisis de forma automatizada (por ejemplo, con aprendizaje automático), o manual; y (iii) utilizar la inferencia del modelo
para formular opciones de resultados. Los sistemas de IA están diseñados para funcionar con distintos niveles de autonomía.
Estévez Alménzar, M., Fernández Llorca, D., Gomez Gutierrez, E. et Martinez Plumed, F., Glossary of human-centric artificial
intelligence, EUR 31113 EN, Publications Office of the European Union, Luxembourg, 2022, ISBN 978-92-76-53432-7,
doi:10.2760/860665, JRC129614.
(60) Propuesta de Reglamento del Parlamento Europeo y del Consejo sobre los requisitos de ciberseguridad para los productos con
componentes digitales, —Cyber Resilience Act—, de 15.09.2022. COM (2022) 454 final. El Reglamento propuesto establece en
su Considerando 29º que los productos con elementos digitales considerados sistemas IA de alto riesgo conforme al artículo 6
de la IA Act y que entren en el ámbito de aplicación de la Cyber Resilience Act propuesta, deberán cumplir los requisitos
esenciales establecidos en ésta y, además, se considerará que dichos sistemas cumplirán también los requisitos de
ciberseguridad establecidos en el artículo 15 actual de la AI Act en tramitación cuando estos sistemas cumplan dichos requisitos
propuestos por la Comisión, en la medida en que dichos requisitos estén contemplados en la declaración UE de conformidad
expedida conforme a la Cyber Resilience Act o en partes de ésta.
(61) Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la seguridad general de los productos.
COM(2021)346 final.
(62) Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a los productos de las máquinas. COM (2021) 202
final.
(63) Reglamento Delegado (UE) 2022/30 de la Comisión por el que se completa la Directiva 2014/53/UE del Parlamento Europeo y
del Consejo en lo que respecta a la aplicación de los requisitos esenciales contemplados en el artículo 3, apartado 3, letras d),
e) y f), de dicha Directiva. DO L 7 de 12.1.2022. P.6.
(64) Propuesta de Directiva del Parlamento Europeo y del Consejo, relativa a la adaptación de las normas de responsabilidad civil
extracontractual a la inteligencia artificial (Directiva sobre responsabilidad civil en materia de IA). 28.9.2022. COM (2022) 496
final.
(65) Propuesta de Directiva del Parlamento Europeo y del Consejo, sobre la responsabilidad por los daños causados por productos
defectuosos, de 28.09.2022. COM (2022) 495 final
(66) Liability for Artificial Intelligence and other emerging digital technologies. U E . 2 0 1 9 . R e c u p e r a d o d e :
https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/DV/2020/01-09/AI-report_EN.pdf.
37 / 41
04/03/2023
(67) La Directiva propuesta prevé la exhibición de pruebas y adopción de medidas de preservación y conservación de las mismas a
requerimiento judicial, y la presunción de incumplimiento de los deberes de diligencia del demandado en determinados
supuestos y condiciones en relación con los sistemas de alto riesgo conforme a la AI Act (Artículo 3). Del mismo modo prevé
una presunción iuris tantum de existencia de relación causal (artículo 4) sujeto a condiciones y no limitada a sistemas
inteligentes de alto riesgo.
(70) Presentado al Parlamento por el Secretario de Estado para Asuntos Digitales, Cultura, Medios de Comunicación y Deporte.
Recuperado de: https://www.gov.uk/government/publications/establishing-a-pro-innovation-approach-to-regulating-
ai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statement. Consultado el 20.20.2022.
(71) Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación. BOE 13.07.2022
(72) Fernández Hernández, C. (2022). «La Ley 15/2022 introduce la primera regulación positiva de la inteligencia artificial en
España». Diario La Ley, Sección Ciberderecho. Wolters Kluwer Legal & Regulatory España, S.A. 13.07.2022.
(74) Significar en relación con estos aspectos y su omisión en el sector público, la Sentencia del Tribunal de Distrito de la Haya de 5
de febrero de 2020 sobre un sistema de IA holandés llamado «Systeem Risico Indicatie» —SyRI—, utilizado por el gobierno de
los Países Bajos para detectar diversas formas de fraude a las Administraciones públicas. [Cotino, L. (2020). «SyRI, ¿a quién
sanciono? "Garantías frente al uso de inteligencia artificial y decisiones automatizadas en el sector público y la sentencia
holandesa de febrero de 2020"». La Ley Privacidad. Wolters Kluwer. N.o 4. mayo 2020].
(75) Illinois fue uno de los primeros estados en regular el uso de la inteligencia artificial, en particular, en los procesos de selección,
mediante un nuevo marco normativo vigente desde el 1 de enero de 2020, en cual se basa en el consentimiento del candidato
antes de usar la inteligencia artificial para evaluar los videos de las entrevistas de trabajo. Informe Riesgos de la inteligencia
artificial: ¿qué oculta 2020? Clifford Chance 2019.
38 / 41
04/03/2023
(84) Responsible AI for All. NITI Aayog. 2021. Disponible en: https://www.niti.gov.in/sites/default/files/2021-02/Responsible-AI-
22022021.pdf. Consultado el 30.10.2022.
(86) El artículo 22.1 del GDPR establece que «Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente
en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte
significativamente de modo similar».
(87) Regulation on uniform provisions concerning the approval of vehicles with regards to cyber security and cyber security
management system. United Nations — Economic Commission for Europe.
(88) En adición a los ejemplos expuestos, adicionar los siguientes: La agencia canadiense Transport Canada publicó en 2020 la guía
Canada’s Vehicle Cyber Security Guidance, que proporciona principios rectores para ayudar a garantizar la ciberseguridad de los
vehículos a lo largo de su ciclo de vida. Asimismo, los OEM —Original Equipment Manufacturer o Fabricante de Equipo Original—
europeos publicaron un conjunto de principios de ciberseguridad que ya son aplicados por las empresas OEM. Del mismo modo,
la Corporación Nacional de Desarrollo y Reforma (NDRC) de China actualizó en febrero de 2020 su Estrategia para el Desarrollo
de los Vehículos Inteligentes, que estableció un «sistema integral de ciberseguridad» [M. Schaub y A. Zhao. (2020). China
Releases Big Plan for Autonomous Vehicles. China Law Insight. 2020]. El Consejo de Estándares de Singapur publicó en 2019
una serie de directrices para el despliegue de los coches autónomos denominado Technical Reference 68 — Autonomous
vehicles. Singapore Standards Council, que contiene un apartado específico en el que se definen los principios de ciberseguridad
y un marco de evaluación. A nivel de la UE, también han sido numerosas las iniciativas hasta la fecha en esta materia. En 2014,
la Dirección General de Movilidad y Transportes (DG MOVE) de la Comisión Europea creó una plataforma de despliegue de
sistemas inteligentes de transporte cooperativos (C-ITS). En 2016, la Comisión Europea adoptó una Estrategia Europea sobre
Sistemas Inteligentes de Transporte Cooperativos y se puso en marcha la plataforma C- Roads. En 2017, la Dirección General
de Mercado Interior, Industria, Emprendimiento y Pequeñas y Medianas Empresas (DG GROW) de la Comisión Europea puso en
marcha una iniciativa sobre la normativa de seguridad con el objetivo de contribuir a una mayor disminución del número de
víctimas mortales y heridos en la carretera considerando las modificaciones del Reglamento General de Seguridad y del
Reglamento de Seguridad de los Peatones. En 2018, la Comisión Europea publicó la Estrategia de la UE para la movilidad del
futuro, estableciendo una acción específica para implementar un piloto sobre las infraestructuras y los procesos de
ciberseguridad comunes en toda la UE que son necesarios para una comunicación segura y fiable entre los vehículos y la
infraestructura para la seguridad vial y la gestión del tráfico. Desde 2018, la Comisión Europea está implementando el Sistema
de Gestión de Credenciales de Seguridad C-ITS de la UE (EU CCMS) basado en la Política de Seguridad C-ITS (SP) y la Política
de Certificación C-ITS (CP). En 2019, la Comisión Europea creó un grupo de expertos de la Comisión sobre movilidad
cooperativa, conectada, automatizada y autónoma, denominado «CCAM», para asesorar y apoyar a la Comisión en el ámbito
de las pruebas de despliegue. El mismo año, ENISA realizó, con la participación del Joint Research Centre de la Comisión
Europea —JRC por sus siglas en inglés—, un estudio sobre Buenas prácticas para la seguridad de los coches inteligentes
centrado en los coches semiautónomos y autónomos (Ya en 2016, ENISA había realizado un estudio sobre cuestiones de
seguridad de los coches inteligentes, que dio lugar a un documento titulado Cyber Security and Resilience of smart cars). En
2020, el CCI publicó un informe sobre el futuro del transporte por carretera y ENISA creó el Grupo de Expertos en Seguridad de
la Movilidad Conectada y Automatizada (CAMSec), para abordar las amenazas, los retos y las soluciones en materia de
ciberseguridad de los sistemas de transporte inteligentes (ITS) y del transporte CAM. Previamente, ENISA también había creado
39 / 41
04/03/2023
el grupo de trabajo Cars and Roads SECurity (CaRSEC), para abordar las amenazas a la ciberseguridad de los coches
inteligentes, los retos y las soluciones para proteger la seguridad de los usuarios de la carretera. En septiembre de 2020, la
Comisión Europea publicó un informe elaborado por un grupo independiente de expertos sobre la ética de los vehículos
conectados y automatizados. ENISA publicó posteriormente, en diciembre de 2020, el informe AI Cybersecurity Challenges, y
el 11.02.2021, ENISA y el Joint Research Centre de la Comisión Europea —JRC— publicaron el informe Cybersecurity
challenges in the uptake of artificial intelligence in autonomous driving. En la actualidad, las principales marcas con mayor
inversión en coches autónomos y en plataformas aseguran estar preparándose para el denominado «Transporte como
Servicio» —Transportation as a Service o TaaS por sus siglas en inglés—. Dentro de la UE, Francia fue uno de los primeros
países europeos en aprobar una norma que permite a los vehículos autónomos hacer pruebas por sus calles. Londres ya ha
realizado pruebas autorizadas de vehículos autónomos en zonas de conducción abierta. Algunas poblaciones de Suiza tienen
ya autobuses que hacen circuitos sin conductor. Reino Unido publicó su Automatic and Electric Vehicles Act 2018, aprobada el
19 de julio de 2018, la cual no es muy distinta a la que tenemos en España para vehículos convencionales, si bien, se regulan
aspectos muy interesantes en el ámbito de la responsabilidad.
(90) La adhesión a mecanismos de armonización podría conllevar la presunción de conformidad con la AI Act, conforme prevén los
artículos 40 y 41 del texto propuesto.
(91) ISO 10218-1:2011, Robots and robotic devices Safety requirements for industrial robots; ISO 13855, Safety of machinery —
Positioning of safeguards with respect to the approach speeds of parts of the human body; ISO/TS 15066:2016 (en) Robots
and robotic devices— Collaborative robots; otras.
(92) El comité técnico conjunto ISO/IEC JTC 1, Tecnologías de la Información de ISO y la Comisión Electrotécnica Internacional (IEC)
fundaron en 2018 el Subcomité SC 42 sobre inteligencia artificial, constituyendo el primer ecosistema de la IA para la creación
de estándares y normalización. El denominado Subcomité ISO/IEC JTC 1/SC 42, dedicado a la IA, ha publicado varias normas
relacionadas con el Big data y con múltiples proyectos en la actualidad. Su objetivo es desarrollar e implementar un programa
de normalización de la IA para guiar a otros comités de ISO en el desarrollo de aplicaciones de la misma. ISOfocus noviembre-
diciembre 2019. P. 2. Recuperado de: https://www.iso.org/files/live/sites/isoorg/files/news/magazine/ISOfocus%20(2013-
NOW)/sp/ISOfocus_137_sp.pdf. Consultado el 05.10.2022.
(93) PAS 1885:2018 The fundamental principles of automotive cyber security. Specification. BS. 2018; BSI, «PAS 11281:2018
Connected automotive ecosystems. Impact of security on safety. Code of practice».
(94) ETSI TS 102 940 —V1.3.1— Intelligent Tranport Systems (ITS); Security; ITS communications security architecture and
security management. ETSI. 2018; «TS 102 941 —V1.2.1— Intelligent Transport Systems (ITS); Security; Trust and Privacy
Management». ETSI. 2018; «TS 102 942 —V1.1.1— Intelligent Transport Systems (ITS); Security; Access Control». ETSI.
2012; «TS 102 943 —V1.1.1— Intelligent Transport Systems (ITS); Security; Confidentiality services». ETSI. 2012.
(95) SAE J3061: Cybersecurity Guidebook for Cyber-Physical Vehicle Systems. SAE. 2016.
(96) ISO/SAE DIS 21434 —Road vehicles— Cybersecurity engineering. ISO/SAE. 2020.
(98) Vidal, M. (2019). La era de la humanidad. Versión Kindle. Ediciones Deusto. Barcelona 2019. Pos. 2736.
(99) Barrio Andrés, M. (2021). Formación y evolución de los derechos digitales. Ediciones Olejnik. Argentina. 2021. P.28.
(100) Yuste, R.et al. (2017). «Four ethical priorities for neurotechnologies and AI». Nature. Vol. 551. N.o 7679. noviembre 2017.
40 / 41
04/03/2023
(102) Ienca, M., & Andorno, R. (2021). «Hacia nuevos derechos humanos en la era de la neurociencia y la neurotecnología». Análisis
filosófico. Vol. 41, N.o 1. Sociedad Argentina de Análisis Filosófico. P. 143.
(103) Ausín, T., Morte, R. et Monasterio Astobiza, A. (2020) «Neuroderechos: Derechos humanos para las neurotecnologías». Diario
La Ley. núm. 43, Sección Ciberderecho. 2020, P.5.
(104) Genser, J., Herrmann, S. et Yuste, R. (2022). International Human Rights Protection Gaps in the Age of Neurotechnology.
NeuroRights Foundation. 06.05.2022. P. 50.
(105) Yuste, R., Goering, S., Arcas, B. et al. (2017). «Four ethical priorities for neurotechnologies and AI». Nature 551. 2017. Pp.
159-163. https://doi.org/10.1038/551159a
(109) Cornejo Plaza, M. I. (2021). «Neuroderechos en Chile: consagración constitucional y regulación de las neurotecnologías»,
Agenda Estado de Derecho, 2021/12/13. Disponible en: https://agendaestadodederecho.com/neuroderechos-en-chile-
consagracion-constitucional-y-regulacion-de-las-neurotecnologias/. Consultado el 09.11.2022.
(110) De Santos Pascual, J.C. (2022). «Chile rechaza la nueva Constitución con una amplia mayoría. Euronews. 05.09.2022.
Disponible en: https://es.euronews.com/2022/09/05/chile-rechaza-la-nueva-constitucion-con-una-amplia-mayoria.
Consultado el 11.10.2022.
(111) R e c u p e r a d o d e : h t t p s : / / w w w . l a m o n c l o a . g o b . e s / p r e s i d e n t e / a c t i v i d a d e s / D o c u m e n t s / 2 0 2 1 / 1 4 0 7 2 1 -
Carta_Derechos_Digitales_RedEs.pdf.
41 / 41