Está en la página 1de 12

Machine Translated by Google

INSTRUCCIONES

Legislación de la UE en progreso

Ley de inteligencia artificial


DESCRIPCIÓN GENERAL

La Comisión Europea presentó una propuesta para un marco regulatorio de la UE sobre inteligencia artificial (IA)
en abril de 2021. El proyecto de ley sobre IA es el primer intento de promulgar una regulación horizontal para la IA.
El marco legal propuesto se centra en la utilización específica de sistemas de inteligencia artificial y los riesgos
asociados. La Comisión propone establecer una definición tecnológicamente neutral de los sistemas de IA en la
legislación de la UE y establecer una clasificación para los sistemas de IA con diferentes requisitos y obligaciones
adaptadas a un "enfoque basado en el riesgo". Se prohibirían algunos sistemas de IA que presenten riesgos "inaceptables". A
Se autorizaría una amplia gama de sistemas de IA de "alto riesgo", pero sujetos a una serie de requisitos y
obligaciones para acceder al mercado de la UE. Aquellos sistemas de IA que presenten sólo un "riesgo limitado"
estarían sujetos a obligaciones de transparencia muy leves. El Consejo acordó la posición general de los Estados
miembros de la UE en diciembre de 2021. El Parlamento votó su posición en junio de 2023. Los legisladores de la
UE están iniciando negociaciones para finalizar la nueva legislación, con enmiendas sustanciales a la propuesta de
la Comisión, incluida la revisión de la definición de sistemas de IA. ampliar la lista de sistemas de IA prohibidos e
imponer obligaciones a la IA de propósito general y a los modelos de IA generativa como ChatGPT.

Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de
inteligencia artificial (Ley sobre inteligencia artificial) y se modifican determinados actos legislativos de la Unión

comités Mercado Interior y Protección del Consumidor (IMCO) y COM(2021)206


responsable: Libertades Civiles, Justicia y Asuntos de Interior (LIBE) (conjuntamente 21.4.2021
según el artículo 58) 2021/0106(COD)
Relatores: Brando Benifei (S&D, Italia) y Dragoş Tudorache
(Renovar, Rumania)
Procedimiento legislativo
Relatores alternativos: Deirdre Clune, Axel Voss (PPE); Petar Vitanov (S&D);
ordinario (COD)
Svenja Hahn, (Renovar); Serguéi Lagodinsky, Kim Van (Parlamento y
Sparrentak (Verdes/ALE); Rob Rooken, Kosma Consejo en pie de
Złotowski (ECR); Jean­Lin Lacapelle, Jaak Madison (ID); igualdad (antes
Cornelia Ernst, Kateřina Konecna (La izquierda) denominado "codecisión")

Se esperan próximos pasos: Negociaciones a tres bandas

EPRS | Servicio de Investigación del Parlamento Europeo

Autor: Tambiama Madiega; Gráfico: Samy Chahri


Servicio de investigación de socios
PE 698.792 – Junio 2023 ES
Machine Translated by Google

EPRS | Servicio de Investigación del Parlamento Europeo

Introducción
Se espera que las tecnologías de IA aporten una amplia gama de beneficios económicos y sociales a una amplia gama de
sectores, incluidos el medio ambiente y la salud, el sector público, las finanzas, la movilidad, los asuntos de interior y la
agricultura. Son particularmente útiles para mejorar la predicción, optimizar las operaciones y la asignación de recursos, y
personalizar los servicios.1 Sin embargo, las implicaciones de los sistemas de IA para los derechos fundamentales
protegidos por la Carta de los Derechos Fundamentales de la UE, así como los riesgos de seguridad para los usuarios
cuando las tecnologías de IA están integradas en productos y servicios, son motivo de preocupación.
En particular, los sistemas de IA pueden poner en peligro derechos fundamentales como el derecho a la no discriminación,
la libertad de expresión, la dignidad humana, la protección de datos personales y la privacidad.2

Dado el rápido desarrollo de estas tecnologías, en los últimos años la regulación de la IA se ha convertido en una cuestión
de política central en la Unión Europea (UE). Los responsables políticos se comprometieron a desarrollar un enfoque de
la IA "centrado en el ser humano" para garantizar que los europeos puedan beneficiarse de las nuevas tecnologías
desarrolladas y funcionando de acuerdo con los valores y principios de la UE.3 En su Libro Blanco sobre Inteligencia
Artificial de 2020, La Comisión Europea se comprometió a promover la adopción de la IA y abordar los riesgos asociados
con ciertos usos de esta nueva tecnología. Si bien la Comisión Europea adoptó inicialmente un enfoque de derecho
indicativo, con la publicación de sus Directrices éticas no vinculantes de 2019 para una IA confiable y Recomendaciones
de políticas e inversiones, desde entonces ha cambiado hacia un enfoque legislativo que exija la adopción de normas
armonizadas para el desarrollo, la comercialización y el uso de sistemas de IA.4

Enfoque regulatorio de la IA en el mundo. Si bien los Estados Unidos de América (EE.UU.) habían adoptado inicialmente una actitud indulgente
enfoque hacia la IA, llamadas Las solicitudes de regulación han ido aumentando recientemente. La Administración del Ciberespacio de China
también está consultando sobre una propuesta. regular la IA, mientras el Reino Unido trabaja sobre un conjunto de principios regulatorios
favorables a la innovación. A nivel internacional, la Organización para la Cooperación y el Desarrollo Económicos (OCDE) adoptó una
Recomendación (no vinculante) sobre la IA en 2019. La UNESCO adoptó recomendaciones sobre la ética de la IA en 2021, y el Consejo de
Europa está trabajando actualmente sobre una convención internacional sobre IA.
Además, en el contexto de la recién creada asociación tecnológica UE­EE.UU. (la Asociación de Comercio y Tecnología
Consejo), la UE y los EE.UU. están tratando de desarrollar un entendimiento mutuo sobre los principios que sustentan una IA confiable y
responsable. Los legisladores de la UE emitieron una declaración conjunta en mayo de 2023 instando al presidente Biden y a la presidenta de
la Comisión Europea, Ursula von der Leyen, a convocar una cumbre para encontrar formas de controlar el desarrollo de sistemas avanzados
de inteligencia artificial como ChatGPT.

La posición inicial del Parlamento


Al liderar el debate a nivel de la UE, el Parlamento Europeo pidió a la Comisión Europea que evaluara el impacto de la IA
y redactara un marco de la UE para la IA, en sus amplias recomendaciones de 2017 sobre normas de derecho civil sobre
robótica. Más recientemente, en 2020 y 2021, el Parlamento adoptó una serie de resoluciones no legislativas que pedían
la acción de la UE, así como dos resoluciones legislativas que pedían la adopción de legislación de la UE en el campo de
la IA. Una primera resolución legislativa pidió a la Comisión establecer un marco legal de principios éticos para el desarrollo,
despliegue y uso de la IA, la robótica y tecnologías afines en la Unión. Una segunda resolución legislativa pidió armonizar
el marco jurídico de la responsabilidad civil reclamaciones e imposición de un régimen de responsabilidad objetiva a los
operadores de sistemas de IA de alto riesgo. Además, el Parlamento adoptó una serie de recomendaciones que pedían un
enfoque común de la UE respecto de la IA en la propiedad intelectual. derecho penal, educación, cultura y audiovisual
áreas, y con respecto a los usos civiles y militares de la IA.

Posición inicial del consejo


En el pasado, el Consejo ha pedido repetidamente la adopción de normas comunes sobre IA, incluso en 2017.
y 2019. Más recientemente, en 2020, el Consejo convocó Pide a la Comisión que presente propuestas concretas que
tengan en cuenta la legislación existente y sigan un enfoque basado en el riesgo, proporcionado y, si es necesario,
reglamentario. Además, el Consejo invitó la UE y los Estados miembros para

2
Machine Translated by Google

Ley de inteligencia artificial

considerar medidas efectivas para identificar, predecir y responder a los posibles impactos de las tecnologías digitales,
incluida la IA, en los derechos fundamentales.

Preparación de la propuesta.
Siguiendo el Libro Blanco sobre la Inteligencia Artificial5 adoptada en febrero de 2020, la Comisión lanzó una amplia
consulta pública en 2020 y publicó una evaluación de impacto del reglamento sobre inteligencia artificial, un estudio
de apoyo y un borrador de propuesta, que recibió comentarios de diversas partes interesadas.6 En su evaluación de
impacto, la Comisión identifica varios problemas
7
plantea el desarrollo y uso de sistemas de IA, debido a sus características específicas.

Los cambios que traería la propuesta


El proyecto de ley sobre IA ha sido diseñado como un instrumento legislativo horizontal de la UE aplicable a todos los
sistemas de IA comercializados o utilizados en la Unión.

Objeto, base jurídica y alcance


Se revela el objetivo general de la propuesta de ley sobre IA en abril de 2021 es garantizar el correcto funcionamiento
del mercado único creando las condiciones para el desarrollo y uso de sistemas de IA fiables en la Unión. El proyecto
establece un marco jurídico armonizado para el desarrollo, la comercialización en el mercado de la Unión y el uso de
productos y servicios de IA. Además, la propuesta de ley de IA busca lograr un conjunto de objetivos específicos: (i)
garantizar que los sistemas de IA comercializados en el mercado de la UE sean seguros y respeten la legislación
vigente de la UE, (ii) garantizar la seguridad jurídica para facilitar la inversión y la innovación en IA, (iii) mejorar la
gobernanza y la aplicación efectiva de la legislación de la UE sobre derechos fundamentales y requisitos de seguridad
aplicables a los sistemas de IA, y (iv) facilitar el desarrollo de un mercado único para aplicaciones de IA legales,
seguras y confiables y evitar la fragmentación del mercado.8

El nuevo marco de IA, basado en los artículos 1149 y 1610 del Tratado de Funcionamiento de la Unión Europea
(TFUE), consagraría una definición tecnológicamente neutral de los sistemas de IA y adoptaría un enfoque basado en
el riesgo, que establece diferentes requisitos y obligaciones para el desarrollo, la comercialización y el uso de sistemas
de IA en la UE. En la práctica, la propuesta define requisitos obligatorios comunes aplicables al diseño y desarrollo de
sistemas de IA antes de su comercialización y armoniza la forma en que se llevan a cabo los controles ex post. La ley
de IA propuesta complementaría la regulación de seguridad de la UE, horizontal y sectorial, existente y futura.

11
La Comisión propone seguir la lógica del nuevo marco legislativo (NLF), es decir, el enfoque de la UE
para garantizar que una gama de productos cumplan con la legislación aplicable cuando se comercializan en el
mercado de la UE mediante evaluaciones de conformidad y el uso del marcado CE.

Las nuevas normas se aplicarían principalmente a los proveedores de sistemas de IA establecidos dentro de la UE o
en un tercer país que introduzcan sistemas de IA en el mercado de la UE o los pongan en servicio en la UE, así como a
a los usuarios de sistemas de IA ubicados en la UE. 12 Para evitar la elusión del reglamento, las nuevas normas también
se aplicarían a los proveedores y usuarios de sistemas de IA ubicados en un tercer país donde el
La producción producida por esos sistemas se utiliza en la UE.13 Sin embargo, el proyecto de reglamento no se aplica
a los sistemas de IA desarrollados o utilizados exclusivamente con fines militares, a las autoridades públicas de un
tercer país, ni a las organizaciones internacionales o a las autoridades que utilizan sistemas de IA en el marco de
acuerdos internacionales para la aplicación de la ley y la cooperación judicial.

Definiciones
La comunidad científica no acepta una definición única de inteligencia artificial y el término "IA" se utiliza a menudo
como un "término general" para diversas aplicaciones informáticas basadas en diferentes técnicas, que exhiben
capacidades comúnmente y actualmente asociadas con la inteligencia humana.14 El Alto Se propone un grupo de
expertos de nivel sobre IA una definición básica de IA que se utiliza cada vez más en la literatura científica, y el Centro
Común de Investigación ha establecido una definición operativa de IA basada en una taxonomía que mapea todos los
subdominios de la IA desde el punto de vista político, de investigación e industrial.

3
Machine Translated by Google

EPRS | Servicio de Investigación del Parlamento Europeo

perspectiva. Sin embargo, la Comisión concluyó que la noción de sistema de IA debería definirse más claramente, dado que la
determinación de lo que constituye un "sistema de IA" es crucial para la asignación de responsabilidades legales bajo el nuevo
marco de IA. Por lo tanto, la Comisión propone
establecer una definición legal de "sistema de IA" en la legislación de la UE, que se basa en gran medida en una definición ya
15
utilizada por la OCDE. El artículo 3, apartado 1, del proyecto de ley establece que "sistema de inteligencia artificial" significa:

...software desarrollado con técnicas y enfoques [específicos] [enumerados en el Anexo 1] y que puede, para un
conjunto determinado de objetivos definidos por humanos, generar resultados tales como contenido, predicciones,
recomendaciones o decisiones que influyen en los entornos en los que interactúan. con.16

Anexo 1 La propuesta establece una lista de técnicas y enfoques que se utilizan hoy en día para desarrollar la IA. En consecuencia,
la noción de "sistema de IA" se referiría a una gama de tecnologías basadas en software que abarca el "aprendizaje automático",
los sistemas "lógicos y basados en el conocimiento" y los enfoques "estadísticos" . Esta definición amplia cubre los sistemas de IA
que pueden usarse de forma independiente o como componente de un producto. Además, la legislación propuesta pretende estar
preparada para el futuro y cubrir los desarrollos tecnológicos de IA actuales y futuros. Con ese fin, la Comisión complementaría la
lista del Anexo 1 con nuevos enfoques y técnicas utilizados para desarrollar sistemas de IA a medida que surjan, mediante la
adopción de actos delegados (artículo 4).

Además, el artículo 3 proporciona una larga lista de definiciones que incluyen la de "proveedor" y "usuario" de sistemas de IA (que
abarcan tanto entidades públicas como privadas), así como "importador" y "distribuidor", "reconocimiento de emociones" y "
categorización biométrica".

Enfoque basado en el riesgo

Pirámide de riesgos

Fuente de datos: Comisión Europea.

El uso de la IA, con sus características específicas (por ejemplo, opacidad, complejidad, dependencia de datos, comportamiento
autónomo), puede afectar negativamente a una serie de derechos fundamentales y a la seguridad de los usuarios. Para abordar
esas preocupaciones, el proyecto de ley sobre IA sigue un enfoque basado en el riesgo mediante el cual la intervención legal se
adapta al nivel concreto de riesgo. Con ese fin, el proyecto de ley de IA distingue entre sistemas de IA que presentan (i) un riesgo
inaceptable, (ii) un riesgo alto, (iii) un riesgo limitado y (iv) un riesgo bajo o mínimo. Las aplicaciones de IA se regularían solo en la
medida estrictamente necesaria para abordar niveles específicos de riesgo.17

Riesgo inaceptable: prácticas prohibidas de IA


El Título II (Artículo 5) de la ley de IA propuesta prohíbe explícitamente las prácticas dañinas de IA que se consideran una clara
amenaza para la seguridad, los medios de vida y los derechos de las personas, debido al "riesgo inaceptable" que crean. En
consecuencia, estaría prohibido comercializar, prestar servicios o utilizar en la UE:

sistemas de IA que utilizan "técnicas subliminales" manipuladoras dañinas; sistemas de IA


que explotan grupos vulnerables específicos (discapacidad física o mental); sistemas de IA utilizados por
las autoridades públicas, o en su nombre, con fines de puntuación social; Sistemas de identificación biométrica
remota 'en tiempo real' en espacios de acceso público para
fines de aplicación de la ley, excepto en un número limitado de casos.18

4
Machine Translated by Google

Ley de inteligencia artificial

Alto riesgo: sistemas de IA regulados de alto riesgo


El título III (artículo 6) de la ley de IA propuesta regula los sistemas de IA de "alto riesgo" que crean un impacto adverso en la seguridad de
las personas o sus derechos fundamentales. El borrador del texto distingue entre dos categorías de sistemas de IA de alto riesgo.

Sistemas utilizados como componente de seguridad de un producto o sujetos a la legislación de armonización de


seguridad y salud de la UE (por ejemplo, juguetes, aviación, automóviles, dispositivos médicos, ascensores).
Sistemas desplegados en ocho áreas específicas identificadas en el anexo III, que la Comisión podría actualizar según
sea necesario mediante actos delegados (artículo 7): o Identificación biométrica y categorización de
personas físicas; o Gestión y operación de infraestructura crítica; o Educación y formación
profesional; o Empleo, gestión de trabajadores y acceso al autoempleo; o
Acceso y disfrute de servicios privados esenciales y
servicios públicos y

beneficios;
o Aplicación de la ley; o
Gestión de la migración, el asilo y el control de fronteras; o Administración de
justicia y procesos democráticos.

Todos estos sistemas de IA de alto riesgo estarían sujetos a un conjunto de nuevas reglas que incluyen:

Requisito de una evaluación de conformidad ex ante: Los proveedores de sistemas de IA de alto riesgo deberían registrar sus sistemas en
una base de datos de toda la UE gestionada por la Comisión antes de comercializarlos o ponerlos en servicio. Cualquier producto y servicio
de IA regido por la legislación existente sobre seguridad de productos se incluirá en los marcos de conformidad de terceros existentes que
ya se aplican (por ejemplo, para dispositivos médicos). Los proveedores de sistemas de IA que actualmente no se rigen por la legislación
de la UE tendrían que realizar su propia evaluación de la conformidad (autoevaluación) para demostrar que cumplen con los nuevos
requisitos y pueden utilizar el marcado CE. Sólo los sistemas de IA de alto riesgo utilizados para la identificación biométrica requerirían
una evaluación de conformidad por parte de un "organismo notificado".

Otros requisitos: Estos sistemas de IA de alto riesgo tendrían que cumplir con una serie de requisitos, en particular en materia de gestión
de riesgos, pruebas, solidez técnica, capacitación y gobernanza de datos, transparencia, supervisión humana y ciberseguridad (artículos 8
a 15). En este sentido, los proveedores, importadores, distribuidores y usuarios de sistemas de IA de alto riesgo tendrían que cumplir una
serie de obligaciones.
Los proveedores de fuera de la UE requerirán un representante autorizado en la UE para (entre otras cosas) garantizar la evaluación de la
conformidad, establecer un sistema de seguimiento posterior a la comercialización y tomar medidas correctivas según sea necesario. Los
sistemas de IA que se ajusten a las nuevas normas armonizadas de la UE, actualmente en desarrollo, se beneficiarían de una presunción
de conformidad con los requisitos del proyecto de ley de IA.19

Reconocimiento facial: la IA impulsa el uso de tecnologías biométricas, incluidas las tecnologías de reconocimiento facial
(FRT), que son utilizados por actores públicos o privados con fines de verificación, identificación y categorización.
Además de la legislación aplicable existente (por ejemplo, protección de datos y no discriminación), el proyecto de ley sobre
IA propone introducir nuevas reglas para los FRT y diferenciarlos según sus características de uso de "alto riesgo" o "bajo
riesgo". Se prohibiría el uso de sistemas de reconocimiento facial en tiempo real en espacios de acceso público con fines
policiales, a menos que los Estados miembros decidan autorizarlos por razones importantes de seguridad pública y se
concedan las autorizaciones judiciales o administrativas apropiadas.
Se podría permitir una amplia gama de FRT utilizados para fines distintos de la aplicación de la ley (por ejemplo, control
fronterizo, mercados, transporte público e incluso escuelas), sujeto a una evaluación de la conformidad y al cumplimiento de
los requisitos de seguridad antes de ingresar al mercado de la UE.20

Riesgo limitado: obligaciones de transparencia


Los sistemas de IA que presentan un "riesgo limitado", como los sistemas que interactúan con los humanos (es decir, los chatbots),
Los sistemas de reconocimiento de emociones, los sistemas de categorización biométrica y los sistemas de inteligencia artificial que
generan o manipulan contenidos de imágenes, audio o vídeo (es decir, deepfakes) estarían sujetos a un conjunto limitado de obligaciones
de transparencia.

5
Machine Translated by Google

EPRS | Servicio de Investigación del Parlamento Europeo

Riesgo bajo o mínimo: Sin obligaciones


Todos los demás sistemas de IA que presenten un riesgo bajo o mínimo podrían desarrollarse y utilizarse en la
UE sin cumplir ninguna obligación legal adicional. Sin embargo, la ley de IA propuesta prevé la creación de
códigos de conducta para alentar a los proveedores de sistemas de IA que no sean de alto riesgo a aplicar
voluntariamente los requisitos obligatorios para los sistemas de IA de alto riesgo.

Gobernanza, aplicación y sanciones


La propuesta exige que los Estados miembros designen una o más autoridades competentes, incluida una
autoridad nacional de supervisión, que se encargaría de supervisar la aplicación y ejecución del reglamento, y
establece un Consejo Europeo de Inteligencia Artificial.
(compuesto por representantes de los Estados miembros y de la Comisión) a nivel de la UE. Las autoridades
nacionales de vigilancia del mercado serían responsables de evaluar el cumplimiento por parte de los operadores
de las obligaciones y requisitos de los sistemas de IA de alto riesgo. Tendrían acceso a información confidencial
(incluido el código fuente de los sistemas de IA) y estarían sujetos a obligaciones vinculantes de confidencialidad.
Además, se les exigiría tomar medidas correctivas para prohibir, restringir, retirar o retirar los sistemas de IA que
no cumplan con la Ley de IA o que, aunque la cumplan, presenten un riesgo para la salud o la seguridad de las
personas o para los derechos fundamentales o otra protección del interés público. En caso de incumplimiento
persistente, los Estados miembros tendrán que tomar todas las medidas adecuadas para restringir, prohibir,
recuperar o retirar del mercado el sistema de IA de alto riesgo en juego.

Como sanciones por incumplimiento de la Ley sobre IA se establecen multas administrativas de distinta magnitud
(hasta 30 millones de euros o el 6 % del volumen de negocios anual total a nivel mundial), dependiendo de la
gravedad de la infracción. Los Estados miembros tendrían que establecer normas sobre sanciones, incluidas
multas administrativas, y adoptar todas las medidas necesarias para garantizar su aplicación adecuada y efectiva.

Medidas de apoyo a la innovación


La Comisión propone que los Estados miembros, o el Supervisor Europeo de Protección de Datos, puedan
establecer un entorno de pruebas regulatorio, es decir, un entorno controlado que facilite el desarrollo, prueba y
validación de sistemas innovadores de IA (durante un período de tiempo limitado) antes de su puesta en
circulación. mercado. El sandboxing permitirá a los participantes utilizar datos personales para fomentar la
innovación en IA, sin perjuicio del RGPD. requisitos. Otras medidas están diseñadas específicamente para
proveedores de pequeña escala y empresas emergentes.

Comités asesores
El Comité Económico y Social Europeo adopta su dictamen sobre la propuesta de ley de inteligencia artificial el
22 de septiembre de 2021.

parlamentos nacionales
El plazo para la presentación de dictámenes motivados por motivos de subsidiariedad fue el 2 de septiembre de
2021. Se recibieron contribuciones de la Cámara de Diputados checa y el Senado checo, el parlamento portugués ,
el senado polaco y el Bundesrat alemán.

Opiniones de las partes interesadas21

Definiciones
Las definiciones son un punto de discusión polémico entre las partes interesadas. La Big Data Value Association,
una organización internacional sin fines de lucro impulsada por la industria, enfatiza que La definición de sistemas
de IA es bastante amplia y abarcaría mucho más de lo que subjetivamente se entiende como IA, incluidos los
algoritmos más simples de búsqueda, clasificación y enrutamiento, que en consecuencia estarían sujetos a
nuevas reglas. Además, piden que se aclare cómo funcionan los componentes de sistemas de IA más grandes (como

6
Machine Translated by Google

Ley de inteligencia artificial

(como componentes de IA previamente entrenados de otros fabricantes o componentes no lanzados por separado) deben ser tratados.
AmCham, la Cámara de Comercio Estadounidense en la UE, sugiere evitar el exceso de regulación adoptando una definición más
estricta de sistemas de IA, centrándose estrictamente en aplicaciones de IA de alto riesgo (y no extendida a aplicaciones de IA que no
son de alto riesgo, o software en general).
AccessNow, una asociación que defiende los derechos digitales de los usuarios argumenta las definiciones de "reconocimiento de
emociones" y "categorización biométrica" son técnicamente erróneas y recomienda ajustes.

Enfoque basado en el riesgo


Si bien en general acogen con satisfacción el enfoque basado en el riesgo de la ley de IA propuesta, algunas partes interesadas
apoyar una prohibición y regulación más amplia de los sistemas de IA. Organizaciones de derechos civiles llaman por una prohibición de
uso indiscriminado o arbitrario de datos biométricos en espacios públicos o de acceso público, y restricciones en el uso de sistemas de
inteligencia artificial, incluido el control fronterizo y la vigilancia policial predictiva.
AccessNow sostiene que las disposiciones relativas a las prácticas prohibidas de IA (artículo 5) son demasiado vagas y propone una
prohibición más amplia del uso de la IA para categorizar a las personas basándose en criterios fisiológicos, conductuales
o datos biométricos, para el reconocimiento de emociones, así como usos peligrosos en el contexto de la vigilancia, la migración, el asilo
y la gestión de fronteras. Además, exigen requisitos más estrictos de evaluación de impacto y transparencia.

La Alianza de Empresas Europeas destaca que existe una incertidumbre general sobre los roles y responsabilidades de los diferentes
actores en la cadena de valor de la IA (desarrolladores, proveedores y usuarios de sistemas de IA). Esto es particularmente desafiante
para las empresas que ofrecen interfaces de programación de aplicaciones de propósito general o modelos de IA de código abierto que
no están destinados específicamente a sistemas de IA de alto riesgo pero que, sin embargo, son utilizados por terceros de una manera
que podría considerarse de alto riesgo.
También piden que se redefina el término "alto riesgo", basándose en el daño mensurable y el impacto potencial.
AlgorithmWatch subraya que la aplicabilidad de normas específicas no debería depender del tipo de tecnología, sino del impacto que
tiene en los individuos y la sociedad. Piden que las nuevas reglas se definan en función del impacto de los sistemas de IA y recomiendan
que todos los operadores
realizar una evaluación de impacto que evalúe los niveles de riesgo del sistema caso por caso. Llamadas de IA sobre cambio climático
para que la mitigación y adaptación al cambio climático se tengan en cuenta en las reglas de clasificación de los sistemas de IA de alto
riesgo e impongan requisitos de protección ambiental.

Protección al Consumidor
La Organización Europea de Consumidores, BEUC, destaca que la propuesta requiere una mejora sustancial para garantizar la
protección de los consumidores. La organización sostiene que la propuesta debería tener un alcance más amplio e imponer principios y
obligaciones básicos (por ejemplo, sobre equidad, responsabilidad y transparencia) a todos los sistemas de IA, además de prohibir
prácticas más exhaustivamente dañinas (como el uso por parte de entidades privadas de puntuación social y de sistemas de identificación
biométrica remota en espacios públicos). Además, se debe conceder a los consumidores un sólido conjunto de derechos, recursos
efectivos y mecanismos de reparación, incluida la reparación colectiva.

Impacto en inversiones y pymes


Hay opiniones encontradas sobre el impacto de la regulación propuesta sobre la inversión. Un estudio por el Centro para la Innovación
de Datos (que representa a grandes plataformas en línea) destaca que los costos de cumplimiento incurridos bajo la ley de IA propuesta
probablemente provocarían un efecto paralizador sobre la inversión en IA en Europa, y podrían disuadir particularmente a las pequeñas
y medianas empresas (PYME) de desarrollando
Sistemas de IA de alto riesgo. Según el Centro para la Innovación de Datos, la ley sobre IA le costaría a la economía europea 31 mil
millones de euros en los próximos cinco años y reduciría las inversiones en IA en casi un 20 %.
Sin embargo, estas estimaciones de los costes de cumplimiento son cuestionadas por los expertos de el Centro de Estudios de Política
Europea, así como por otros economistas. La Alianza Europea de Pymes Digitales advierte
contra requisitos de conformidad demasiado estrictos, pide una representación efectiva de las PYME en los procedimientos de
establecimiento de normas y que los sandboxes sean obligatorios en todos los Estados miembros de la UE.

7
Machine Translated by Google

EPRS | Servicio de Investigación del Parlamento Europeo

Puntos de vista académicos y de otro tipo

Si bien en general apoyan la propuesta de la Comisión, los críticos piden enmiendas, incluida la revisión de la definición de
"sistemas de IA", asegurando una mejor asignación de responsabilidad, fortaleciendo los mecanismos de aplicación y
fomentando la participación democrática.22 Entre las principales cuestiones se encuentran:

Definición de sistemas de IA
La definición legal de "sistemas de IA" contenida en la ley de IA propuesta ha sido duramente criticada.
Smuha y otros advierten que la definición carece de claridad y puede generar inseguridad jurídica, especialmente para
algunos sistemas no calificarían como sistemas de IA según el borrador del texto, mientras que su uso puede tener un
impacto adverso en los derechos fundamentales.23 Para abordar esta cuestión, los autores proponen ampliar el
alcance de la legislación para incluir explícitamente todos los sistemas computacionales utilizados en los dominios de alto
riesgo identificados, independientemente de si se consideran IA. Según los autores, la ventaja sería hacer que la aplicación
de las nuevas normas dependa más del ámbito en el que se utiliza la tecnología y de los riesgos relacionados con los
derechos fundamentales, en lugar de una técnica informática específica. Ebers y otros consideran que el alcance de los
'sistemas de IA' es demasiado amplio, lo que puede generar inseguridad jurídica para los desarrolladores, operadores y
usuarios de sistemas de IA y, en última instancia, un exceso de regulación.24 Instan a los legisladores de la UE a eximir a
la IA sistemas desarrollados y utilizados con fines de investigación y software de código abierto (OSS) a partir de la
regulación. Otros comentaristas preguntan si la definición propuesta de "sistemas de IA" es verdaderamente neutral desde
el punto de vista tecnológico
ya que se refiere principalmente al "software", omitiendo posibles desarrollos futuros de IA.

Enfoque basado en el riesgo


Los académicos también piden modificaciones, advirtiendo que el enfoque basado en el riesgo propuesto por la Comisión
no garantizaría un alto nivel de protección de los derechos fundamentales. Smuha y otros
Argumentan que la propuesta no siempre reconoce con precisión los errores y daños asociados con los diferentes tipos de
sistemas de IA y, por lo tanto, no asigna responsabilidades de manera adecuada. Entre otras cosas, recomiendan añadir un
procedimiento que permita a la Comisión ampliar la lista de sistemas de IA prohibidos y proponer prohibir los sistemas de IA
manipuladores existentes (por ejemplo, deepfakes), la puntuación social y algunos datos biométricos. Ebers y otros llaman
solicitar una clasificación más detallada de los riesgos para facilitar la autoevaluación y el apoyo de la industria, así como
prohibir más sistemas de IA (por ejemplo, biométricos), incluso en el contexto del uso privado. Además, algunos destacan
que el proyecto de ley no aborda los riesgos sistémicos de sostenibilidad creados por la IA, especialmente en el área de la
protección del clima y el medio ambiente.25

Los expertos parecen especialmente preocupados por la aplicación del artículo 5 (prácticas prohibidas) y del artículo 6
(prácticas reguladas de alto riesgo). Una de las principales preocupaciones planteadas es que las normas sobre prácticas
prohibidas y de alto riesgo pueden resultar ineficaces en la práctica, porque la evaluación de riesgos queda en manos de la
autoevaluación del proveedor. Veale y Zuiderveen Borgesius advierten que la mayoría de los proveedores pueden clasificar
arbitrariamente la mayoría de los sistemas de alto riesgo como si cumplieran las reglas utilizando procedimientos de autoevaluación
solo. Smuha y otros recomiendan explorar si ciertos sistemas de alto riesgo no se beneficiarían de una evaluación de la
conformidad realizada por una entidad independiente antes de su implementación.

Regulación biométrica. Un estudio encargado por el Parlamento Europeo recomienda, entre otras cosas, facultar a la Comisión
para que adapte periódicamente la lista de prácticas prohibidas de IA, bajo la supervisión del Parlamento Europeo, y la adopción
de una lista más completa de "aplicaciones restringidas de IA" (que incluya la identificación biométrica remota en tiempo real sin
limitación para fines de aplicación de la ley). La regulación de las tecnologías de reconocimiento facial (FRT) es una de las
cuestiones más polémicas.26 El Supervisor Europeo de Protección de Datos (SEPD) y el Consejo Europeo de Protección de Datos
(EDPB) han pedido para una prohibición general de cualquier uso de la IA para el reconocimiento automático de rasgos humanos
en espacios de acceso público.

8
Machine Translated by Google

Ley de inteligencia artificial

Estructura de gobernanza y mecanismos de aplicación y reparación


Ebers y otros enfatizan que la Ley de IA carece de estructuras de aplicación efectivas, ya que la Comisión propone dejar
la evaluación preliminar del riesgo, incluida la calificación como de alto riesgo, a la autoevaluación de los proveedores.
También plantean preocupaciones sobre la excesiva delegación de poder regulatorio a organizaciones europeas de
normalización (ESO) privadas, debido a la falta de supervisión democrática, la imposibilidad de que las partes interesadas
(organizaciones de la sociedad civil, asociaciones de consumidores) influyan en el desarrollo de normas y la falta de de
medios judiciales para controlarlos una vez adoptados. En cambio, recomiendan que la ley de IA codifique un conjunto
de requisitos jurídicamente vinculantes para los sistemas de IA de alto riesgo (por ejemplo, formas prohibidas de
discriminación algorítmica), que los ESO pueden especificar mediante estándares armonizados. Además, abogan por
que los responsables políticos europeos fortalezcan la supervisión democrática del proceso de normalización.

Los comentaristas deploran una laguna crucial en la ley sobre IA, que no prevé derechos individuales de ejecución.
Ebers y otros enfatizan que las personas afectadas por los sistemas de IA y las organizaciones de derechos civiles no
tienen derecho a presentar quejas ante las autoridades de vigilancia del mercado ni a demandar a un proveedor o
usuario por incumplimiento de los requisitos. Del mismo modo, Veale y Zuiderveen Borgesius advierten
que, si bien algunas disposiciones del proyecto de ley tienen como objetivo imponer obligaciones a los usuarios de
sistemas de IA, no existe ningún mecanismo de queja o reparación judicial a su disposición. Smuha y otros recomiendan
modificar la propuesta para incluir, entre otras cosas, un derecho explícito de reparación para las personas y derechos
de consulta y participación para los ciudadanos de la UE en relación con la decisión de modificar la lista de sistemas de
alto riesgo en el anexo III.

También se ha subrayado que el texto tal como está carece de mecanismos adecuados de coordinación entre
autoridades, en particular en lo que respecta a las infracciones transfronterizas. En consecuencia, debe aclararse la
competencia de las autoridades pertinentes a nivel nacional. Además, sería deseable recibir orientación sobre cómo
garantizar el cumplimiento de los requisitos de transparencia e información, al tiempo que
proteger simultáneamente los derechos de propiedad intelectual y los secretos comerciales (por ejemplo, en qué medida
el código fuente debe ser divulgado), sobre todo para evitar prácticas divergentes en los Estados miembros.

Proceso legislativo
El Consejo adoptó su posición común en diciembre de 2022. El Consejo propone, entre otras cosas:

limitar la definición de sistemas de IA a sistemas desarrollados mediante aprendizaje automático


enfoques y enfoques basados en la lógica y el conocimiento;
ampliar a los agentes privados la prohibición de utilizar la IA para la puntuación social y añadir casos en
los que excepcionalmente podría permitirse el uso de sistemas de identificación biométrica remota en
«tiempo real» en espacios de acceso público;
imponer requisitos a los sistemas de IA de uso general mediante actos de ejecución; añadir nuevas
disposiciones para tener en cuenta situaciones en las que los sistemas de IA pueden utilizarse para
muchos propósitos diferentes (IA de propósito general); y
simplificar el marco de cumplimiento de la Ley de IA y fortalecer, en particular, la
papel de la Junta de IA.

En el Parlamento, el expediente fue asignado conjuntamente (según el artículo 58) a la Comisión de Mercado Interior y
Protección del Consumidor (IMCO) y a la Comisión de Libertades Civiles, Justicia y Asuntos de Interior (LIBE), con
Brando Benifei (S&D, Italia) y Dragos. Tudorache, Renew, Rumania) nombrados relatores.
Además, la Comisión de Asuntos Jurídicos (JURI), la Comisión de Industria, Investigación y Energía (ITRE) y la Comisión
de Cultura y Educación (CULT) están asociadas al trabajo legislativo en virtud del artículo 57, con competencias
compartidas y/o exclusivas. para aspectos específicos de la propuesta.
El Parlamento adoptó su posición negociadora (499 votos a favor, 28 en contra y 93 abstenciones) el 14 de junio de
2023, con modificaciones sustanciales al texto de la Comisión, incluyendo:

Definiciones. El Parlamento modificó la definición de sistemas de IA para alinearla con la definición


acordada por la OCDE. Además, el Parlamento consagra una definición de

9
Machine Translated by Google

EPRS | Servicio de Investigación del Parlamento Europeo

'sistema de IA de propósito general' y 'modelo básico' en la legislación de la UE.


Prácticas prohibidas. El Parlamento modificó sustancialmente la lista de sistemas de IA prohibidos en la UE. El
Parlamento quiere prohibir el uso de sistemas de identificación biométrica en la UE tanto para uso en tiempo
real como ex post (excepto en casos de delitos graves y autorización previa judicial para uso ex post) y no
sólo para uso en tiempo real. tal como propone la Comisión. Además, el Parlamento quiere prohibir todos los
sistemas de categorización biométrica que utilicen características sensibles (por ejemplo, género, raza, etnia,
estatus de ciudadanía, religión, orientación política); sistemas policiales predictivos (basados en perfiles,
ubicación o comportamiento delictivo pasado); sistemas de reconocimiento de emociones (utilizados en la
aplicación de la ley, gestión de fronteras, lugares de trabajo e instituciones educativas); y sistemas de
inteligencia artificial que utilizan la extracción indiscriminada de datos biométricos de las redes sociales o
imágenes de CCTV para crear bases de datos de reconocimiento facial.

Sistemas de IA de alto riesgo. Si bien la Comisión propuso clasificar automáticamente como de alto riesgo todos
los sistemas en determinadas áreas o casos de uso, el Parlamento añade el requisito adicional de que los
sistemas deben plantear un "riesgo significativo" para ser considerados de alto riesgo. Los sistemas de IA
que corren el riesgo de dañar la salud, la seguridad, los derechos fundamentales o el medio ambiente de las
personas se considerarían incluidos en zonas de alto riesgo. Además, los sistemas de inteligencia artificial
utilizados para influir en los votantes en las campañas políticas y los sistemas de inteligencia artificial utilizados
en los sistemas de recomendación mostrados por las plataformas de redes sociales, designadas como
plataformas en línea de gran tamaño según la Ley de Servicios Digitales, serían considerados sistemas de
alto riesgo. Además, el Parlamento impone a quienes implementan un sistema de alto riesgo en la UE la
obligación de llevar a cabo una evaluación de impacto sobre los derechos fundamentales. IA
de propósito general, IA generativa y modelos básicos. El Parlamento establece una regulación por niveles para la
IA de uso general. El Parlamento impone una obligación a los proveedores de modelos de fundaciones
garantizar una protección sólida de los derechos fundamentales, la salud, la seguridad, el medio ambiente, la
democracia y el Estado de derecho. Se les exigiría evaluar y mitigar los riesgos que implican sus modelos,
cumplir con algunos requisitos de diseño, información y ambientales y registrar dichos modelos en una base
de datos de la UE. Además, los modelos de IA de base generativa (como ChatGPT) que utilizan modelos de
lenguaje grandes (LLM) para generar arte, música y otros contenidos estarían sujetos a estrictas obligaciones
de transparencia. Los proveedores de dichos modelos y de contenido generativo tendrían que revelar que el
contenido fue generado por IA y no por humanos, entrenar y diseñar sus modelos para evitar la generación
de contenido ilegal y publicar información sobre el uso de datos de entrenamiento protegidos por la ley de
derechos de autor. Por último, todos los modelos básicos deberían proporcionar toda la información necesaria
para que los proveedores intermedios puedan cumplir con sus obligaciones en virtud de la ley de IA.

Gobernanza y cumplimiento. Las competencias de las autoridades nacionales se verían reforzadas, ya que el
Parlamento les otorgaría el poder de solicitar acceso tanto a los modelos formados como a los modelos de
formación de los sistemas de IA, incluidos los modelos básicos.
El Parlamento también propone establecer una Oficina de IA, un nuevo organismo de la UE para apoyar la
aplicación armonizada de la ley de IA, proporcionar orientación y coordinar investigaciones transfronterizas
conjuntas. Además, los miembros buscan fortalecer los derechos de los ciudadanos a presentar quejas sobre
sistemas de IA y recibir explicaciones sobre decisiones basadas en sistemas de IA de alto riesgo que impactan
significativamente sus derechos.
Investigación e innovación. Para apoyar la innovación, el Parlamento acuerda que las actividades de
investigación y el desarrollo de componentes de IA gratuitos y de código abierto estarían en gran medida
exentos del cumplimiento de las normas de la Ley de IA.

10
Machine Translated by Google

Ley de inteligencia artificial

Debate político últimos temas. El reciente y rápido desarrollo de la inteligencia artificial de propósito general
tecnologías ha enmarcado el debate político en torno, entre otras cosas, a la definición de fines generales Modelos de IA, la
aplicación de los derechos de autor de la UE marco para la IA generativa, cómo garantizar el cumplimiento de los modelos básicos
con los principios de la Ley AI y el diseño de procedimientos de auditoría eficientes. para modelos de lenguaje grandes (LLM).
Se ha identificado un riesgo de sobrerregulación perjudicial para la inversión en IA en la UE ¿Deberían imponerse obligaciones
demasiado estrictas de evaluación, mitigación y gestión de riesgos a los modelos de fundaciones y a las PYME?
Cómo establecer reglas procompetitivas para el sandboxing y de código abierto También se ha hablado de los sistemas de IA.
Si bien existen preocupaciones Como la IA plantea riesgos a escala social similares a las armas nucleares, la sociedad civil ha
pedido una pausa en el desarrollo de la IA. organizaciones, expertos en IA y ejecutivos de tecnología. La cuestión de cómo
abordar las aplicaciones militares y de doble uso de la IA También se ha planteado. Además, dado que la normativa de la UE
tardará en entrar en vigor, la adopción de códigos de conducta voluntarios y de un Pacto sobre IA Se prevén medidas para
mitigar las posibles desventajas de la IA generativa. Una cuestión urgente es establecer una terminología común para que los
legisladores de todo el mundo tengan la misma comprensión de las tecnologías que deben abordar.

ANÁLISIS DE APOYO DEL PE


Inteligencia artificial de propósito general, EPRS, Madiega T., marzo de 2023.
Reconocimiento biométrico y detección de comportamiento, Parlamento Europeo, Departamento Temático para los Ciudadanos
Derechos y Asuntos Constitucionales, agosto de 2021.
Regular el reconocimiento facial en la UE, EPRS, Madiega TA y Mildebrath HA, septiembre de 2021.
Inteligencia artificial en derecho penal, EPRS, Voronova S., septiembre de 2021.
Ley de Inteligencia Artificial: Evaluación inicial de la evaluación de impacto de la Comisión Europea, Dalli H., EPRS, julio de
2021.
Inteligencia artificial en las fronteras de la UE: descripción general de aplicaciones y cuestiones clave, Dumbrava C., EPRS,
julio de 2021.

OTRAS FUENTES
Ley de Inteligencia Artificial, Parlamento Europeo, Observatorio Legislativo (OEIL).
Ebers M. y otros, Propuesta de la Comisión Europea para una ley de inteligencia artificial: una evaluación crítica de
miembros de la Sociedad de Derecho de Robótica e Inteligencia Artificial (RAILS), J 4, n.º 4: 589­603, octubre de 2021.
Smuha N. y otros, Cómo la UE puede lograr una IA legalmente confiable: una respuesta a la propuesta de la Comisión
Europea para una ley de inteligencia artificial, Elsevier, agosto de 2021.
Veale M., Zuiderveen Borgesius F., Desmitificando el proyecto de ley de IA de la UE, 22(4) Computer Law Review
International, julio de 2021.

NOTAS FINALES

1 Véase Comisión Europea, Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas
armonizadas sobre inteligencia artificial (Ley de inteligencia artificial) 2021/0106 (COD), Exposición de motivos (propuesta
de la Comisión de ley sobre IA). Si bien la definición exacta de IA es muy controvertida (ver más abajo), en general se
reconoce que la IA combina una variedad de tecnologías que incluyen técnicas de aprendizaje automático, robótica y
sistemas automatizados de toma de decisiones.
2 Véase, por ejemplo, Grupo de expertos de alto nivel, Directrices éticas para una IA confiable, 2019.
3 Véase Comisión Europea, Comunicación sobre la creación de confianza en la inteligencia artificial centrada en las personas,
COM(2019) 168.
4 Véase Comisión Europea, Comunicación sobre el fomento de un enfoque europeo de la inteligencia artificial,
COM(2021) 205.

5 Véase Comisión Europea, Libro Blanco sobre la Inteligencia Artificial, COM(2020) 65 final.
6 Para una descripción general, ver H. Dalli, Artificial Intelligence Act, Evaluación inicial de una evaluación de impacto de la Comisión
Europea, EPRS, Parlamento Europeo, 2021.
7
Según la evaluación de impacto de la Comisión, las cinco características específicas de la IA son (i) opacidad (capacidad limitada de
la mente humana para comprender cómo funcionan determinados sistemas de IA), (ii) complejidad, (iii) adaptación continua e
imprevisibilidad, (iv) comportamiento autónomo, y (v) datos (dependencia funcional de los datos y la calidad de los datos).
8 Véase la propuesta de la Comisión. para una ley AI, exposición de motivos y considerandos 1 y 5.

9 Para la adopción de un conjunto armonizado de requisitos para los sistemas de IA.

10 Para la adopción de reglas específicas para el procesamiento de datos personales en el contexto de la identificación biométrica.

11
Machine Translated by Google

EPRS | Servicio de Investigación del Parlamento Europeo

11 La propuesta complementa la legislación sectorial sobre seguridad de los productos, basada en el nuevo marco legislativo (NLF), incluida la
Directiva sobre seguridad general de los productos, la Directiva de Máquinas, el Reglamento de dispositivos médicos y el marco de la UE
sobre homologación y vigilancia del mercado de vehículos de motor. La Ley de IA también forma parte de un marco regulatorio más amplio de
la UE que incluye además la propuesta de una nueva directiva sobre responsabilidad de la IA. y la propuesta de revisión de la Directiva sobre
responsabilidad por productos defectuosos.

12 Véase el artículo 2. El reglamento propuesto también se aplicaría a las instituciones, oficinas, organismos y agencias de la Unión que actúen como
proveedores o usuarios de sistemas de IA.

13 Esto cubre el caso de un servicio (digitalmente) proporcionado por un sistema de IA ubicado fuera de la UE.

14 Véase Consejo de Europa, Estudio de viabilidad, Comité Ad hoc sobre Inteligencia Artificial, CAHAI(2020)23.
15
OCDE, Recomendación del Consejo sobre Inteligencia Artificial, 2019.
16 Véase el artículo 3, apartado 1, y el considerando 6.

17 Véase evaluación de impacto en págs. 48­49. También se adopta un enfoque de riesgo en la Responsabilidad Algorítmica de los Estados Unidos.
Acto de 2019 y en la Directiva canadiense de 2019 sobre la toma de decisiones automatizada.

Se permitirían 18 FRT (i) para la búsqueda selectiva de posibles víctimas de delitos, incluidos niños desaparecidos, (ii) para prevenir una amenaza
específica, sustancial e inminente a la vida o la seguridad física de las personas o de un ataque terrorista, y (iii ) para la detección, localización,
identificación o enjuiciamiento de un autor o individuo sospechoso de un delito penal contemplado en la Decisión marco sobre la orden de
detención europea.

19 Las normas armonizadas se definen de conformidad con el Reglamento (UE) n.º 1025/2012 y la Comisión podría, mediante actos de ejecución, adoptar
especificaciones técnicas comunes en áreas donde no existen normas armonizadas o donde es necesario abordar cuestiones fundamentales o de
seguridad específicas. preocupaciones sobre derechos.

20 Para una descripción general, véase T. Madiega y H. Mildebrath, Regulating facial reconocimiento in the EU, EPRS, septiembre de 2021.

21 Esta sección tiene como objetivo brindar una idea del debate y no pretende ser una descripción exhaustiva de todos los diferentes puntos de vista
sobre la propuesta. Puede encontrar información adicional en las publicaciones relacionadas que figuran en 'Análisis de apoyo del PE'.
22
Para un análisis en profundidad de las propuestas y recomendaciones de enmiendas, consulte N. Smuha y otros, How the EU Can Achieve
Legally Trustworthy AI: A Response to the European Commission's Proposal for an Artificial Intelligence Act, Elsevier, agosto de 2021; M.
Ebers y otros, Propuesta de la Comisión Europea para una ley de inteligencia artificial: una evaluación crítica de miembros de la Sociedad de
Derecho de Robótica e Inteligencia Artificial (RAILS), J 4, n.º 4: 589­603, octubre de 2021.
23 N. Smuha y otros, supra, págs. 14 y 15. Véase también E. Biber, Machines Learning the Rule of Law – EU Proposes the world's first Artificial
Intelligence Act, Agosto de 2021. También se pide un cambio de enfoque para identificar prácticas problemáticas que plantean cuestiones en
términos de derechos fundamentales, en lugar de centrarse en definiciones; M. Veale y F. Zuiderveen Borgesius., Desmitificando el proyecto
de ley de IA de la UE, 22(4) Computer Law Review International, julio de 2021.
24 Véase M. Ebers y otros, supra.

25 Véase V. Galaz y otros, Inteligencia artificial, riesgos sistémicos y sostenibilidad, Vol 67, Tecnología en la sociedad, 2021.

26 Para una descripción general, véase T. Madiega y H. Mildebrath, supra.

DESCARGO DE RESPONSABILIDAD Y DERECHOS DE AUTOR

Este documento está preparado y dirigido a los diputados y al personal del Parlamento Europeo como material de referencia para
ayudarles en su trabajo parlamentario. El contenido del documento es responsabilidad exclusiva de su(s) autor(es) y cualquier opinión
aquí expresada no debe considerarse como una posición oficial del Parlamento.

Se autoriza la reproducción y traducción con fines no comerciales, siempre que se cite la fuente y se informe previamente al
Parlamento Europeo y se envíe una copia.
© Unión Europea, 2023.
eprs@ep.europa.eu (contacto)
www.eprs.ep.parl.union.eu (intranet)
www.europarl.europa.eu/thinktank (Internet)
http://epthinktank.eu (Blog)

Segunda edicion. Los informes "Legislación de la UE en curso" se actualizan en etapas clave a lo largo del procedimiento legislativo.

12

También podría gustarte