Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Dialnet InteligenciaArtificialYValoracionDeLaPrueba 8328965
Dialnet InteligenciaArtificialYValoracionDeLaPrueba 8328965
015
Judicial proceedings and trials will be digital or El proceso judicial será tecnológico o no será. Supe-
they will not be. Overcoming the debate about rar el debate acerca de la conveniencia de abrazar
the convenience of embracing the technological el avance tecnológico no implica aceptar de facto
advance does not imply accepting integrated posiciones integradas. La pandemia del COVID-19
positions de facto. The COVID-19 pandemic has ha acentuado aún más –si cabe– las miserias y
further highlighted the troubles and deficits disonancias del proceso judicial en España. Una
of Spanish judicial proceedings. A slow justice, justicia lenta, paralizada ante la necesidad de tele-
paralyzed due to remote work and without trabajar y sin recursos con garantías para celebrar
resources or guarantees to hold trials at a distance, juicios a distancia, no es justicia, y hoy se agotan
is not justice. Excuses are running out today más rápido que nunca las excusas, puesto que nue-
faster than ever, since new levels of effectiveness, vas cuotas de eficacia, eficiencia y celeridad, con
efficiency, and speed, with full respect of procedural pleno respeto a las garantías procesales, pueden
guarantees, can be reached with the use of most alcanzarse con el empleo de las más modernas y
modern new technologies. nuevas tecnologías.
This article explores the possibilities of using El presente trabajo pretende explorar las posibili-
artificial intelligence systems in a specific area: dades de empleo de los sistemas de inteligencia ar-
the assessment of evidence. In this context, the tificial en un ámbito muy concreto: el de la valora-
hypothesis that the article aims to demonstrate ción de la prueba. En este contexto, la hipótesis que
is that although the human presence will continue el artículo pretende demostrar es que la presencia
to be necessary in judicial proceedings, artificial humana seguirá siendo necesaria, si bien los sis-
intelligence systems could support the free temas de inteligencia artificial podrían apoyar y
assessment of evidence by the judge and cover asistir la libre valoración de la prueba por parte del
those gaps where the human mind shows its most juzgador y colmar aquellas lagunas donde el ser
erratic side, such as during corroborations. humano muestra su faceta más errática; por ejem-
plo, en las corroboraciones.
Keywords: Artificial Intelligence; criminal Palabras clave: Inteligencia artificial; proceso pe-
proceedings; free assessment of evidence; Spain. nal; libre valoración de la prueba; España.
* Abogado. Doctor en Derecho por la Universitat de Girona. Exsocio fundador de Pridatect. Profesor contratado doctor
en Derecho Constitucional en la Universidad Internacional de la Rioja (UNIR) (Logroño, España). Profesor de Dere-
cho Penal Económico, Propiedad Industrial y Nuevas Tecnologías, Protección de Datos y Ciberdelincuencia en Univer-
sidad Internacional de La Rioja. Abogado independiente. Abogado en Font Advocats (Barcelona, España). Contacto:
pere.simon@unir.net
Nota del Editor: El presente artículo fue recibido por el Consejo Ejecutivo de THĒMIS-Revista de Derecho el 27 de di-
ciembre de 2020, y aceptado por el mismo el 8 de abril de 2021.
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592 283
INTELIGENCIA ARTIFICIAL Y VALORACIÓN DE LA PRUEBA: LAS GARANTÍAS
JURÍDICO-CONSTITUCIONALES DEL ÓRGANO DE CONTROL
I. INTRODUCCIÓN: DE LOS USOS POSIBLES DE información y datos –cuantos más mejor– puesto
THEMIS 79 | Revista de Derecho
284 THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. ISSN: 1810-9934
formará definitivamente la forma en la que vivi- 385661/2017 (2018), y la doctrina (Cotino Hueso,
1
Véase la Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión
sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (2020/2012(INL)).
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592 285
INTELIGENCIA ARTIFICIAL Y VALORACIÓN DE LA PRUEBA: LAS GARANTÍAS
JURÍDICO-CONSTITUCIONALES DEL ÓRGANO DE CONTROL
Por lo que aquí interesa, y retomando el camino en sentido literal, el sentido de las resoluciones
THEMIS 79 | Revista de Derecho
Otros usos, inclusive más cuestionables, de la in- Lo cierto es que las principales conclusiones o
teligencia artificial son los relativos al perfilado de propuestas formuladas por los citados algoritmos
jueces y magistrados, y los destinados a anticipar, mostraron un preocupante sesgo; por ejemplo, en
286 THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. ISSN: 1810-9934
el caso de COMPAS, se demostró la existencia de Se trata de un concepto clave que hemos tenido la
una funcionalidad muy distinta a las anteriores, la hearsay rules de Estados Unidos, la IA podría, en
mayoría apoyados hoy en día en sistemas expertos cambio, contribuir a ofrecer resultados basados
Human in Command, no basados en una black box en datos bastante objetivables en función de los
o en procesos de aprendizaje autónomo o deep medios de prueba empleados (Nieva Fenoll, 2018).
learning. Los sistemas que emplean la IAJVR están Todo ello, como decíamos, también en sistemas de
basados en la automatización de las herramientas libre valoración de ella, lo que ya de entrada impli-
actuariales de valoración del riesgo y son aplica- ca una apreciación probatoria más compleja.
bles a los procesos de toma de decisiones que re-
quieren conjurar el riesgo, por ejemplo, en la apli- Todo proceso penal estructurado con base en una
cación de medidas cautelares o, tras la condena, concepción racionalista de la prueba debe tener
en el ámbito penitenciario y en la ejecución penal. como objetivo darle al juez las herramientas
2
Cuando hablamos de la libre valoración de la prueba nos referimos a la regla que permite al órgano judicial competente
apreciar las pruebas existentes en el procedimiento según su libre convencimiento y sin tener que otorgarles a algunas
de ellas un valor o credibilidad superior que venga predeterminada por la ley (Diccionario panhispánico del español jurí-
dico, 2020). Esta es la definición que ofrece el Diccionario panhispánico del español jurídico en el que colaboran la Real
Academia Española, la Cumbre Judicial Iberoamericana y la Asociación de Academias de la Lengua Española.
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592 287
INTELIGENCIA ARTIFICIAL Y VALORACIÓN DE LA PRUEBA: LAS GARANTÍAS
JURÍDICO-CONSTITUCIONALES DEL ÓRGANO DE CONTROL
necesarias para que la valoración de la prueba formación profesional de jueces y magistrados ac-
THEMIS 79 | Revista de Derecho
dependa, en la medida de lo posible, de criterios túa como límite interno a los atajos intuitivos más
objetivos y explicables (Ferrer Beltrán, 2002; Fe- salvajes de nuestra psicología cognitiva. Señala
rrer Beltrán, 2007), y no de instituciones genera- Nieva Fenoll (2018, p. 44) que la carga de trabajo o
les cubiertas detrás del tantas veces incoherente la sobrecarga, mejor dicho, acostumbra a provocar
‘telón’ de la inmediación (Taruffo, 1992/2002; un alejamiento de las realidades a juzgar y empeña
Nieva Fenoll, 2010). Es en este ámbito, y para este al juzgador a dejarse llevar por su ideología.
caso concreto particular, en el que debemos va-
lorar la posibilidad real de que los sistemas de IA Así las cosas, los jueces toman decisiones en el
ofrezcan una oportunidad, también, para expul- marco de un ejercicio cognitivo que vincula la ex-
sar de las salas de justicia los atávicos heurísticos periencia –vital y profesional–, las emociones y
judiciales o, lo que es lo mismo, las emociones, el contexto, el diálogo con otros elementos polí-
gustos, prejuicios, preferencias, aficiones y otros ticos y sociales, la ideología base, los heurísticos
elementos que no siempre resultan confesables de pensamiento descritos por Kahneman, Slovic
y que están muy presentes en la valoración que y Tversky (1982), la memoria y estadística pri-
realiza el juzgador. ma facie –es decir, aquello que recuerdan y que
les viene a la cabeza de forma casi automática so-
A. ¿Cómo valoran las pruebas los jueces? bre casos anteriores–, la intuición (Myers, 2002,
p. 16), la fatiga –mental y física– y la comodidad–
Solo si comprendemos como valoran las pruebas placer, satisfacción e incluso el éxito pretérito en
los jueces seremos capaces de articular una fór- situaciones análogas–.
mula algorítmica que emule o replique su proceso
lógico y psicológico de valoración probatoria. Los ¿Podemos trasladar al algoritmo este proceso de
seres humanos somos automáticos, recurrentes, valoración humana del juzgador, de los hechos,
en una mayor medida de lo que podemos pensar, y hacerlo, además, expulsando o mitigando los
en nuestro día a día, en nuestro actuar cotidiano. atávicos heurísticos judiciales? En otro foro, y en
Como señalan Kahneman y Sunstein, nos gusta re- relación con la adopción de la siempre polémica
petir nuestras experiencias y ritos más ancestrales medida de prisión provisional, hemos defendido
(en HarvardCPL, 2014). Los jueces también son enérgicamente una respuesta afirmativa (Simón
personas y no podrían escapar a algo tan humano Castellano, 2021b). Veamos, empero, cómo podría
como la forma en la que se accede al conocimiento extrapolarse o traducirse todo ello al ámbito de la
y cómo este, sumado a otros factores, influye de- valoración probatoria.
cisivamente en las decisiones que luego tomamos.
Los humanos somos automáticos y los jueces, por B. La valoración de la declaración de las
ende, también son mecánicos en la mayoría de las personas
ocasiones.
Las leyes procedimentales incorporan diferentes
Por si lo anterior fuera poco, además, los jueces no pruebas –testifical, declaración de las partes, etc.–
operan en el vacío. Ni pueden, ni deben hacerlo. que podrían englobarse dentro de una categoría
Lo que sucede en el exterior nos condiciona, nos superior, de declaración de las personas. ¿Qué po-
aflige y llega a afectar nuestra toma de decisiones. drían aportar los sistemas de IA en este contexto?
Es lo que Kahneman (en HarvardCPL, 2014) llama Hoy en día, los jueces valoran la credibilidad de las
el efecto del contexto y enlaza con la afección y la personas de acuerdo con los factores situacionales
emoción. O lo que fue, en su día, brillantemente y en función de su experiencia vital anterior. Sin
expuesto por Chayes (1976), cuando nos advertía embargo, la memoria humana es finita y limitada,
que el juzgador no puede actuar aislado del en- así que carece de precisión matemática y los cálcu-
torno social y las decisiones que este toma en los los estadísticos humanos, fundamentados en me-
litigios de interés público son fruto de un diálogo taanálisis, suelen acabar incurriendo en sesgos de
natural, permanente e inevitable con otros ele- confirmación, de comodidad y anclaje o de discri-
mentos sociales y políticos –académicos, prensa, minación, entre otros. Las circunstancias que afec-
el Poder Ejecutivo, el legislador, agencias adminis- tan a la credibilidad del testimonio de las personas
trativas y el público en general–. son parcialmente objetivables (Nieva Fenoll, 2018,
p. 81), lo que significa que estas podrían digitalizar-
Los jueces también tienen ideología y se rigen por se o traducirse en lenguaje de programación.
motivos ideológicos (Posner, 2011). Sería falaz no
reconocerlo, aunque otra cosa bien distinta es El problema pasa por el cómo, puesto que cons-
que hayan recibido una formación que les permite truir una herramienta que recoja todos los datos
tomar decisiones basadas en la ley y en la inter- del caso concreto y que los combine adecuada-
pretación que un jurista puede hacer de esta. Esta mente para valorar la credibilidad de la declara-
288 THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. ISSN: 1810-9934
ción no es una tarea fácil. Buena muestra de ello recuerdos y las mentiras inconscientes que son,
ser aplicada para descartar preguntas dirigidas mente en tres sentencias conocidas como la trilo-
por parte de los interrogadores o preguntas que gía Daubert3 y que han supuesto la modificación,
de fondo impliquen valoraciones profundamen- en 2011, del artículo 702 de las Federal Rules of
te subjetivas, que obligan de facto al declarante Evidence, cuyos efectos se proyectan incluso en
a asumir inconscientemente ciertas premisas, los criterios doctrinales y jurisprudenciales que
excluyendo así las preguntas no neutrales del ayudan al juez español a valorar la prueba pericial
interrogatorio. Finalmente, la aplicación de la IA más allá de la regulación sobre la valoración de la
a la neurociencia en el seno del proceso penal prueba contenida en el artículo 348 de la Ley de
(Balbuena Pérez, 2017; Julià Pijoan, 2020) es otro Enjuiciamiento Civil (2000) (en adelante, LEC).
campo de gran recorrido, si bien este ámbito de-
bería ser explorado con las mayores cautelas po- Respecto a la valoración del currículo, es evidente
sibles por la imposibilidad de detectar los falsos que los sistemas de procesamiento masivo pueden
3
Nos referimos a las sentencias de la Corte Suprema de los Estados Unidos, Daubert c. Merrell Dow Pharmaceuticals
(1993); General Electric Co. c. Joiner (1997); Kumho Tire Co. c. Carmichael (1999).
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592 289
INTELIGENCIA ARTIFICIAL Y VALORACIÓN DE LA PRUEBA: LAS GARANTÍAS
JURÍDICO-CONSTITUCIONALES DEL ÓRGANO DE CONTROL
indicar información muy relevante, detectando de la prueba. Mientras la función jurisdiccional esté
THEMIS 79 | Revista de Derecho
plagios o descubriendo méritos aparentes. Más reservada a jueces, siempre necesitaremos contar
allá de la creación de fórmulas o reglas lógicas que con la participación decisiva del juzgador, quien,
detallen un porcentaje de expertise determinado, además, debe ser el humano al frente del sistema
los sistemas de IA también pueden leer los traba- experto de IA en el ámbito de los llamados sistemas
jos y aportaciones previas del supuesto experto Human in Command (en adelante, HIC) o, en caso
para determinar si este realmente lo es, identifi- contrario, debe poder decidir si aplica y cómo los
cando la creatividad y originalidad de sus aporta- resultados y proyecciones que este ofrezca.
ciones (Nieva Fenoll, 2018, pp. 94-95).
En este ámbito, los sistemas de IA no pueden ser
En relación con los criterios Daubert, el principal ni implicar una black box, tampoco serian admisi-
reto es el digitalizarlos o automatizarlos. Parece bles los sistemas técnicos basados en aprendiza-
evidente que un sistema experto de IA, en su mo- jes autónomos o deep learning. Estos avances no
dalidad más simple, de aplicación de algoritmos son aplicables a la institución procesal por tratarse
con reglas lógicas, bien podría resultar de utilidad de técnicas que no permiten acceder con publici-
a tal efecto, con los efectos benéficos de poder ex- dad y transparencia real al código, que cambia o
plicar el funcionamiento de la máquina con trans- muta constantemente en función de diferentes
parencia y publicidad. Por el contrario, un modelo parámetros y que, además, no es explicable ni ne-
de aprendizaje autónomo profundo o deep lear- cesariamente razonable desde la óptica humana.
ning no permitiría tal extremo, al evolucionar el No se trata tanto de que esos códigos no puedan
algoritmo dentro de la llamada black box. De esa publicarse, sino que, si se trata de sistemas de
manera, una vez expulsada la posibilidad de los aprendizaje autónomo, probablemente no vamos
sistemas de deep learning, nos queda observar el a ser capaces de explicar o comprender las reglas
núcleo de lo que se pretende automatizar. Los cri- lógicas, si es que estas existen, que hay detrás del
terios Daubert podrían simplificarse en el estudio mismo. Ni siquiera su creador o programador, es
o análisis de cinco ítems en relación con la prueba decir, quién lo diseñó en origen y quién escribió el
pericial: que la técnica siga un método científico código, sería capaz de explicar los resultados, valo-
verificado empíricamente; que sea pública y haya raciones y decisiones que toma la máquina.
sido objeto de revisión por otros expertos; que in-
dique el grado o porcentaje de error; que manten- A. Sesgos de la IA y problemas de aplicación
ga estándares y controles sobre la fiabilidad de la práctica
técnica; y que exista cierto consenso en la comuni-
dad científica acerca de la técnica empleada. Como Veamos un ejemplo de cómo los sistemas de IAJVR
se observa, son criterios que podrían ser aplicados se han introducido en el ámbito del derecho penal
por sistemas expertos de IA programados ad hoc; sustantivo y procesal para determinar cuestiones
de hecho, como señala Nieva Fenoll (2018, p. 97), tan relevantes como para fundamentar la libertad
parecen haber sido configurados realmente para condicional, la condena a una pena de prisión de
construir un algoritmo sobre ellos. larga duración o la imposición de una medida de
seguridad (Romeo Casabona, 2018, pp. 48-55.;
III. TRANSPARENCIA DEL ALGORITMO E INDE- Martínez Garay, 2018). Me refiero al caso Estado
PENDENCIA JUDICIAL: PAUTAS Y CRITERIOS de Wisconsin c. Loomis (2016), en el que el Tribu-
PARA LA CREACIÓN DE UN ORGANISMO DE nal Supremo de ese Estado resuelve el caso de un
CONTROL particular, Eric Loomis, que había sido acusado de
cinco delitos por participación en un tiroteo efec-
El empleo de sistemas expertos de IA en sede ju- tuado desde un vehículo. Para lo que aquí intere-
dicial nunca sustituirá a la persona (Nieva Fenoll, sa, el juez de instancia aceptó la conformidad del
2018; Simón Castellano, 2021b). Principalmente, investigado y al concretar la pena tuvo en cuenta,
porque no pueden superar el mandato constitu- entre otras cosas, el contenido de un presentence
cional del artículo 117 de la Carta Magna española investigation report basado en el resultado de la
(Constitución española, 1978), el cual señala que evaluación de Eric Loomis mediante la herramien-
solo jueces y magistrados pueden juzgar y hacer ta COMPAS, que, como se mencionó anteriormen-
ejecutar lo juzgado. Un androide o máquina no te, utiliza IAJVR. Esta arrojaba con relación a Eric
puede –por ahora–, ni debe –en el futuro–, ha- Loomis un riesgo alto de reincidencia, en general, y
cerlo. Sin embargo, lo anterior no significa que no de reincidencia violenta, en particular. El juez con-
se puedan emplear sistemas expertos de IA como denó a Loomis a una pena de seis años de prisión y
apoyo a determinados procesos judiciales, como otros cinco de supervisión post penitenciaria, razo-
para la adopción de decisiones tan significativas nando que la pena es el resultado de la valoración
como la prisión provisional (Simón Castellano, de distintos factores, entre los que se encuentra
2021b), la libertad condicional o para la valoración el riesgo extremadamente alto de reincidir que le
290 THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. ISSN: 1810-9934
atribuye la herramienta COMPAS, excluyendo la IA en el seno del proceso penal. ¿Cómo se defiende
Los efectos de la sentencia Estado de Wisconsin c. personas legas, que no saben ni conocen qué es un
Loomis son realmente preocupantes, puesto que procedimiento judicial, ni lo han visto, ni saben los
esta práctica ha sido aceptada y confirmada en problemas diarios de los juzgados5. Tomarán deci-
otros Estados. Además, como bien señala el voto siones e impulsarán desde el más absoluto vacío,
particular a la sentencia, esta doctrina es muy in- el de la ignorancia y falta de conocimientos sobre
satisfactoria al producirse en un contexto en el que qué necesitan nuestros juzgados y tribunales. No
cada vez más las decisiones serán materialmente se trata de corporativismo ni de nada parecido.
tomadas, parcial o totalmente, por los algoritmos y Si queremos introducir modernas tecnologías en
la programación basada en el código fuente apro- sede judicial parece evidente que deberíamos re-
bado (Romeo Casabona, 2018, p. 39-55). Sea como cabar y tener muy presentes en la Comisión que
fuere, la referencia nos sirve como muestra de los impulsa esa transformación digital a los principales
problemas que proyecta el empleo de sistemas de actores del proceso judicial.
4
Véase la Sentencia de Estado de Wisconsin c. Loomis (2016, párr. 19 & ss).
5
En esta misma dirección lo ha criticado la Asociación Profesional de la Magistratura (2020) en su cuenta de Twitter.
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592 291
INTELIGENCIA ARTIFICIAL Y VALORACIÓN DE LA PRUEBA: LAS GARANTÍAS
JURÍDICO-CONSTITUCIONALES DEL ÓRGANO DE CONTROL
legalidad desde el diseño del sistema de IA es el tión y control debe ser, precisamente, garantizar
que exige que jueces y magistrados, los principa- ciertos principios de naturaleza jurídico-constitu-
les actores de la valoración probatoria, participen cional que deberían inspirar todo el proceso. Es
de forma activa en el órgano de gestión y control ese órgano de control, integrado por juristas de
de aquel. De esa manera, cuando hablamos de un diversa procedencia que representan lo mejor de
órgano de control de los sistemas de IA en el ám- distintas profesiones, junto a otros perfiles mul-
bito judicial, el órgano de gestión pasa, a contrario tidisciplinares o interdisciplinares, de naturaleza
sensu de la realidad práctica de rabiosa actuali- técnica, quien debe garantizar en la practica la pu-
dad, necesariamente, por la implicación y partici- blicidad y transparencia6 de todo el proceso –no
pación de todos los actores y agentes implicados solo del sistema de IA, empezando por el detalle
en el proceso judicial. Una participación que debe de quién participa en el órgano de control y quién
producirse de forma integral cuando se trata de tiene el encargo o deber de vigilancia y supervi-
sistemas expertos de IA, es decir, desde el diseño sión concreto–, la trazabilidad7 del código de IAJVR
del algoritmo o código, hasta la gestión, control y –detalle de todas las acciones que llevan a cabo
mejora continua de este. todos los agentes con poderes de gestión sobre
el código o algoritmo, a modo de backlog o audit
Nada impide garantizar el control del sistema a tra- trail–, la explicabilidad8 –hacer fácil lo difícil, hacer
vés de una comisión que se reúna periódicamente, comprensible para una persona lega las principales
con independencia de su recurrencia –mensual, pautas y reglas lógicas que hacen que el algorit-
trimestral, semestral, etc–, mientras que la gestión mo proyecte esas estimaciones– y auditabilidad
diaria esté encomendada a responsables técnicos, –interna y externa, sometido al escrutinio y revi-
que reporten, y den cuenta de la vigencia y efecti- sión periódica de ojos expertos ajenos, que pue-
vidad de los controles y medidas técnicas-organiza- dan certificar eventuales vulnerabilidades o defi-
tivas establecidas desde la misma. Lo importante, ciencias en la configuración técnica del sistema–.
una vez más, es lo sustantivo, esto es que las fun-
ciones estén o deban estar claras, la incorporación Ese es el prius necesario para luego acompañar el
del control y gestión sobre todos los procesos que sistema de determinadas garantías: la impugnabi-
impliquen la digitalización y el apoyo mediante lidad del código, vehiculada a través de los recur-
sistemas técnicos a jueces y fiscales, incluidos los sos en el caso concreto, como parte del derecho
más modernos o revolucionarios, cuya principal de defensa, del derecho a recurrir9, del derecho
arista es precisamente los sistemas expertos de IA. a tener una segunda oportunidad10. En el ámbito
Además de las funciones, también deber ser clara de la IA para la valoración de la prueba, las par-
la determinación de quién integra la Comisión y tes deben poder recurrir y protestar las decisiones
cómo se adoptan sus acuerdos. adoptadas sobre la base de o en apoyo de los sis-
6
El Parlamento Europeo, al respecto, ha tenido la oportunidad de subrayar que todo sistema de inteligencia artificial
debe desarrollarse respetando los principios de transparencia y de responsabilidad algorítmica de modo que los seres
humanos puedan comprender sus acciones; y relacionado con lo anterior, indica que, a fin de generar confianza en la
inteligencia artificial y permitir el progreso de la misma, los usuarios deben ser conscientes de cómo se utilizan sus datos
personales, así como otros datos y datos derivados de sus datos, cuando se comunican o interactúan con un sistema
de inteligencia artificial o con humanos que se apoyan en un sistema de inteligencia artificial (Resolución del Parlamento
Europeo 2018/2088(INI), 2019, párr. 158).
7
El Parlamento Europeo, al respecto, ha tenido la oportunidad de subrayar que todo sistema de inteligencia artificial
debe desarrollarse respetando los principios de transparencia y de responsabilidad algorítmica de modo que los seres
humanos puedan comprender sus acciones; y relacionado con lo anterior, indica que, a fin de generar confianza en la
inteligencia artificial y permitir el progreso de la misma, los usuarios deben ser conscientes de cómo se utilizan sus datos
personales, así como otros datos y datos derivados de sus datos, cuando se comunican o interactúan con un sistema
de inteligencia artificial o con humanos que se apoyan en un sistema de inteligencia artificial (Resolución del Parlamento
Europeo 2018/2088(INI), 2019, párr. 158).
8
El legislador europeo ha destacado la importancia de poder explicar los resultados, los procesos y los valores de los sis-
temas de inteligencia artificial, de modo que resulten comprensibles para los destinatarios que no tengan conocimientos
técnicos y que se les proporcione información significativa, condición necesaria para evaluar la equidad y ganarse la
confianza (Resolución del Parlamento Europeo 2018/2088(INI), 2019, párr. 161).
9
También sobre este extremo se ha manifestado el Parlamento Europeo, que señala que las personas tienen derecho a
saber, derecho de recurso y derecho a reparación cuando la inteligencia artificial se utilice para decisiones que les afec-
ten y conlleven un riesgo significativo para los derechos o libertades individuales o puedan menoscabarlos (Resolución
del Parlamento Europeo 2018/2088(INI), 2019, párr. 153).
10
Son muchos los retos sociales derivados de los sistemas de IA predictiva e IAJVR de los cuales resultan estimaciones o
proyecciones que clasifican a los ciudadanos sobre la base de una elaboración de perfiles. En este ámbito, el Parlamen-
to Europeo ha subrayado la necesidad de que los ciudadanos no sean objeto de discriminación en función de su clasi-
ficación y que deben tener derecho a una “segunda oportunidad” (Resolución del Parlamento Europeo 2018/2088(INI),
2019, párr. 12).
292 THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. ISSN: 1810-9934
temas expertos, alejando cualquier tipo de duda Tercera.- La valoración de la prueba sin lugar a duda
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592 293
INTELIGENCIA ARTIFICIAL Y VALORACIÓN DE LA PRUEBA: LAS GARANTÍAS
JURÍDICO-CONSTITUCIONALES DEL ÓRGANO DE CONTROL
Babuta, A., Oswald, M., & Rinik, C. (2018). Machine Cerrillo i Martínez, A. (2019). El impacto de la in-
THEMIS 79 | Revista de Derecho
Calders, T., Kamiran, F., & Pechenikiy, M. (2009). De Miguel Beriain, I. (2018). Does the use of risk as-
Building classifiers with independency cons- sessments in sentences respect the right to due
traints. 2009 IEEE International Conference on process? A critical analysis of the Wisconsin v.
Data Mining Workshops, 13-18. https://doi. Loomis ruling. Law, Probability and Risk, 1(17),
org/10.1109/ICDMW.2009.83 45-53. https://doi.org/10.1093/lpr/mgy001
294 THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. ISSN: 1810-9934
Ekman, P. (2011). Cómo detectar mentiras: una Gómez Manresa, F., & Fernández Salmerón, M.
guía para utilizar en el trabajo, la política y la (2019). Modernización digital en la administra-
pareja. Paidós. ción de la justicia. Aranzadi.
Ercilla García, J. (15 de diciembre de 2020). Auto- González Fuster, G. (2020). Artificial Intelligence
matización de la justicia: un ejemplo práctico. and Law Enforcement - Impact on Fundamental
Diario La Ley. https://diariolaley.laleynext.es/ Rights. European Parliament Think Tank Study.
Content/Documento.aspx?params=H4sIAAA- https://www.europarl.europa.eu/thinktank/
AAAAEAMtMSbF1CTEAAmNDCzMjI7Wy1KLizP e n / d o c u m e n t . h t m l ? r e fe r e n c e = I P O L _
w8WyMDIwNDQ0MLtbz8lNQQF2fb0ryU1LTM STU(2020)656295
vNQUkJLMtEqX_OSQyoJU27TEnOJUtdSk_Pxs-
FJPiYSYAALhfL5tjAAAAWKE Harari, Y. N. (2018). 21 lecciones para el siglo XXI.
Debate.
Executive Office of the President National Science
& Technology Council Committee on Technolo- HarvardCPL (14 de febrero de 2014). Daniel Kah-
gy. (2016). Preparing for the Future of Artificial neman, in conversation with Cass Sunstein
Intelligence. https://obamawhitehouse.archi- [video]. Youtube. https://www.youtube.com/
ves.gov/sites/default/files/whitehouse_files/ watch?v=NUvoEXGD7bE.
microsites/ostp/NSTC/preparing_for_the_fu-
ture_of_ai.pdf IT-POL (19 de junio de 2019). Danish DPA approves
Pere Simón Castellano
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592 295
INTELIGENCIA ARTIFICIAL Y VALORACIÓN DE LA PRUEBA: LAS GARANTÍAS
JURÍDICO-CONSTITUCIONALES DEL ÓRGANO DE CONTROL
Miró Llinares, F. (2018). Inteligencia artificial y jus- (2021b). Justicia cautelar e inteligencia arti-
ticia penal: más allá de los resultados lesivos ficial. La alternativa a los atávicos heurísticos
causados por robots. Revista de Derecho Penal judiciales. J. M. Bosch Editor.
y Criminología, 20, 87-130.
Souza de Menezes, C., & Agustina, J. (2020). Big
Myers, D. G. (2002). Intuición. El poder y el peligro Data, Inteligencia Artificial y policía predicti-
del sexto sentido. Paidós. va. Bases para una adecuada regulación legal
que respete los derechos fundamentales. En D.
Nieva Fenoll, J. (2010). La valoración de la prueba. Dupuy & J.G. Corvalán (dirs.), & M. Kiefer
Marcial Pons. (coord.), Cibercrimen III inteligencia artificial,
automatización, algoritmos y predicciones en
(2018). Inteligencia artificial y proceso judicial. el derecho penal y procesal penal (pp. 137-
Marcial Pons. 182). Editorial B de F.
Perea González, A. (24 de junio de 2020). Tercer Taruffo, M. (2002). La prueba de los hechos (J. Fe-
Poder: la Justicia ante la oportunidad o el pre- rrer Beltrán, trad.). Trotta. (Obra original publi-
cipicio. Diario el Mundo. https://www.elmun- cada en 1992).
do.es/opinion/columnistas/2020/06/24/5ef32
7c921efa062678b45f8.html Valero Torrijos, J. (2019). Las garantías jurídicas de
la inteligencia artificial en la actividad admi-
Ponce Solé, J. (2019). Inteligencia artificial, Dere- nistrativa desde la perspectiva de la buena ad-
cho administrativo y reserva de humanidad: ministración. Revista Catalana de Dret Públic,
algoritmos y procedimiento administrativo de- (58), 82-96. http://dx.doi.org/10.2436/rcdp.
bido tecnológico. Revista General de Derecho i58.2019.3307
Administrativo, 50.
Vázquez Rojas, C. (2015). De la prueba científica a
Posner, E. A. (2011). Cómo deciden los jueces la prueba pericial. Marcial Pons.
(V. Roca Pérez, trad.). Marcial Pons.
Zarsky, T. (2016). The Trouble with Algorithmic
Richardson, R., Schultz, J. M., & Crawford, K.
Decisions: An Analytic Road Map to Examine
(2019). Dirty Data, Bad Predictions: how Civil
Efficiency and Fairness in Automated and Opa-
Rights Violations Impact Police Data, Predictive
que Decision Making. Science, Technology, &
Policing Systems, and Justice. New York Univer-
Human Values, 41(1), 118-132.
sity Law Review, (94), 15-55.
296 THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. ISSN: 1810-9934
Daubert c. Merrell Dow Pharmaceuticals, 509 U.S. Orden JUS/1179/2020, de 4 de diciembre, por la
THĒMIS-Revista de Derecho 79. enero-junio 2021. pp. 283-297. e-ISSN: 2410-9592 297