Está en la página 1de 43
Inteligencia artificial y proceso judicial ieva Fenoll Quedan rigurosamente prohibidas, sin la autorizaci6n escrita de los titulares del «Co- pyright», bajo las sanciones establecidas en las leyes, la reproduccién total o parcial de esta ‘obra por cualquier medio o procedimiento, comprendidos la reprografia y el tratamiento informético, y la distribucién de ejemplares de ella mediante alquiler o préstamo publicos. © Jordi Nieva Fenoll © MARCIAL PONS EDICIONES JURIDICAS Y SOCIALES, S. A. San Sotero, 6 - 28037 MADRID (91) 304 33.03, wwwmarcialpons.es ISBN: 978-84-9123-583-5 Depésito legal: M. 28.845-2018 Disefio de la cubierta: ene estudio grafico Fotocomposicién: Josur TRATAMIENTO DE TEXT0S, S. L. ImpresiOn: ARTES GRAFICAS HURTS, S. A. C/ Antonio Gaudi, 15 Poligono Industrial El Palomo - 28946 Fuenlabrada (Madrid) MADRID, 2018 LA IMPRONTA DE LA INTELIGENCIA ARTIFICIAL EN EL PROCESO Hace tiempo que la inteligencia artificial’ est4 aplicéndose al pro- ceso?, habitualmente de forma rudimentaria y en ocasiones de manera més avanzada’, pero casi siempre —salvo excepciones— varios pasos por detrés de los usos sociales de la misma, como acostumbra a suceder en el mundo del Derecho, lamentablemente tan ligado a la tradicién*. Testimonio de ello es, por ejemplo, el Reglamento (UE) 2016/679, del Parlamento Europeo y del Consejo, de 27 de abril, relativo a la protec- cién de las personas fisicas en lo que respecta al tratamiento de datos personales y a Ja libre circulacién de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de proteccién de datos). Dicho reglamento no contiene menciones al respecto del uso de la inteligencia artificial en los procesos judiciales. Quiz ello sea debido a una falta de conocimiento de lo que es la inteligencia artificial y, sobre todo, de las posibilidades que plantea. Con frecuencia se intentan copiar las funcionalidades que vemos en otros 4mbitos, cuando los mismos muy dificilmente son aplicables en el proceso. En realidad lo que existe es un mutuo desconocimiento. (Los 1 Su denominacién la debemos a J. MccarTiy e.., «A Proposal for the Dartmouth ‘Summer Research Project on Artificial Intelligence, August 31, 1955s, AI Magazine, vol. 27, 2006, 4, p. 12, http:/wvw.aaai orgojslindex.php/aimagazine/articletview/1904/1802 7? , Nissin, eLegal Evidence, Police Intelligence, Crime Analysis or Detection, Forensic ‘Testing, and Argumentation: An Overview of Computer Tools or Techniquese, 17 Int J. L. & Info. Tech., 2009, 1, p. 3. 3G, Suizor y L.K. Branrine, «Introduction: Judicial Applications of Artificial Intel- ligence», Artificial Intelligence and Law, 1998, 6,pp-105yss. “Vid, al respecto, E. Nissan, «Digital technologies and artificial intelligence's present and foreseeable impact on lawyering, judging, policing and law enforcement», AI & Society, 2015, p. 21 19 INTELIGENCIA ARTIFICIAL Y PROCESO JUprciy, jOLL sorDI NIEVA FEN por ejemplo, normalment, |, es decir, en la tramitaci jida automnatizable, 0 bier , es decir, en la biisqueda de risprudenciales. doctrinales y ju se intentarén distinguir con precision ambas ‘pisqueda de datos, por una parte, y la acti. ‘ciamiento, por la otra. Aunque serg inuaci i ividad no reviste mayor com. Mie a continuacién, la primera actividad i a aba 2 fo la segunda la que encierra més inedgnitas, aunque ello na quiere decir que esté completamente cerrada a la. inteligencia artifi- ne Pero para dar respuesta a esa cuestiOn ¥ saber si el enjuiciamiento cial Pefouna medida automatizable, es necesario saber primero lo que és la inteligencia artificial. esta obra ‘Alo largo de esta ¢ actividades: tramitacién y atyad mental que supone el enjui 1, NOCION BASICA Y PARAMETROS DE USO DE LA INTELIGENCIA ARTIFICIAL No existe un total consenso sobre Jo ave significa la expres én ie 1», pero sf que podria lecirse que describe’ unas ‘en slguna media spiensens4 0 ms pensamiento humano a base de aprender y utilizar las las personas usamos para tomar nuestras deci- dos sabemos que no es posible ver sin luz, por jo'que si una maquina detecta oscuridad, encendera las lamparas. Si tenbmos que conducir un automdvil, la experiencia demuestra que no tc positive el consumo de alcohol para el buen resultado del viaje, por Io que sila maquina detecta que hemos bebido, tomaré la decisién que hubiéramos debido tomar nosotros y no permitiré que el automévil arranque. Se podrian poner miles de ejemplos de lo que son decisiones falativamente simples y que pueden ser tomadas por una maquina. No hace falta recordar ni a HAL de 2001, A Space Odyssey, ni a un replicante de Blade Runner, ni a Terminator ni a David de Al ni a nin- gin otro personaje fantéstico. La inteligencia artificial es algo bastante Fras cotidiano de lo que quizA podemos pensar habitualmente, como ya se indic6. bien imiten’ generalizaciones que siones habituales. To * Acerca de su historia, es itil la lectura de R. LOrez DE MANTARAS BAD y P. MESEGUE Gonasten, neipeets atic, Madrid, 2017, pp. IB ss J. Kan. Inteligecia Arif Lo que todo el mundo debe saber, Zaragoza, 2017, pp. 15y ss. 70 Bele pregunta que se hacfa a inicio de su articul el pionero A. M. Tuxinc, «Comput- ing machinery and intelligence», Mind, 1950, 49, p. 433: «Can machines think?» oaege set lproplo Tua, Computing machinery and intelligence», op. cit, 20 1. LAIMPRE ‘ONTA DE LA INTELIGENCIA ARTIFICIAL EN EL. PROCESO Para funcionar, é = ‘cuando se dice el nowbre de , como hace un teléfono mretamente 0 cuando cere ae una persona a la que lama inme- jas, como la traduccién de un Reno di Tabi mas eee como la’ ‘ a : oe OURS que [pemos visto antes: si la temperatura es elevada, tengo Jo que conduciria ; eeondicionade) 0 llevar ropa ligera, por ejemplo, to que conduciria a la maquina a tomar una de las dos decisiones eva: iaterine de a deraieil el que debe actuar, si es al aire libre o es en el He agains privado, o en un edificio piblico. Naturalmen- eanaretacta cheeiarrome sp 4 los diferentes ambientes y las decisio- aE cae aaa t actuar adecuadamente. Si la maquina es capaz pomatdaidectsl ntan légicamente las posibilidades de la misma en la a de decisiones hasta poder llegar a la manipulaci6n de objetos 0 robética’, ‘“algoritmo®, que seria el esquema ejecutivo de la maquina que son muy sencillo: — Tengo hambre. Opci6n 1: Tengo dinero: Subopcién A: Compro comida. Subopci6n B: Ahorro y ayuno. Opcién 2: No tengo dinero: ‘Subopcién A: Ayuno. ‘Subopci6n B: Robo comida. Por supuesto, el esquema se puede complicar bastante, aunque fi- nalmente las diversas opciones mAs frecuentes quedarén en el esque- ma. (Caimbauinaine Hane praetlonments Hint jane de informacion, a diferencia de los humanos, que por alguna razon loda- via desconocida" olvidamos partes relevantes de la informacién que hemos ido adquiriendo a lo largo de nuestra vida. i ivencia, que precisa de la priorizacién dela es para que las decisiones no sean informaci : ‘de manera que el cerebro humano sea capaz de compi- tan complejas, 7 Vid, sobre estos puntos, A. Gafcta SERRANO, Intligencia Artifical Fundamentos, prc. tica y aplicaciones, Madrid, 2016, pp. 2 y 8s. Fee rccctén de salgoritmo» es sumamente interesante Ia lectura de CowoGHO, tuove recnologie e disponibilita della prova, op. eit, pp. 331 y ss. Nuowe teenage aeare, The mysteries of remote memory», Phil Trans. R, Soe. 018 2, tp /rstb.royalsocietypublishing “orglcontentvoyptb/373/1742/20170029 full pdf 2 B373, JORDI NIEVA FENOLL INTELIGENCIA ARTIFICIAL ¥ ROCESO rp, L Jarlas para tomar la decisi6n adecuada". Pero esa necesidad o lim; cién no la tiene habitualmente una m4quina, aunque a ratos se cola, lita. precisamente, por la acumulacién de datos que tiene que cal mismo tiempo. Paces Tampoco «aprende» una maquina, aunque gracias sobre todo a las a ese de que riiga supuesto de hecho es potencialmente unico" » cake que weslenten situacién enjuiciable similitudes con casos prece. dentes que el juez también tiene en cuenta para juzgar ©! caso presente, (ene: a curriendo a su memoria o bien a la jurisprudencia o a di- bien SSfentes que le pueden dar noticia de como se desarrollaron esos asuntos anteriores. que ya se han desarrollado algunas herramientas igs hechos bas4ndose en los vestigios ya exi fueron claves en la investigacién: Es por ello por lo qu que ayudan a reconstruir lo tentes® que en casos anteriores or of con esas herramientas se huye de la obsesiva persecucién de la «confesién» del reo, que solo tenfa sentido én el antiguo sistema legal de valoracién de la prueba —en el que era , Jueces para la democracia, 2010, 68, pp. 51 y ss. Dicss y Péxez Mata, Fil prueba de identificacion desde la Psicologia del testimontow, en AVY, Identificaciones 27 INTELIGENGIA ARTIFICIAL Y PROCESO rye ‘También esté desarrollandose la tecnologia qn, i i do objetivo”, sin d. fuar esas circunstancias de un mo sin dee seme la emotividad de la observaci6n judicial al respecto. Mas adelante se analizaré la eficiencia de todo ello. JORDI NIEVA FENOLL C) Ena argumentacién elaspecto en que los resultados de saromepions ‘se centran ia na ver en directo cémo dandosele que a cu: eet ee ser humano le llevarta reunir y leer. ¥ est disponible desde 2014. Probablemente, son ;presiol meses, Si no afios, Sin embargo, argumentar, especialmente en materia jurfdica, no es tan sencillo, porque requiere una importante labor de persuasién*! que no depende —al menos no siempre— de variables previsibles, Y es que en el sentido de que simplement ‘asos anteriores**. , como “podria : cuando no se trata de un caso paradigmatic, aunque debe reconocerse que la mayoria lo son, por que los supuestos que se plantean en la préctica suelen ser reiterativos, como no puede ser de otra forma. Y es que justamente en ese punto se basa la eficacia de las propias leyes como concepto. Las leyes son pro- posiciones que generalizan situaciones de la realidad. Silas mismas no se repitieran en bastantes ocasiones, las normas jurfdicas resultarfan ineficientes. fotogréficas y en rueda de reconacimiento: un andlisis desde el Derecho procesal penal y la Psicologia del testimonio, Madrid, 2014, pp. 36 y s. » Nissan, «Digital technologies and artificial intelligence’s present and foreseeable im- Pact gn lawyering, judging, policing an law enforcement, op. ct, p. 5 © «IBM's Watson What's next Debating», en wun youtube.com/warch>v=sEf0GLyrP9U. Consultado el 14 de marzo de 2018, me mt ‘4 M, ATIENZA, Curso de argumentacién juridica, Madrid, 2013, p. 649. B.C. Lastsnooxe, «Legal Reasoning and Artificial Intelligence», Loyola Law Review, 1988, 34 (2), p. 288. “ £,R SUNSTEIN, «Of Artificial Intelligence and Legal Reasoning», University of Chi- ago [aw Schoo! Roundtable, 2001, 8 (1), pp. 29s. a “4 a PRAKKEN, «Formal systems ion dialogue», The Knowledge Engineer ing Roview,2006,pp. Lyte, son Gialoguen, The 1 28 1, LAIMPRONTA DE LA INTELIGENCIA ARTIFICIAL EN EL PROCESO Desde luego, nunca podré despreciarse la labor del intérprete: dado que ni los casos serdn siempre iguales ni las interpretaciones de la nor. ar son finitas como las caras de un dado, sino que estando sometidas siempre a los argumentos histérico y teleol6gico, por ejemplo, las leyes siempre abriran nuevas puertas para adaptarse a nuevos casos concre- tos, lo que no ocurriria si simplemente se utilizara el argumen'o 2°. matical o incluso el argumento I6gico, que si que son més facilmente sistematizables. Por ello, I cae En toda esta materia existen numerosos y como las pecenee ud aE los p= ni 9s eniell) tos acompafi: c como sucedié en una investigacién acerca de las sentens Tribunal Europeo de Derechos Humanos partiendo de los hechos Sometidos a examen‘®. También se ha trabajado en el campo del razo~ Soimiento factico de los jurados, tan dependiente de los modelos men- tales”. modelos que pueden ser automatizados examinando las reac- Giones previsibles de los jurados ante determinados hechos“, lo que, Saturalmente, puede trasladarse a los jueces. Asimismo, a que pu 4 cirares fesastrosos, como se verd mas adelante. Pero, como se ha dicho, esos andlisis no demuestran que los jueces no sean necesarios, sino que cuentan con una herramienta que les asis- Ted en su juicio y que, ademés, puede también ayudar a los abogados a ‘entar mejor, lo que sera necesario si se quieren superar los ritmos de la herramienta. “® Avante, NiBLETT y YooN, «Law in the futures, op. cit, P. 3. eee te, D, Isazaratsanis y D. PREGTIUC-PIETRO, Predicting judicial decisions of the Burvpcon Court of Human Rights: A natural language processing perspective, Peer Com- puter, 2016. 7, 2016. nson-Laino, «Mental Models and Probabilistic Thinking», Cognition, 1994, 50, pp idl y a8, D. Kanneuansy A, TERSRY, «Variants of uncertainty, Cognition, 1982, 11, 2o ees a2 R. NISBETT y 1, Ross, Human Inference, Strategies and Shortcomings of Socal Jeigement, Englewood Cliffs, NI, Prentice Hall, 1980, pp. 126-127 Sent rexen, «Uncersain Reasoning About Agents’ Beliefs and Reasoning», Artificial Intelligence and Law, 9 de diciembre de 2011, P. 7. Te a “Analysing Reasoning about Evidence with Formal Models of Argumen- tations, Law, Prob. & Risk, 2004, 3, pp. 33 ¥ ss. °2 W. Auaven y K_D, ASHLEY, «Evaluating a Learning Environement for Case-Based Ar gumentation Skills», ICAIL, 1997, pp. 170, ss. a Niscan, «Digital technologies and artificial intelligences present and foreseeable im- pact on lawyering, judging, policing and law enforcement», op. cit, p. 10. 29 JORDI NIEVA FENOLL INTELIGENCIA ARTIFICIAL ¥ PROCESO ruDieqy, a P z : mismas. Como apuntan vario: sible que en el futuro no 0, como ya se ha dicho, ir mas al s entusiastas de la inteligencia artificial, es po. hagan falta mas hues que ste sino quiza or ver. Pero sf que ser imprescindible que tengan rey aival de exedlencla para poderse salir del caso habitual en sus apreciaciones, yendo més all de las posibilidades de la herramienta, porque de lo contrario no serén competitivos. También se observar cémo las decisiones judiciales son mds previsibles en general, lo que permitiré realizar un mejor cdlculo de riesgos antes de empezar un pro- ceso. El [IBM's Watson Debater® es una herramienta a la que se le plan- tea un tema de debate, analiza los textos disponibles en la web sobre la materia, selecciona los argumentos que parecen mds s6lidos —proba- blemente, entre otras razones, por ser los més repetidos— y los expresa enun lenguaje natural. Basdnidose en el mismo sistema, pero disponien- do de bases de datos especializadas, la herramienta ROSS INTELLI- GENCE hace una labor parecida sugiriendo informacién precisa sobre el caso 0 calculando tasas de éxito". En consecuencia, la inteligencia artificial haré que la labor de per- suasién sea menos ardua, al poderse recopilar con mucha mayor faci- lidad la informacién disponible y los argumentos a favor y en contra de las diferentes opciones y, como ya se dijo, no estar4 condicionada por las emociones 0 sentimientos, sino que integrara solamente datos objetivos*. Pero, no obstante, conviene no engafiarse. Como veremos después, son precisamente esas emociones las que son mas dificiles de imitar para una mAquina, puesto que no dependen de variables siempre l6gi- cas y, en cambio, son necesarias en el razonamiento juridico. Es cierto, no obstante, que la mayor parte de las situaciones que despiertan emo. ciones se pueden sistematizar, y hasta intentar elaborar algoritmos con las mismas, de modo similar a como hacemos también los seres huma- nos al utilizar nuestra empatfa avanzéndonos a las reacciones de los & Vid. BeN-ARs, FRIsi, LazovSKI, ELDAN y GREENBAUM, «Artificial Intelligence in the Practice of Law: An Analysis and Proof of Concept Experiments, op. cit, p. 31. Vid. también hutps/hioww: youtube.com/watch?v=7g59PIbGhY. ® Vid. otros programas similares en BEN-ARI, FRISH, LAzovkI, ELDAN y GREENBAUM, Artificial Intelligence in the Practice of Law: An’ Analysis and Proof of Concept Experi- ment», op. cit, pp. 32 ss. También NissaN, «Digital technologies and artificial intelligences present and foreseeable impact on lawyering, judging, policing and law enforcement», 9p. cit. pp. 9, 13. McGinnis y Pearce, «The Great Disruption: How Machine Intelligence Will Transform the Role of Lawyers in the Delivery of Legal Services», op. cit, p. 3052. % McGuinis y Pearce, «The Great Disruption: How Machine Intelligence Will Trans- form the Role of Lawyers in the Delivery of Legal Services», op. cit, p. 3042. NISSAN, «Digital technologies and artificial intelligences present and foreseeable impact on lawyering, judg- ing, policing and law enforcement», op. cit, p. 7. 30 L_LAIMPRONTA DE LA INTELIGENCIA ARTIFICIAL EN EL PROCESO demés. Pero no todos los seres humanos responden de la misma fora a estimulos idénticos. Ademés, no se puede dejar de lado que los algo- ritmos de la inteligencia artificial contienen unas informaciones que ya se han visto afectadas por las emociones a la hora de ser recopiladas. La trascendencia que todo ello tenga la veremos en los préximos capitulos. 3, LiMITES DE LA INTELIGENCIA ARTIFICIAL Antes de seguir avanzando, y tomando por base lo ya explicitado, aunque sea arriesgado deben establecerse los limites que con bastante seguridad encontrar la inteligencia artificial en todo momento futuro. Como ya hemos visto, en materia procesal debe distinguirse entre Ja tramitacién y biisqueda de datos, por una parte, y la actividad mental que supone él enjuiciamiento por la otra. En la primera, la inteligencia artificial alcanzara siempre resultados superiores a los que podria conseguir cualquier ser humano. La magnif- ca eficiencia de las primeras investigaciones no es sorprendente. Una he- rramienta de inteligencia artificial va a compilar informaci6n de manera correcta con una eficacia inigualable para la mente humana, similar Jas operaciones de una calculadora. Y la va a clasificar siempre con posi- bilidades de que algin dato quede dispuesto erréneamente, pero no con mds errores, de nuevo, que un ser humano. Por tanto, en la labor de cla- Sificar documentos, revisarlos en averiguacién de datos precisos, o bien én la busqueda de jurisprudencia o normas juridicas aplicables al caso conereto, la inteligencia artificial ser4 —de hecho, ya es— extraordina- Hiamente eficaz, hasta el punto de que se acabaré confiando en la misma por defecto. Los errores que he anunciado cada ver. sersin menores. Igualmente, en materia procedimental seré extraordinariamente efi ciente. La inteligencia artificial hara que se pase de‘una fase a otra del procedimiento automaticamente sin mayor dilacién, pudiendo el juez ee todo momento detener la maquinaria y las partes solicitar ese par6n; pero, de no hacerlo, el curso del proceso seré fatal. Y ante semejante Preacia, es posible que vuelva a ganar terreno la escritura en los proce- Gimientos, porque facilita el trabajo de las herramientas de inteligencia Srtificial, aunque en un futuro mas lejano es posible que las informa- Giones puedan ser orales sin necesidad de redactarlas. En todo caso, las agendas de los juzgados serén previsibles y podran adaptarse con mayor fiabilidad las posibilidades de todo el aparato judicial, recursos mate- riales y humanos incluidos. Es factible que acaben perdiendo incluso sentido las normas de competencia territorial", al poderse trabajar a distancia en la mayoria de los casos. © Lo avancé ya en Nreva FeNoLt, Derecho Procesal Il. Proceso civil, Madrid, 2015, p. 25 be 31 ENOL INTELIGENCIA ARTIFICIAL ¥ PROCESO supIcy) JORDI NIEVA FI i i juiciamiento, au; isti ‘os en materia el enjuic Sune Distintos serdn los cambios ables modificaciones en esta materia indicé, los procedimient cgi tren Orta cal instant4neos. Y otros en es ae las oposicio. nes estén tasadas y precisen soporte documental, también. juiciami van a ser autométicos en ningén 1 resto de enjuiciamientos no van a ser n aon ‘Se werén asistidos por la inteligencia artificial onl i fries sefia- 5 i i lacie acién Tadas en los epfgrafes anteriores, es decir, recop! iene era AT spr nee ut ete ‘sus avances. Existiré muy probablemente la tentaci6n de sistematizar Sa eae los enjuiciamientos, como de hecho ya ocurre en la actualidad ain Ths modelos de resoluci6n, pero precisamente la inteligencia a ficial permitiré huir con més facilidad de esos modelos contemplando un panorama de la realidad mucho més amplio, escenario en el que Ia Eetervencin humana muy especializada ser fundamental, a fin de poder entender y relacionar las hipétesis que plantee la maquina. Por Eescontado, podré existir la tendencia a dar por buena, sin mas, una de fas hipétesis propuestas mecdnicamente, la que coincida con el pensa- miento del propio juez, que verd hecha de modo automatico su resolu- cién en el caso concreto. Pero para evitar ese automatismo cuando no sea aceptable y que harfa que, en realidad, la decision dependiera casi fntegramente de la maquina, habré que disponer medidas de preven- cién, como veremos més adelante. La raz6n es que la inteligencia artificial debe tener limites. Igual que no podemos dejar que domine el sistema de defensa militar de un Es- tado, tampoco le debemos conferir la tltima decision en un juicio. De hecho, esa seré la tltima frontera, aunque también hay que decir que no va a ser tan facil llegar a ella, como veremos después, a pesar de que en todo momento sf parecer que es realmente facil. Como ya se dijo, el razonamiento juridico es persuasivo, porque tiene que dar una res- puesta democratica a la sociedad que la misma pueda comprender, homologar e interiorizar. Esa persuasion podria llegar a mecanizarse paulatinamente conforme vayan perfeccionandose las posibilidades de la inteligencia artificial, pero no debe automatizarse por completo. De Jo contrario, asistiremos a un anquilosamiento de la jurisprudencia y probablemente de todo el ordenamiento juridico, que és todo lo contra- rio de lo que deberia permitir la inteligencia artificial, que precisamente deberfa estar orientada a vencer el tremendo peso regresivo que suele tener entre los juristas la «tradiciOn». La inteligencia artificial contribu- % Ben-Any, Frist, Lazovskt, ELDAN y GREENBAUM, «Artificial Intelligence in the Practice of Law: An Analysis and Proof of Concept Experiments, op. cit, p. oe Vid. Tarurro, Pdginas sobre justicia civil, Madrid, 2009, pp. 517-518. 32 1. LAIMPRONTA DE LA INTELIGENCIA ARTIFICIAL EN EL PROCESO ye y debe contribuir a la evolucién, y no debe servir para interrumpirla. Debe ser Util, asimismo, para descubrir y vencer los errores mas fre- cuentes de nuestro pensamiento, como veremos en el préximo capitulo, yen general en todo el resto del presente libro. 4. DECISIONES AUTOMATIZABLES A continuacién serdn expuestos los procedimientos o las fases del proceso que son claramente automatizables, sin perjuicio de que esa automatizacién pueda ir un dia més alld. Los que serén analizados en el siguiente epigrafe son los aspectos més obvios, que de hecho en algunos lugares ya son objeto de automatizacién. Y donde no lo han sido, estan a cargo de un personal que siempre hace exactamente lo mismo. Las fa~ ses que serén tratadas en el resto de epfgrafes no son tan obvias, aunque se vera como en manos humanas generan un alto grado, bien de auto- matismo, bien de arbitrariedad que deberia ser evitada precisarente a través de la inteligencia artificial. De ese modo, como veremos en otros pasajes de este libro, la inteligencia artificial correcta y selectivamente aplicada no solo no deshumaniza los procesos, sino que los hace cla- ramente més eficientes y evidencia la importancia de la intervencién humana en los mismos. Limitando el andlisis a las justicias civil y penal, existen diversos as- pectos que actualmente parecen complicados porque responden a varia bles y situaciones del pasado, pero que ya han perdido vigencia, aunque los legisladores no hayan reaccionado todavia en su mayorfa, Por ello, parece razonable comenzar con un breve compendio actualizador de ambos procesos, poniéndolos en el contexto actual, labor que quiz4 se hubiera podido hacer, no obstante, hace ya algiin tiempo. A) Una necesaria actualizacién y automatizacién procedimental Comenzando por el proceso civil, hay que empezar diciendo que perdida, en general, la antigua utilidad de la audiencia previa en la re- solucién de excepciones procesales** —fundamentalmente las antiguas dilatorias—, que casi nunca se plantean puesto que al existir la audien- cia previa ya no sirven —como antafio— para obstaculizar el proceso, la tinica razén util por la que se celebran vistas en el mismo es por la nece- sidad de prctica de la prueba que supone declaracién de personas. Y, si bien se mira, en la mayoria de procesos la prueba de declaracién de las partes no aporta absolutamente nada que no hayan dicho ya los aboga- 5 §§ 239 y ss, de la ZPO austriaca, en su version de 1895, hoy § 258. Vid. F. KusiN, Vor lesungen tiber die Praxis des Civilprocesses, Wien, 1900. 33 JORDI NIEVA FENOLL INTELIGENCIA ARTIFICIAL Y PROCESO supycig, dos en sus escritos. Si se sigue practicando sistematicamente es simple, mente por tradicién. La prueba testifical suele ser completamente in¢i] ante los tremendos problemas que existen para evaluar la credibilidag ae un testigo”. Finalmente, en ocasiones la tinica comparecencia itil en tn proceso sirve para formular preguntas a un perito a fin de que aclare un Hitmen. ¥ en la mayoria de procesos no son necesarios los dict4. shones periciales. Puede que un juez se quede con mayor sensacién de tranquilidad si escucha directamente a las partes y a algtin testigo, pero lo cierto es que, dejando al margen el factor humano que impresione a] juez dada la ‘emotividad de los declarantes, pocas veces deberia alterar ‘su juicio por haberlos escuchado. De hecho, no se suele hacer referencia en las motivaciones a esas declaraciones, simplemente porque suelen £2 ger relevantes, o bien su relevancia pasa desapercibida o resulta, en el peor de los casos, inconfesable. Por otra parte, con el estado actual de la tecnologia y dando por he- cho que la comparecencia de partes y testigos es marginal, y que todos Jos peritos podrian declarar perfectamente por videoconferencia desde su despacho profesional, no es precisa la presencia dispersa de drganos jurisdiccionales en todo el territorio de un Estado, sino que cabe con- sentrarlos en unas pocas sedes. E incluso dando por hecho que tomar {na decision de concentracién semejante podria ser politicamente po- Iémica, habria que ser conscientes de que gracias a las comunicaciones telemAticas podria encargarse de un proceso civil cualquier juez del Es- tado®. Ello, como ya se advirti6, deberia conducir a la abolicién de las hormas de competencia territorial, en beneficio de normas de reparto distributivas del trabajo jurisdiccional por criterios objetivos. Es verda- Geramente obvio que una decisién semejante optimizarfa la labor de los fecarsos humanos existentes, pero sobre todo, insisto, harfa inttiles las normas de competencia territorial. Y siendo asf, las demandas deberfan ser admitidas automaticamente, siendo entregadas a la contraria inmediatamente para su contestacién. ‘Solamente la solicitud de medidas cautelares harfa precisa la interven- cién humana en esta fase de alegaciones. Y tras Ja contestaci6n, de nue- yo esa intervencién del juez solamente se harfa precisa si se formulan excepciones procesales. ¥ hay que tener en cuenta que muchas de las Snismnas, las que pueden resolverse actualmente en una audiencia pre- via, también son automatizables. La falta de capacidad o de represen- tacjén depende de datos que constan en registros oficiales, tales como Ja menor edad, la representacién de sociedades de capital o las incapa- citaciones. Lo mismo sucede con la cosa juzgada o la litispendencia, = Aunque no es imposible valorar esa credibilidad. Vid. Nueva FEN 1a prueba, Madrid, 2010, pp. 264 y ss. oor feces @ Nuevamente, Nizva FENOLL, Derecho Procesal Il. Proceso civil, op. cit, p. 25. 34 1. LAIMPRONTA DE LA INTELIGENCIA ARTIFICIAL EN EL PROCESO pues requiriéndose en esta fase prematura una perfecta identidad de Jos objetos de los juicios para ser apreciada®, la misma podria ser tamn- bién automatizada. Algo parecido podria suceder con las situaciones de litisconsorcio necesario, si la jurisprudencia concretara con auténtica precisi6n los casos en que se produce. Y también podrfa acontecer algo similar con la inadecuacién de procedimiento, puesto que basta con que Ja maquina coteje lo solicitado con el procedimiento escogido, as{ como con la demanda defectuosa. ¥ es que, como ya se dijo, actualmente las méquinas ya interpretan los textos que «leen». Sila demanda es inteligi- ble, el sistema puede rechazar la excepcién automticamente, haciendo Jo opuesto en caso contrario. Igual que podria rechazar una acumula- cién improcedente de pretensiones, al menos en los casos mas obvios. ‘Tras todo ello ya vendrfa la parte probatoria, si es necesaria, y por supuesto la sentencia, fases en las que la intervencién humana es pre- cisa, aunque con las matizaciones que veremos més adelante, Es decir, igual que ahora, pero con un considerable ahorro de trabajo burocréti- co derivado de todo lo que se acaba de decir. Por otra parte, existen procedimientos muy sencillos en los que la intervencién humana simplemente no es necesaria. Como ya advertf anteriormente, sucede con todos los procesos que no tienen oposicién, Como los que concluyen con un allanamiento o con una simple incom- parecencia voluntaria del demandado. Ello sucede con gran frecuencia en los procedimientos de desahucio y otros posesorios en los que el jlegitimo poseedor simplemente no tiene raz6n alguna que oponer en el proceso para justificar su presencia. Pero también ocurre Jo mismo con los procedimientos monitorios que no son impugnados, que son la Snayorfa, Tampoco suelen ser tan polémicas las reclamaciones de con- sumo de baja cuantfa, que ahora no se formulan por temor del consu- midor a padecer un procedimiento lento y caro; con las condiciones de automatizacién que se estén describiendo se suprimirfa ese efecto SE aenomo. lo que en términos sociales serfa verdaderamente magnifi- co. E] uso de herramientas de ODR como MODRIA®, ya utilizada por Shay y PayPal, podria facilitar a répida resolucién de las reclamaciones. MODRIA® es una herramienta que propone al consumidor alternati- das de negociacion para evitar el proceso, pero que en caso de fracasar pueden condueir al inmediato cumplimiento de la empresa que prest6 @ slo tinico prudente en una fase tan prematura del proceso, Por ello lo dispone ast clare 421 dels Ley de Enjuiciamiento Civil espafiola: «Cuando el tribunal aprecie la pen- Sh deat juicie ola exstencia de resolucion firme sobre objeto idéntico, conforme a lo drones orcs apartados 2 y 3 del ariculo 222, daré por finalizada la audienciay dictaré, fen el plazo de los siguientes cinco dias, auto de sobreseimientos. 12 \pene Ant, Faust, LAZOVSKL, ELDAN y GREENBAUM, «Artificial Intelligence inthe Practice of Law: An Analysis and Proof of Concept Experiments, op. city p. 33. © jttpssnnow.tylertech.comisolutions products/modria. 35 JORDI NIEVA FENOLL INTELIGENCIA ARTIFICIAL Y PROCESQ, WIG, indebidamente el servicio. Hay que sefialar que esta herramienta res, ve sesenta millones de conflictos cada afio, divorcios inclusive, Aun, ie). todo hay que decirlo, con una importante intervenci6n humana en lag propuestas de mediacién. En el proceso penal, la automatizacién es mas compleja y Peligrose Alfiny al cabo, un delito no es algo tan frecuente como un conflicto ci y suele estar lleno de circunstancias personales —tanto del reo como de ia victima—— que deben ser consideradas cuidadosamente, incluso més cuidado que el actual. Es por ello por lo que al margen de lo que ser sefialado més adelante con respecto a las medidas cautelares y g la valoracion de la prueba, quiz4 lo vinico ciertamente automatizable serian las conformidades en los delitos menos graves que puedan juz. garse solamente con las informaciones policiales. No obstante, esa auto- matizacién no me parece conveniente. Los bienes jurfdicos del proceso penal exigen por parte de los jueces una comprobacién de la actividad policial en cuanto a su correccién, coherencia y ausencia de lesién de derechos fundamentales. Salvo en los casos més Iamativos, es dificil exigirle esa finezza a una maquina. B) Admisi6n de pruebas en el proceso civil La fase de admisién de pruebas es una de las grandes olvidadas por los tratadistas. Se practica enteramente de oficio, pese a lo cual no ha despertado suspicacias por parte de los grandes detractores de la prue- ba de oficio en el proceso, probablemente por haber pasado inadver- tida, Bien podrfan haber propuesto que se practicara toda la prueba alegada por las partes, sin intervencién judicial, como corresponderia con una aplicacién radical del principio de aportacién de parte. Pero no lo han hecho asi. Sea como fuere, Jo que se observa en la practica es que la actividad de admisin de las pruebas en el proceso civil padece de un cierto au- tomatismo. Lo que suele suceder es que se admite toda la documental aportada, sorprendentemente se admite siempre el interrogatorio de las partes, aunque no suela contribuir —como ya se dijo— a esclarecer ab- W. ENDEMANN, «Die Folgen freier Beweispriifung im Civilprozesses, AcP, 1858, 41, pp. 289 y ss A. Wac, «Der Ent einer deutschen CivilprozeBordnung», Kritische Viertel- jahresschrift fiir Gesetzgebung und Rechtswissenschaft, vol. 14, 1872, pp. 331 y ss. R. F. VON Eineremn, «Die Grundlagen des Beweisrechtse, 2ZP, 1880, 2, . 351. B. CAVALLONE, «En de- fensa de la verifobia>, en CavALLONE y TARUFFO, Verifobia, un didlogo sobre prueba y verdad, Lima, 2010, p. 31. J. MowreRo ARoca (con Gomez CoLomER y BARONA VitaR), Derecho juris: diccional, I, Valencia, 2012, p. 256. A. ALVARADO VeLL0so, La prueba judicial, Valencia, 2006, .25. CIPRIANI, «El proceso civil entre viejas ideologias y nuevos esléganes», en MONTERO ‘Azoca (coord.}, Proceso civil eideologéa. Un prefacio, una sentencia, dos cartas y quince ensa- yas, Valencia, 2006, p. 93. : 36 L._LAIMPRONTA DE LA INTELIGENCIA ARTIFICIAL EN EL PROCESO solutamente nada, se rechaza sistemdticamente el reconocimiento judi- cial que suponga traslado del juez de su sede, centrandose la tnica duda solamente en las pruebas testificales y periciales. ¥ ni siquiera realmen- te en estas tiltimas, puesto que al menos en Espaiia, donde prepondera él perito de parte —no asf el de designacién judicial—, los dictémmene™ peticiales acompafiados a la demanda y a la contestacién se admiten €omo un documento més. Y con la prueba testifical se suele limiter Jos testigos que al juez en el acto le parezcan relevantes, si es que Se han propuesto, lo que no sucede con tanta frecuencia con eficacia. Siendo todo ello ast, como se ve la actividad de admision es bastent® previsible y bien la podria hacer una méquina que admitiera la docu. Prental y la pericial, sin més, superdndose ya de una vez. la incémoda, y Hormalmente inconducente, presencia de las partes, que o dicen lo mis- mo que ya dijo su abogado, ya que fueron preparadas a tal efecto, © se equivocan y dicen lo contrario, lo que no es revelador de que mientan, ni teaicho menos, sino simplemente de que han cometido un error chapu- foro que puede ser fatal, y que siendo asf en absoluto tiene sentido que pierdan el proceso por el mismo. En consecuencia, como ya lo dispone la Ley de Enjuiciamiento civil espafola actualmente (art. 429.8), el proceso que solamente contiene cemno prueba documentos y dictamenes periciales, puede ser sentencia- Se cin mas dilaci6n, lo que podria ocurir, por cierto, desde la contesta- fon de la demanda si la prueba hubiera de pedirse —como ocurre en fauchos lugares y procedimientos— en la demanda y en la contestacion, wiendo una innecesaria audiencia para ello. Si ello sucede de esa for- faa, el proceso no necesitarfa intervencién humana hasta la sentence qagiued se podria establecer una fase de prueba de oficio, como las dili- gencias finales, aunque ampliando sus posibilidades, a fin de que el juez etidiera practicar prueba en los casos en que lo considerara necesario si Pee tividad probatoria de las partes fue insuficiente y no deseara aplicar con todo su rigor la carga de la prueba. C) Admisién y resolucién de recursos en caso de certiorari El Tribunal Supremo Federal de los Estados Unidos marcé una pau- ta Ptaeante —aunque a mi juicio inaceptable— en la admisién de eect, En la practica dicho tribunal admite de manera completa- TeCUTsOf gerecional los asuntos que desea, pero en teorfa existen unas Malas orientativas de cOmo se realizaré esta labor de admision. @ Existié una larga evolucién restrictiva de la admisién, que arranca con Ia Judiciary ‘ct de {391 (evans Act, continué después con la Judiciary Act de 1925 y finalmente se intro- deicga ia prdtica total dicrecionalidad del tribunal con la Supreme Court Case Selections Act de 1988. 37 JORDI NIEVA FENOLL INTELIGENGIA ARTIFICIAL Y PROCESO nye, the United States dispor les of the Supreme Court of ti ; ponen en rej Ja'10 que a revisién que puede operar el Tribunal Supremo no » im derecho del recurrente, sino que deriva, como se ha sefialado, 2 In discrecionalidad judicial. Y dicho esto, se enumeran unas raz¢nee orientativas de admisién‘: — Falta de jurisprudencia del Tribunal Supremo sobre una cuestién relevante de Derecho federal. — Jurisprudencia contradictoria entre dos de los doce Tribunales de apelacién (Courts of Appeals) en una cuestion relevante. — Jurisprudencia contradictoria entre un tribunal de apelacién y el tribunal de tiltima instancia de un Estado (state court of last resort), también en una cuesti6n de relevancia. — Jurisprudencia contradictoria entre un tribunal de ultima instan- cia del Estado, y otro tribunal de iltima instancia o un tribunal de ape- lacién, que verse sobre una cuestién federal de relevancia. — Contradiccién con la jurisprudencia del Tribunal Supremo, sobre una cuestién federal de relevancia, propiciada por un tribunal de apela- cién o por el tribunal de Ultima instancia de un Estado. — Alejamiento, por parte de un tribunal de apelacién, de la juris- prudencia habitual, de motu proprio, o bien confirmando una sentencia de un tribunal inferior, de manera que sea imprescindible la interven- cién del Tribunal Supremo. — Cuestién prejudicial de un Tribunal de apelacién, si se trata de un caso de tal importancia puiblica que justifique el planteamiento de dicha cuestién (regla 11)*. “ Ya era asf antes de dichas reglas. Vid. E, Suvestnr, Llaccesso alle corti di ultima istan- 1a: rilievi comparatistici, I Foro Italiano, Parte V, Roma, 1987, p. 285. © Rule 10. Considerations Governing Review on Certiorari. Review on a writ of certiorari is not a matter of right, But of judicial discretion. A petition for a-writ of certiorari willbe granted only for compelling reasons. The following, although ne- ther controlling nor fully measuring the Court's discretion, indicate the character ofthe reasons the Court considers: (a) a United States court of appeals has entered a decision in conflict with the decision of another United States court of appeals on the same important matter; has decided an important federal question in a way that conflicts with a decision by a state court of last resort or has so far departed from the accepted and usual course of judicial proceedings, or sanctioned such a departure by a lower court, as to call for an exercise of this Court's supervisory power, (b) a state court of last resort has decided an important federal question in a way that conflicts with the decision of another state court of last resort or of a United States court of appeals; (c). astate court or a United States court of appeals has decided an important question of federal law that has not been, but should be, settled by this Court, or has decided an important federal question in a way that conflicts with relevant decisions ofthis Court. A petition for a writ of certiorart is rarely granted when the asserted error consists of errone- ous factual findings or the misapplication of a properly stated rule of law». © «Rule 11. Certiorari 10 a United States Court of Appeals Before Judgment. ‘A petition for a writ of certiorari to review a case pending in a United States court of ap- peals, before judgment is entered in that court, will be granted only upon a showing that the 38 I. LAIMPRONTA DE LA INTELIGENCIA ARTIFICIAL EN EL PROCESO _Como se ha puesto de manifiesto, estas reglas son simplemente orientativas, pero ¢podrfan automatizarse? La mayoria de esos criterios son especialmente aptos para elaborar un sencillo algoritmo, como, elde Ja falta de jurisprudencia o la existencia de jurisprudencia contradicto- ria. No obstante, quizé el criterio que serfa més conveniente automati- zar es el de la importancia piiblica del caso en cuestién, hoy en dfa muy facilmente mesurable por su impacto en las redes. __En todo caso, lo que es importante entender es que el algoritmo ale- jarfa al certiorari del albur de los tribunales supremos y lo harfa, por fin, més previsible. En la actualidad es completamente imposible saber con antelacién si esos tribunales que practican el certiorari van a encontrar interesante un caso. Conociendo el algoritmo, igual que se conocen las pautas de actuacién de las referidas reglas 10 y 11, se aumentarfan las garantias de los justiciables en el proceso acerca del célculo de sus po- Sibilidades en el mismo. Y no dependerian ya del factor humano de los jueces, al menos alli donde se decida seguir practicando este sistema de seleccién de asuntos ante los altos tribunales. D) Ejecucién e inteligencia artificial Otro campo en el que la inteligencia artificial deberfa entrar decidi- damente es en la fase de ejecucion de las condenas pecuniarias sobre todo, Se trata de un periodo bastante previsible cuyo cometido, como ee sabido, es la localizaci6n y realizaci6n del patrimonio del ejecutado. £e decir, una actividad eminentemente administrativa® o de gestién, sin descartar los puntuales pronunciamientos jurisdiccionales que debe contener en ocasiones. Pero centrandonos solamente en la preponderante actividad de ges- tion, esta fase deberia desburocratizarse con Jas herramientas existen- tes hoy en dia, disponiéndose de manera general la incautacién de bie- hes del ejecutado que serfan liquidados cuanto antes, cada uno segiin el Betema de realizacion que fuera més apropiado, sea la subasta para los jnmuebles o muebles que puedan ser atractivos en webs especializadas —colocando los bienes en las mismas—, sea la directa entrega del dine- ro de las cuentas corrientes al ejecutante en Ja cuantia de la condena. Ello no solamente agilizara las ejecuciones, sino que harfa bastante case ts of such imperative public importance as to justify deviation from normal appellate practice and to require immediate determination in this Court». ey Caneenas LiANSANA, «Jurisdiccién exclusiva y excluyente del juez del concurso», Estudios sobre la Ley concursal: libro homenaje a Manuel Olivencia, t.2, Madrid, 2005, 1287, y del mismo autor, El embargo de bienes, Barcelona, 1957, pp. 95 yss. J. Nev. Feott, La cosa juzgeda, Barcelona, 2006, p. 139. Vid. también L. Rosensexc, H. F. GAuL y E. SCHILKEN, Zwangsvollstreckungsreckt, Minchen, 1997, pp. 11-13. 39 JORDI NIEVA FENOLL INTELIGENCIA ARTIFICIAL Y PROCESO sUDIcyq) més probable que el ejecutado se apresurara a posibilitar el inmediato cumplimiento, precisamente para evitar que la maquinaria automatiza. da se imponga sobre su patrimonio. Una de las novedades mds sorprendentes que introducirfa la inte. ligencia artificial en materia ejecutiva habria de ser la unificacién de embargo y apremio en una tinica fase. El embargo tiene sentido cuando la seleccién de bienes se hace de forma poco menos que artesanal, pero dicha seleccién serfa automatica si estuviera basada en algoritmos que sefialaren la mayor realizabilidad de algunos bienes, es decir, el mayor beneficio para el ejecutante, combinandola a la vez con el menor perjui- cio posible al ejecutado. Siendo ello asi, acabarfa por no tener sentido la espera propia del embargo, cuya finalidad es, sobre todo, la posible impugnacion del ejecutado de la afeccién de algunos bienes. Dejando una posibilidad mds estrecha a esa impugnacién —como se diré en el parrafo siguiente—, lo correcto ser4 pasar directamente a actividades de apremio, valorando el bien y ejecutandolo. De ese modo, la activi- dad ejecutiva obtendria su beneficio econémico de forma bastante més rpida que en la actualidad. En consecuencia, ya no habria actividades de embargo y de apremio, sino que todo formarfa parte de una tinica actividad ejecutiva. Quiere decirse con ello que se compilarfan en un tinico algoritmo to- das las inembargabilidades y todos los bienes realizables. ¥ estando de- bidamente sistematizados y clasificados todos los bienes en los respec- tivos registros puiblicos o privados —registros bancarios, por ejemplo—, Ta complejidad actual de la ejecucién se reducirfa muy notablemente. El sistema analizaria el patrimonio completo de cualquier ejecutado, como ya sucede con frecuencia en la actualidad gracias ala ayuda de los sistemas tributarios estatales, y realizaria mecdnicamente la seleccién correspondiente segtin lo ya previsto, sin intervenci6n judicial. El ejecu- tado seria informado previamente de ese plan de ejecucién, limitandose sus posibilidades a pagar de inmediato o a denunciar defectos econé- micos 0 juridicos en ese plan, cuya alteracién podria proponer a través de la misma aplicacién, alteracién que analizaria el propio sistema de inmediato, aprobandola si no es antieconémica o no posee un obstéculo juridico que la maquina no sea capaz de procesar, como puede suceder con més frecuencia en las condenas no pecuniarias, al depender en no pocas ocasiones de la valoracién subjetiva de un hacer, por ejemplo, lo que no suele ocurrir con las condenas pecuniarias. En consecuencia, aunque pueda sorprender la conclusién, la acti vidad ejecutiva es en muy buena medida automatizable. Si se consi- gue un sistema que obtenga una precisa informacién patrimonial de Tos ciudadanos, y se le introducen a los algoritmos todas las inembar- gabilidades, orden de prelacién de los embargos, modalidades de eje- Cucién y automética notificacién a los terceros interesados que surjan 40 1, LAIMPRONTA DE LA INTELIGENCIA ARTIFICIAL EN EL PROCESO de la informacién patrimonial recopilada, la descarga de burocracia ¥ la aceleracién de esta actividad acabar4 siendo sorprendente a ojos de un observador de hoy. ¥ en realidad no es tan complicado. Tercerfas de dominio y de mejor derecho acabardn siendo sustanciadas en el acto, sin suponer el obstaculo que hoy, en ocasiones, representan, aunque también es sabido que muchas veces se sustancian muy rapidamente al comprobarse la titularidad o la preferencia del crédito respectivamente, cosa que debiera hacer con much{sima mayor facilidad un sistema de inteligencia artificial correctamente configurado. Ya empiezan a existir sistemas que siguen esa linea, por cierto”. -® Vid. M. Kuouny Cuaumar, Der Einsatz von kinstlicher Intlligene in Berliner Justiz am Beispiel von Erewingungsverfahren, Berlin, 2015. 4 Il. ELEMENTO PSICOLOGICO DE LAS DECISIONES JUDICIALES E INTELIGENCIA ARTIFICIAL Se ha dicho, no sin motivo, que los seres humanos no somos tan ra- cionales como parecemos, en el sentido de que debiéramos ser siempre eficientes y consistentes, y sin embargo no lo somos, a diferencia de las méquinas', que ni se fatigan, ni se distraen o se aburren, ni tienen emo- ciones. Porello se ha llegado a afirmar, probablemente de forma un tanto pretenciosa, que en el futuro los jueces serdn cada vez. menos necesarios*. Pero, por otra parte, también se ha observado que los seres humanos somos cautométicos» en una mayor medida de lo que podemos pen- sar cotidianamente. La utilizacién escandalosa de nuestras querencias expresadas en las redes sociales se ha demostrado que es eficaz y que Girige tendencias, aunque nos pese?. Los mensajes que se publican en Gichas redes son obviamente manipulables, y consiguen en los seres hu- tmanos efectos previsibles, lo que hace que, en realidad, con frecuencia hos comportemos con similares automatismos a los de una méquina. de hecho nos cuesta cambiar esa forma de hacer. Los estudiosos del heuristico de anclaje y ajuste explican muy bien cmo nos empeiiamos on hacer sistemdticamente una y otra vez la misma cosa, aunque sea exrénea, como veremos después. Finalmente, esos mismos estudiosos, que como se vera son psicélo- gos del pensamiento, nos han acabado de bajar del podio de la natura- 7 7, Zevezwtxow, «Can Artificial Intelligence And Online Dispute Resolution Enhance Effcioney And Effectiveness In Courts?» Intemational Journal For Court Administration, mayo de 2017, p. 35. exc Ans Tuas, LAZOVSKL, ELDAN y GREENBAUM, «Artificial Intelligence in the Practice of Law: An Analysis and Proof of Concept Experiments, op. cit, pp. 35-36. 3 Vid. BANOS, Ast se domina el mundo, op. cit, pp. 266,y 8. 43 JORDI NIEVA FENOLL INTELIGENCIA ARTIFICIAL Y PROCESO supreyq) leza en el que nos habfan situado tantas religiones y tendencias filos6f. cas. Resulta que, como se afirmard en este capitulo, los seres humanos tomamos nuestras decisiones siguiendo unos pocos principios genera. les, lo cual hace, nuevamente, que esas decisiones sean, por lo genera), faciles de prever, porque solemos hacer siempre lo mismo. Y si todo ello es asf, AMERICAN PSYCHIATRIC AssOCIATION, Manual diagndstico y estadéstico de los trastonos mentales. DSM-5, Madrid, 2014, pp. 271 y ss. 48 11, ELEMENTO PSICOLOGICO DE LAS DECISIONES JUDICIALES E INTELIGENCIA. driamos una gestualidad similar que refleja la inquietud del momento. De hecho, on psicépata al margen del proceso acostumbra a tener una imagen perfectamente normal, como se ha demostrado en algunos eri menes terribles que han salido a la luz ptiblica y en Jos que hemos po dido ver a violadores pederastas con un rostro incluso afable"*, 0 bien al autor del asesinato de una persona ayudando a buscar el cadaver asistiendo al entierro de su victima con total normalidad y hasta con gesto de abatimiento que ni siquiera parecia impostado'*. No hay ni que recordar muchas imagenes intimas de la mayorfa de criminales de ma- sas en las que parecfan perfectamente normales. Todo ello tiene que ver con el sesgo de la correlacién ilusoria'® que provoca este heuristico, yen virtud del cual, por ejemplo, se recuerda a una persona por una «caric- teristica que no es reveladora de ningtin rasgo de cardcter en especial». Este tipo de errores son bastante frecuentes en la adopcién de medi- das cautelares, en las que, al ir las mismas asociadas a un periculuum, se getiva la percepci6n del riesgo que sin duda se haré més intensa cuando ai juez previamente haya denegado, por ejemplo, una medida cautelar, se haya producido el impago en un proceso civil o, peor atin, el deli ‘ge intentaba precaver la medida cautelar en un proceso penal. A partir de ahi, es posible que el juez en casos posteriores adopte con mucha ma- sor facilidad los embargos o las prisiones provisionales. Aunque no exis: 2or estadisticas fiables —que deberian ser realizadas teniendo en cuenta Ia experiencia previa de cada juez—, si se observa, por ejemplo, queen Ios cksos de violencia de género se adopta con mayor facilidad Ia prision provisional. En 2015, de 60.000 presos” —provisionales y definitivos — Pro vontes en Espafia, 1.052 Io fueron por violencia sobre la mujer’. Si exijene en cuenta que los condenados por violencia de género represen sven 9015 unos 5.915 internos" —aunque si se cotejara este dato wr aPrital vergewaltigte seine Tochter vor den Augen ihrer Kinder», Siege! Online, de mayo de 2008, http:/avww-spiegel. ‘defpanoramafustigfhorror fall-amstetten-frirc-vergewal- {igie sine tockter vorden-augen-threrkindera-551211-him- ne hen mad, cAna Julia Quezada confiesa que maté al nito Gabriel» E’ Fat, 18 de ene O18, htpspolitia elpas comipolitical2018/031 S/actualidad/1520950846.- 273965.heml. 1S gy Kasinenan, Judgment under Uncertainty: Hewistics and Biases, op. p-13. A. Tversky y D. KAIINEMAN, «Extensional vs. Intute ‘Reasoning: The Conjunction Fie Probebilty Judgments, Psychological Review, 1983, 90,4, pp. 290 ys "A LOCKS Fala Savor, «Why versus How Often: Causal Reasoning andthe Incidence of Judgmen- ae Seuanal of Experimental Social Psychology 1984, 20, pp. 470 SS. i057 Jour fe de 2015 segin la estadistica penitenciaria del Ministerio del interior utpfomeutnstitucionpenitencaria.ctweb{portal documentos secs itr. iii PTA DE VIOLENCIA SOBRE LA MUTEX, «14, Estadistica de viene do- éstica y violencia de género. Afio 2015, p14, http-wwn.violenciagenero.msssigob.esWio~ ae re pbservatoriofinformesAnualestnformeseap/Cap]4 Viola, Dom_GenV4 pdf. Hees neal Observatorio Estatal de Violencia sobre Ia mujer, “95, Tattp/Avww. violenciagenero.msssi.gob.es/violenciaEnCi me pdf. JORDI NIEVA FENOLL INTELIGENCIA ARTIFICIAL ¥ PROCESO TuDiciy, demagégicamente con el ntimero de denuncias el porcentaje parecerjg irrisorio (1.181.370)—®, se comprender4 que los presos por violencia sobre la mujer representan un porcentaje relevante del total de presog (un 1,7 por 100), aunque naturalmente no de condenados (288.756 con. denados en 2015), pese a lo cual, los porcentajes de condenas sobre estos delitos, segtin los mismos informes, rondan el 80 por 100. Una aplicacion de inteligencia artificial podria estar libre de sesgos inspirados por variables tan emocionales, o podria estar influida por los mismos, segtin sea programada. Todo depende de cémo se elabore e| algoritmo. Lo veremos ms adelante al abordar las medidas cautelares en el dmbito del proceso penal. Pero sea como fuere, de nuevo la inteli- gencia artificial puede imitar al ser humano o, lo que es més inquietante segiin se mire, prescindir de sus flaquezas. C) Anclaje y ajuste El heuristico de anclaje y ajuste tiene un reconocido impacto en ma- teria judicial, De acuerdo con el mismo, las personas, probablemente para simplificar la realidad, tienden a hacerse una idea desde un prin- Cipio de la solucién de un caso concreto. Si ello es asf, lo siguiente que sucede es que luchar contra ese prejuicio es dificilfsimo. Por muchas informaciones que reciba el sujeto en sentido contrario a su posiciona- miento inicial, tenderd a reinterpretar esas informaciones en apoyo de su opcién primigenia, manipulando o tergiversando esos datos. Es el error que se conoce con el nombre de «sesgo de confirmacién»®. Este heuristico existe muy probablemente para simplificar la reali- dad —como el resto de heuristicos— o incluso para mantener una ac- titud positiva ante la vida necesaria para avanzar, y es por eso por lo que las personas tienden a pensar que sus proyectos saldrén bien, o que siempre les daré tiempo de hacer un trabajo en el tiempo de que dis- ponen. Sea como fuere, también puede explicarse el heurfstico como una manifestacién de que habitualmente es més sencillo mantener las % P. 101 del mismo informe de 2015. 4 Estadistica Judicial 2015, hetp/www-poderjudicial eslegpes/Temas/Estadistica Judi- cial Estadistica-por-temas/Datos-penales~civiles-y-laborales/Delitos-y-condenas/Condenados- “explotacion-estadistica-del-Registro-Central-de-Penados-/. 2 F.FARRA, M. Novoy R. Arce, «Heuristico de anclaje en las decisiones judicial cothema, 2002, 14 (1), pp. 39y ss. Saks y Kip, Human information processing and adjuudica- tion, op. cit, p. 229. E. GARRIDO MARTIN y C. HERRERO ALONSO, «Influence of the Prosecutors Plea on the Judge’ Sentencing in Sexual Crimes: Hypothesis of the Theory of Anchoring by ‘Tversky and Kahneman», e DE La FUENTE, A. ORTEGA, I. MaRriny H. TRUMILLO, «Formal Pat- tern in Jury Decision Making», ambos en REDoNDo, Gansupo, PEREZ y BARBEREY, Advances in Psychology and Law, Berlin-New York, 1997, pp. 215, ss., y pp. 199 y'ss., respectivamente. 33 Tversky y KAHNEMAN, Judgment under Uncertainty: Heuristics and Biases, op. cit p16, 50 1 ELEME! NTO FSICOLOGICO DE LAS DECISIONES JUDICIALES & INTELIGENCIA —- Sean sin replantearse nada, que hacer el esfuerzo de cam- saponer ambien tn to empezando ds cero, sunaue lo primers puede ; F 1erZ0 cogniti i saecia del sujeto, gnitivo notable dependiendo de la resis Podrfa pensarse que una maquina no se verfa nunca influenciada por este heuristico al «razonar» al margen de la comodidad o la simpli- ficacién utilitarista, pero puede suceder ms bien todo lo contrario. Una maquina tiende al anclaje y ajuste porque siempre hace lo que le marca su algoritmo, es decir, lo mismo. Es por ello por lo que, si el algoritmo esta defectuosamente formulado, la maquina no va a cambiar jamas de «opinion», sino que siempre arrojaré el mismo resultado, sin poder per suadirla en absoluto del error. Por ello, con respecto a este heurfstico, no es que la méquina pudiera imitarlo, sino que el «comportamienton de la maquina siempre est4 dirigido hacia el mantenimiento de la que Calcula que es la mejor opcién por razones estadisticas sobre todo. 0 porque le lleve a ello los datos de su algoritmo. Y no habré forma de mo- Bificar su opcién. Ante los mismos datos de un asunto resolver siempre de la misma forma. En este punto, la accién humana es superior a la de la maquina, precisamente porque como tantas veces se habfa dicho durante sigios eral enguaje cotidiano, rectificar es de sabios, y un ser humano puede £0 ificar porque es capaz de cambiar su planteamiento inicial, especial- rrente si conoce los errores que provoca él heurfstico de anclaje y ajusts. Una maquina solo cambiara de «parecer» si se modifica su algoritmo, pero no se la puede persuadir. Por el contrario, s{ seré totalmente sensible a los cambios de plan- teamiento que supongan la introduccién de nuevos datos, pero Ho @ los que sugieran reconsideraciones sin cambiar esos datos iniciales. Los cee vos datos sern tomados por la méquina como una situacion com pletamente nueva, y por ello la decision ‘ser distinta, lo que puede ser més dificil con un ser humano, que tenderé a minimizar la importancia de los nuevos datos. En consecuencia, la superaci6n de este heuristico que tantos errores provoca también puede estar en manos de una aplicacién de inteligen- Provo ficial, La maquina no vaa ser sensible alos cambios de tono desu ci eer a diferencia de un ser humano, salvo que se la programara para ello, ni tampoco va a ceder ante Ja insistencia de una persona, sino Bie se comportaré como un muro, de manera ina ible, salvo que en Mlgoritmo esté establecida, por ejemplo, la posi idad de ceder tras cuatro o cinco insistencias. La méquina, ademas, no siente la molestia Gel insistente, por lo que se manifiesta inflexible. Ein consecuencia, con este heuristico se nos presenta en términos de inteligencia artificial una ‘situacién paraddjica. Por un lado, es el heu- st JORDI NIEVA FENOLL INTELIGENCIA ARTIFICIAL Y PROCESO spy ristico que utiliza la maquina cotidianamente para decidir, lo que hacg imposible que cambie su parecer erréneo reconsiderando los misnnc: datos ya existentes, cosa que si podria hacer un ser humano. En cambio, estard totalmente dispuesta a cambiar de opini6n ante la presencia ¢, nuevos datos, lo que le es mucho més dificil a una persona. En conse cuencia, la imitacién de este heuristico posee curiosas limitaciones que deben ser tenidas muy en cuenta a la hora de elaborar los algoritmos, D) Afeccién Este heurfstico™, més cercano a la materia que se tratard en el préxi. mo epigrafe, describe que los seres humanos se dejan condicionar por variables emocionales introducidas por el lenguaje o la apariencia. Exis- te una mejor predisposicién a escuchar a alguien que va a hablar de «vacaciones» que a una persona que se dispone a hablar del «cancer de higado». No es que se le escuche mds o menos, sino que tras haber sido pronunciadas esas palabras, la decisién del interlocutor es més facil que sea positiva o negativa al que pronunci6 la palabra dependiendo de cada contexto. Se trata, nuevamente, de un heuristico importantisimo en ma- teria de medidas cautelares, exactamente por la misma razén antes cita- da: por la consideracién de la situacién de periculum. Unalgoritmo puede ser construido para dejarse levar por la corrien- te de ese heuristico, aumentando las posibilidades de decir sf 0 no en funcién de las palabras utilizadas, del tono que emplee el interlocutor © inchuiso de si detecta que la persona est sonriendo. Pero lo légico es que sea programada la méquina para no dejarse llevar por todo ello, de manera que el comportamiento de la aplicacién pueda ser comparado con el de un psicépata. Y es que existe una tendencia social muy extendida a dejarse llevar por este heuristico, y sobre todo a ver bien que los demés se dejen arras- trar por él y por las innumerables falacias que puede crear. Constituye el mismo una de las més eficaces armas de la ret6rica, de manera que ante un discurso que es percibido por la mayorfa de seres humanos como «convincente», pero que en realidad esta vacio de razones reales, suele estar bien vista la condescendencia, y en cambio muy castigado el rechazo, que sera tachado de falta de humanidad, de piedad o de misericordia. Y es que, aunque la decisién objetivamente correcta sea denegar algo al solicitante, si lo pidié «muy bien», nadie entiende la ™ M.L, Fivucane, A. ALHakami, P. SLoviC y S.M. JOHNSON, «The Affect Heuristic in Judgment of Risks and Benefits», Journal of Behavioral Decision Making, enero de 2000, 13 (1), pp. 1 y ss. P. Stovic, M. Fuvucane, E. PETERS yD. MACGREGOR, «Risk as Analysis and Risk as Feelings: Some Thoughts about Affect, Reason, Risk, and Rationality», Risk Analy. sis, 13 de abril de 2004, 24 (2), pp. 311 ysss. 52 IL. ELEMENTO PSICOLOGICO DE LAS DECISIONES JUDICIALES & INTELIGENCIA.. denegacién. Y de ello de ees haat pende también, no nos engafiemos, la nocién Aunque estas persuasiones emocionales obedecen normalmente a unos pocos factores acompafiados de una eficaz gestualidad, que suele repetirse, o del recurso a falacias por escrito, que también estén bastan- te bien descritas por la filosoffa y en consecuencia podrfan ser captadas por una mdquina, lo l6gico serfa que esperemos decisiones objetivas de la herramienta de inteligencia artificial y que, por tanto, nos libre de estos juegos retéricos. Pero nuevamente, con ello la maquina no pasaria el conocido test de Turing, porque el comportamiento humano est4 muy influenciado por la cesi6n a estos factores. Aunque lo légico serfa pensar en las ventajas de la inteligencia artificial para alejarnos definitivamente del heuristi- co de afeccién, el resultado seria que en la primera generacién al menos, muchas resoluciones de la maquina no serfan percibidas como justas. Aunque més adelante quiz4 se habrian superado por fin estas argucias de los picaros. Sin embargo, ¢son esas actuaciones simples argucias de picaros? No realmente, porque muchas veces se percibe que un argumento es mejor que otro por el recurso, precisamente, a variables que activan el heuristico de afeccién y que, por tanto, también constituyen la labor de un jurista. La «creatividad» depende también de estos factores, y es la tinica que nos puede hacer competir con una méquina, siempre y cuando las decisiones no dependan de la maquina, claro est4, sino de una persona. En todo caso, igual que en los epfgrafes anteriores, las trampas y falacias pueden ser imitadas por la maquina. De momento no la gestualidad, pero en el futuro un robot podrd imitarla también. Muchos podran pensar que sa- biendo que es un robot, nadie se dejar engafiar por una sonrisa artificial. Pero bien al contrario, la sensacién de eficiencia y verosimilitud que po- dré transmitir una mAquina haré mucho mis facil confiar en ella si el ser humano no aprende al mismo tiempo a recelar de las maquinas igual que actualmente de las personas, teniendo en cuenta el contexto situacional. 3. LAS EMOCIONES El apartado anterior constituye una excelente introduccién para este epigrafe, que debe responder sobre todo si una maquina puede —y en Ultima instancia debe— copiar las emociones. En un principio, la respuesta deberfa ser negativa. Las emociones constituyen un fenémeno complejo* con diferentes manifestaciones fi- 28 Hocarrn, Educar la intuici6n, op. cit. p. 89. 53 JORDI NIEVA FENOLL INTELIGENCIA ARTIFICIAL ¥ PROCESO suprciy, sicas y psfquicas”, que ademés se puede describir en términos literari © sentimentales, aunque esa no es una caracteristica distintiva con log heurfsticos, dado que siendo los mismos con gran frecuencia la base de la intuicién, la misma también puede ser descrita como «pilpito, 6 «corazonada», lo que hace referencia a la sensacién que puede exper. mentarse al hacerse uso de dichas directrices del pensamiento. Sin duda, una mAquina no podr4 experimentar jamés emociones, pero sf que puede actuar como si las estuviera sintiendo, que es lo que importa para el presente trabajo. Y ello es relevante porque con gran frecuencia un juez decide sometido a estados emocionales. De nuevo, e] ejemplo de las medidas cautelares es recurrente por la presencia del pe- riculum, cuya consideraci6n est claramente condicionada por la emo- cién «miedo». También las causas de recusacién representan casi todas ellas un reconocimiento explicito de que las emociones pueden influir al juez, y que cuando Jo hacen de manera evidente, el juez debe ser apartado del proceso. Por eso el «afecto» y su anténimo el «odio» estan detrés de practicamente todas las causas de recusacién, a poco que se reflexione sobre ello. Y podrian ponerse muchos més ejemplos, pero los dos citados son supuestos en que es el propio ordenamiento juridico el que acude directamente a las emociones y las refleja en su redactado. Sin embargo, la pregunta es: gpuede una maquina actuar como si expe- rimentara una emoci6n? Ni siquiera aparentando sentirla, sino obrando externamente de la misma forma que lo hacemos los seres humanos cuando sentimos las emociones. Lo que puede hacer una aplicacién es formular comentarios propios de vergiienza, sorpresa, alegria o de temor incluso, llegando también al extremo de ejecutar la evitacién de un comportamiento, a fin de sugerir de ese modo al observador humano que la maquina «siente» miedo. De hecho, ya sucede actualmente cada vez que compramos un producto yla web nos felicita y nos da las gracias con algtin texto o imagen agradable que puede hasta llevarnos a «empatizar» extrafiamente con el programa y volver a visitar su sitio de internet, igual que acudimos con frecuencia al restaurante o al comercio en el que nos tratan con deferencia. Visto tan frfamente puede parecer esttipido, pero ast es la realidad a veces. De hecho, la mayorfa de juegos telematicos de azar estan orientados de ese modo. Si una maquina hiciera esos comentarios sugestivos de una emocién, el factor humano se introducirfa con fuerza en sus decisiones, ya que el observador identificarfa algo que solo cree posible en otro ser humano. Pero lo que también hay que tener en cuenta es que lo que le exigirfamos auna aplicacién de inteligencia artificial es precisamente que no se deje % Horstorr, Emotionen, op. cit, p. 14. 54 ELEMENTO a PSICOLOGICO DE LAs DECISIONES JUDICIALES E INTELIGENCIA.. evar por muy titiles las emociones Y que en el fondo parece tratar también de na una apariencia al; Consecuencia, aparte de otorgarle a la maqui- -ncia algo més humana, pro! tener una decisi6n correcta que la aplica que Cee en cuenta Jas situaciones en las que los seres humanos senti- mos afecto, odio, alegria, tristeza, sorpresa, vergiienza, aversién 0 temor. Con todo, no se debiera prescindir de las mismas. Igual que sucedia con el heuristico de afeccién, es positivo que la maquina «sepa» lo que provoca emociones a los humanos, de manera que, como suele decirse, las decisiones de las personas pueden cambiar por completo cuando la emocién esta presente. A los efectos de evaluar la aceptacién social de una posible resolucién y, por tanto, la percepcién de «justicia» que obtengan los ciudadanos con la misma, no es negativo que el algoritmo contenga datos estadisticos al respecto de lo que a las personas les suele provocar afecto u odio, porque puede variar la decisién que finalmente se tome en funcién de variables sociales, que también son tenidas en cuenta a la hora de juzgar. De hecho, como ya se dijo, una de las funcio- nes de la motivacién es el control social de las resoluciones judiciales”’. Por ello, es fundamental no descuidar ese aspecto si de lo que se trata es de imitar —o ver si se pueden imitar— las decisiones de un juez de una forma mecanizada, al menos en algunos casos. Mas adelante se analizard en cudles. Y se podria ir todavia més alld. Haciendo el discurso algo mas futu- rista, quiz4 algin dia se descubra que nuestras emociones basicas estn inducidas por un mecanismo de supervivencia 0 autoproteccién, que se hace global cuando tomamos en consideracién lo que afecta a los demas como mecanismo de protegernos a nosotros mismos, teniendo presente que el bienestar de la generalidad también nos provoca beneficios, como es evidente en muchas situaciones de la vida. Cuando, por ejemplo, un Estado quiere reducir la criminalidad, a veces los gobernantes se apar- tan de las medidas represivas y son conscientes de que la mejora de las condiciones de vida de todos repercuten en el descenso del ntimero de delitos, lo que hace que la empatia y la consiguiente generosidad tenga efectos positivos también sobre toda la poblacién en general, particular- mente la que no necesita de esas ayudas sociales. Una maquina podria comportarse de la misma forma, si en sus algoritmos recoge ese mensaje del bien general y va aprendiendo de bablemente no servirfa para ob- \cién imitara emociones, es decir, 2 ‘TaRUFFO, Péginas sobre justicia civil, op. cit. pp. 517-518, 55

También podría gustarte