Documentos de Académico
Documentos de Profesional
Documentos de Cultura
pdf - SAFEKAT
I
2021 N.º 133
cuadernos
de política criminal
segunda época
Edita
AVISO IMPORTANTE A NUESTROS SUSCRIPTORES
qqqqqqqqqqqqqqqqqq
La Revista no se respon-
sabiliza de las opiniones
contenidas en los artículos
qqqqqqqqqqqqqqqqqq
Imprime: Safekat, S. L.
Laguna del Marquesado, 32 - 28021 Madrid
www.safekat.com
ISSN: 0210-4059
Depósito Legal: M. 7533-1977
La Editorial Dykinson, a los efectos previstos en el artículo 32.1 párrafo segundo del
vigente TRLPI, se opone expresamente a que cualquiera de las páginas de esta obra o
partes de ella sean utilizadas para la realización de resúmenes de prensa.
SECCIÓN BIBLIOGRÁFICA
RECENSIÓN A MORILLAS CUEVA (DIR.), RESPUESTAS
JURÍDICAS FRENTE A LA CORRUPCIÓN POLÍTICA.
COLECCIÓN ENSAYOS PENALES. 1º EDICIÓN,
DYKINSON, 2020, MADRID, 930 PÁGINAS. Por Francisco
José Rodríguez Almirón............................................................. 319
NOTICIARIO.................................................................................. 361
I. INTRODUCCIÓN
En los últimos años, gracias al desarrollo incesante de la Inteligencia
Artificial (en adelante IA) y el Aprendizaje automático –Machine Learnig
(en adelante ML)–, los agentes artificiales (de ahora en adelante a.a.), y
más en general, los sistemas de inteligencia artificial (de aquí en adelante
s.i.a.) están apoyando, o en algunos casos, sustituyendo al hombre en la
realización de actividades que, hasta hace poco, se pensaba que solo po-
dían lograr realizarse con la inteligencia humana1.
1
Sobre este tema véase el reciente libro blanco de la Comisión Europea (2020).
“Libro blanco sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia
6
Piense, a título paradigmático, en los vehículos pilotados de forma remota (un-
manned vehicles), que pueden ser utilizados tanto para actividades lícitas (por ejem-
plo, para entregar paquetes postales) como ilícitas (transporte de drogas, armas, trá-
fico de seres humanos, etc.). En lo que respecta al uso de los drones en el tráfico de
estupefacientes véase el informe del Europol (2019). “EU Drug Market Report”, p. 63.
Disponible en: https://www.emcdda.europa.eu/system/files/publications/12078/20192630_
TD0319332ENN_PDF.pdf (fecha de consulta: 8 de mayo de 2021). De manera más gene-
ral, sobre las complejas relaciones entre la tecnología dual, y en particular el dual-use
software y el Derecho penal, véase Salvadori, I. (2017). “Il diritto penale dei software a
“duplice uso””, en Wenin, R., Fornasari, G. (a cura di), Diritto penale e modernità. Le nuove
sfide fra terrorismo, sviluppo tecnologico e garanzie fondamentali, Napoli, pág. 361 y ss.;
Salvadori, I. (2017). “La incriminación de software de “doble uso” en el derecho penal euro-
peo e italiano”. Revista General de Derecho Penal, n.° 28, pág. 1 y ss.
7
King, T.C., Aggarwal, N., Taddeo, M., Floridi, L. (2019). “Artificial Intelligence
Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions”. Science and
Engineering Ethichs, pág. 1 y ss.; Abbott, R., Sarch, A. (2019). “Punishing Artificial
Intelligence: Legal Fiction or Science Fiction”. U.D. C. L. Rev., n.° 232, pág. 323 y ss.,
pág. 332 y ss. Sobre las múltiples posibilidades del uso de la IA con fines ilegales véase
Caldwell, M., Andrews, J.T.A., Tanay, T., Griffin, L.D. (2020). “AI-enabled Future Crime”.
Crime Science, n.° 4, pág. 1 y ss.; Hayward, K.J., Maas, M.M. (2020). “Artificial Intelligence
and Crime: A Primer for Criminologists”. CMC, pág. 1 y ss.
8
En este sentido véase Aa.Vv. (2018). The Malicious Use of Artificial Intelligence:
Forecasting, Prevention and Mitigation, pág. 1 y ss., pág. 18 y ss. Disponible en: https://
arxiv.org /pdf/1802.07228.pdf (fecha de consulta: 8 de mayo de 2021).
predecirse ex ante ni siquiera por parte de los “operadores” que los dise-
ñaron, desarrollaron, probaron o produjeron16.
La plena comprensión, desde el punto de vista humano, del proceso
de toma de decisiones y el conocimiento de los resultados (output) a los
que puede conducir la acción de un a.a. se ven obstaculizados aún más (si
no siquiera se previene) por la llamada opacidad tecnológica (technologi-
cal opacity), que tiende a connotar las tecnologías de la IA17.
La estructura interna de los a.a. puede ser ocultada deliberadamente
por los “operadores” por razones obvias de carácter económico o rela-
cionadas con la protección de secretos industriales, patentes, derechos
de autor (copyright), etc. Sin embargo, como regla general, la opacidad
tecnológica es inherente a la IA debido a la complejidad de los s.i.a., que
operan sobre la base de los llamados algoritmos de caja negra (black
box algorithms) y procesan rápidamente una gran cantidad de datos (big
data)18.
Son numerosas las personas (naturales o jurídicas) que, por sus com-
petencias específicas, intervienen en la planificación, desarrollo, testeo,
producción, distribución y aprovechamiento de los a.a. Es, por tanto,
un ámbito caracterizado por la inevitable aparición del conocido como
16
El término “operador” se utiliza en esta contribución para referirnos a los suje-
tos que, por diversos motivos, intervienen en las fases de creación, venta y uso de un a.a. y
contra los cuales se puede dar lugar a un reproche criminal en razón de su acción concre-
ta (por ejemplo, desarrolladores, programadores, productores, probadores, proveedores,
usuarios, etc.). Cfr. Gless, S., Weigend, T. (2014). “Intelligente Agenten und das Strafrecht”.
ZStW, n.° 126, pág. 561 y ss., págs. 569-570.
17
Surden, H., Williams, M.A. (2016). “Technological Opacity, Predicatibility, and
Self-Driving Cars”. Cardozo L. Rev., n.° 38, pág. 110 y ss., pág. 157 y ss. Un ejemplo pa-
radigmático de la llamada opacidad tecnológica está representado por los sofisticados
sistemas de auto-pilotaje de las aeronaves civiles, que realizan de forma autónoma múlti-
ples y complejas operaciones durante las fases de vuelo. Estos sistemas funcionan, en de-
terminadas circunstancias, de la forma en la que exactamente han sido programados. Sin
embargo, su funcionamiento real sigue siendo desconocido para los pilotos, ya que es el
resultado de la interacción de diferentes algoritmos con las partes de software y hardware
(por ejemplo, sensores) de las aeronaves.
18
Sobre la cuestión véase Doncieux, S., Mouret, J.B. (2014). “Beyond Black-box
Optimization: A Review of Selective Pressures for Evolutionary Robotics”. EI, pág. 71 y
ss.; y en particular Castelvecchi, D. (2016). “Can We Open The Black Box of AI?”. Nature,
pág. 1 y ss. Disponible en: https://www.nature.com/news/ can-we-open-the-black-box-of-
ai-1.20731 (fecha de consulta: 8 de mayo de 2021); Bathaee, Y. (2018). “The Artificial
Intelligence Black Box and the Failure of Intent and Causation”. Harv. J. L. & Tech., n.° 31,
pág. 889 y ss.; en relación con la técnicas de Big Data véase especialmente Valls Prieto, J.
(2018). Problemas jurídico penales, cit.; Valls Prieto, J. (2018). “El uso de inteligencia arti-
ficial para prevenir las amenazas cibernéticas”, en Valls Prieto, J. (Coord.), Retos jurídicos
por la sociedad digital, Navarra, pág. 77 y ss.
19
Gunkel, D.J. (2017). “Mind the Gap: Responsible Robotics and the Problem of
Responsibility”. Ethics and Information Technology, pág. 1 y ss., pág. 12; y en particu-
lar Coeckelbergh, M. (2019). “Artificial Intelligence, Responsibility Attribution, and a
Relational Justificiation of Explainability”. Science and Engineering Ethics, pág. 1 y ss.,
que recuerda, como ejemplo paradigmático del many hands problem en el contexto de la
IA, el fatal accidente provocado en Arizona por un automóvil autónomo de Uber.
20
Sobre los principales problemas de Derecho penal, vid., Beck, S. (2020). “Die
Diffusion strafrechtlicher Veranvortlichkeiten durch Digitalisierung und Lernende Systeme”.
ZIS, n.° 2, pág. 41 y ss.
21
Cfr. Lima, D. (2018). “Could AI Agents Be Held Criminally Liable? Artificial
Intelligence and the Challenges for Criminal Law”. South Carolina L. Rev., n.° 69, pág. 677
y ss., pág. 681; Beck, S. (2020). “Die Diffusion strafrechtlicher Veranvortlichkeiten”, cit.,
pág. 43 y ss.
22
Sobre una primera definición de IA véase Aa.Vv. (1955, 2006). “AI Proposal for
the Dartmouth Summer Research Project on Artificial Intelligence”. AI Magazine, n.° 27,
pág. 12 y ss.; Goecke, B.P. (Hrsg.) (2020). Artificial Intelligence. Padeborn; Boeden, M.A.
(Hrsg.) (2018), Artificial Intelligence. A Very Short Introduction. Oxford; Frankish, K., ram-
sey, W. (Eds.) (2014). The Cambridge Handbook of Artificial Intelligence. Cambridge; Wang,
P. (2017). “On Defining Artificial Intelligence”. Journal of Artificial General Intelligence,
n.° 10, pág. 1 y ss.
36
Sobre el AutoML véase Hutter, F., Kotthoff, L., Vanschoren, J. (2020). Automated
Machine Learning. Methods, Systems, Challenges. Cham.
37
Véase Matthias, A. (2004). “The Responsibility Gap. Ascribing Responsibility for the
Actions of Learning Automata”. Ethics and Information Technology, n.° 4, pág. 175 y ss.
38
Véase retro, apartado 2.
43
En estos términos Lagioia, F., Sartor, G. (2019). “AI Systems Under Criminal
Law”, cit. Se podría objetar que en la base de todo crimen debe haber una “acción huma-
na”, es decir, un movimiento muscular voluntario, como tradicionalmente se sostiene en
la doctrina. Debe señalarse, sin embargo, que la teoría del delito no se basa en un concep-
to naturalista u ontológico de “acción”, sino en la realización de un “hecho típico”. Para
una revisión del concepto de acción en el Derecho penal más reciente véase Salvadori, I.
(2016). I reati di possesso. Un’indagine dogmatica e politico-criminale in prospettiva storica
e comparata. Napoli, pág. 333 y ss.
44
En este sentido véase Hallevy, G. (2010). “The Criminal Liability of Artificial
Intelligence Entities. From Science Fiction to Legal Social Control”. Akron Intel. Prop. J.,
n.° 4, 2010, pág. 171 y ss.; pág. 186 y ss.; Hallevy, G. (2013). When Robots Kill: Artificial
Intelligence under Criminal Law. Boston.
45
Hallevy, G. (2010). “The Criminal Liability”, cit., pág. 199; Hu, Y. (2018).
“Robot Criminal Liability Revisited”, en Soo Yoon, J., Hoon Han, S., Jo Ahn Hu, S. (Eds.),
Dangerous Ideas in Law, Bobmunsa, pág. 494 y ss., págs. 497-498.
46
Sobre este tema véase Solum, L.B. (1992). “Legal Personhood for Artificial
Intelligence”. North Carolina L. Rev., n.° 70, pág. 1231 y ss.; Müller, M. (2014). “Roboter
und Recht”, cit., p. 604; Simmler, M., Markwalder, N. (2019). “Guilty Robots? – Rethinking
the Nature of Culpability and Legal Personhood in an Age of Artificial Intelligence”.
Criminal L. Forum, pág. 1 y ss.
47
Hallevy, G. (2015). Liability for Crimes Involving Artificial Intelligence Systems,
cit., pág. 212 y ss., según el cual la penalización para los agentes de software podría con-
sistir en su cancelación, mientras que para los s.i.a. equipados con un “cuerpo” físico, la
parte del hardware podría destruirse.
48
Cfr. Gless, S., Silverman, E., Weigend, T. (2016). “If Robots Cause Harm”,
cit., pág. 416; Lima, D. (2018). “Could AI Agents Be Held Criminally Liable? Artificial
Intelligence and the Challenges for Criminal Law”. S. Cl. L. Rev., n.° 69, pág. 677 y ss.;
Koops, B.J., Hildebrandt, M., Jaut Chiffelle, D.O. (2010). “Bridging the Accountability,
Gap”, cit., págs. 523-524; Coeckelbergh, M. (2020). “Artificial Intelligence”, cit., pág.
1 y ss.; Sarch, A. (2017). “Who Cares What You Think? Criminal Culpability and the
Irrelevance of Unmanifested Mental States”. L. & Phil., n.° 36, pág. 707 y ss., pág. 709;
Pagallo, U. (2018). “Vital, Sophia, and Co. The Quest for the Legal Personhood of Robotics”.
Information, pág. 1 y ss., pág. 7; Unesco (2017). “Report of Comest on Robotics Ethics”.
Paris, pág. 46, párrafo 201.
49
A pesar de que un a.a. evolucione, no lo hará hasta el punto de poder cumplir con
todos los elementos relevantes del hecho concreto que integran un delito. También sería
imposible sostener que habría podido darse cuenta del significado de su comportamiento,
usando la debida diligencia. La determinación del contenido y de la medida del deber
de diligencia vienen pacíficamente determinados en la doctrina y jurisprudencia italiana
sobre la base del parámetro del homo eiusdem professionis et condicionis, es decir, de un
agente modelo (humano). Para establecer la “culpa” del a.a. se debería disponer de carac-
terísticas (habilidades, facultades, etc.) que se determinasen en base a la experiencia. El
estado actualmente es embrionario, la experimentación en la que actualmente se encuen-
tran los a.a., hace que sea prácticamente imposible la construcción del llamado agente
artificial modelo.
50
En los mismos términos Wohlers, W. (2016). “Individualverkehr im. 21.
Jahrhundert: das Strafrecht von neuen Herausforderungen”. Basler Juristische Mitteilungen,
n.° 3, pág. 113 y ss., págs. 123-124; Gless, S., Weigend, T. (2014). “Intelligente Agenten”,
cit., pág. 570, págs. 573-574; Gless, S., Silverman, E., Weigend, T. (2016). “If Robots Cause
Harm”, cit., pág. 417.
V.
LA DISTRIBUCIÓN DE LA RESPONSABILIDAD PENAL
ENTRE EL HOMBRE Y LOS AGENTES ARTIFICIALES
Los a.a. pueden ser utilizados por personas malintencionadas como
herramienta para la comisión de un hecho ilícito.
El uso o disposición de un a.a. como “medio delictivo” puede afectar
a cualquier sector criminal (económico, cibernético, organizado, etc.).
Podemos pensar, por ejemplo, en el uso de un agente de software para
realizar fraudes en línea, el uso de armas autónomas letales (lethal auto-
nomous weapons) o drones armados para atacar objetivos militares, neu-
tralizar terroristas, etc.58.
En estos casos el a.a. es un mero instrumento, mientras que la con-
ducta consistente en su producción o en su uso será atribuida al “opera-
dor” que actúa “detrás” de él, utilizándolo maliciosamente para cometer
un delito (véase infra, apartado 5.1).
En la mayoría de los casos, la responsabilidad penal de un “operador”
se configurará; sin embargo, también pueden tener lugar hechos lesivos
que se produzcan como consecuencia de errores cometidos en la fase de
planificación, desarrollo, prueba o producción de un a.a., debido a su
funcionamiento defectuoso o de una utilización incorrecta. Por lo tanto,
se tratará de hipótesis que, en algunos supuestos, se reenvían al ámbito
de la responsabilidad por imprudencia (véase infra, apartado 5.2).
57
Sobre la posibilidad de “reeducar” un a.a. véase Asaro, P. (2014). “Determinism,
Machine Agency, and Responsibility”. Politica e Società, n.° 2, pág. 265 y ss.
58
Basile, F. (2019). “Intelligenza artificiale e diritto penale: quattro possibili percorsi
di indagine”. Dir. pen. uomo, n.° 10, pág. 1 y ss., pág. 25 y ss.
59
Freitas, P.M., Andrade, F., Novais, P. (2013). “Criminal Liability of Autonomus
Agents”, cit., pág. 150; Seher G., (2016). “Intelligente Agenten”, cit., pág. 55; Gless, S.,
Silverman, E., Weigend, T. (2016). “If Robots Cause Harm”, cit., pág. 425.
2. La responsabilidad imprudente
El comportamiento del a.a. automatizado es, como hemos visto (re-
tro, apartado 3), predeterminado y, por lo tanto, previsible por parte de
un “operador”64. Los hechos lesivos que tienen lugar debido a un error
de programación o funcionamiento del a.a. podrán por lo tanto ser im-
putados a título imprudente a quienes lo han programado, desarrollado,
producido o probado65.
Quién utiliza un a.a. podrá ser llamado a responder de las consecuen-
cias ofensivas que se deriven de su uso si tiene poder efectivo para pre-
venir el hecho. Piense, como paradigma, en el vehículo semiautomático
que, cerca de un cruce, no se detiene en la señal de stop, golpeando fatal-
mente a un peatón.
El fallecimiento del peatón será atribuido al conductor si se demues-
tra que con la debida diligencia podría (y debería) tomar medidas para
tomar el control del automóvil y evitar el golpe66.
64
Borsari, R. (2019). “Intelligenza Artificiale e responsabilità penale: prime conside-
razioni”. MediaLaws, n.° 3, pág. 262 y ss., pág. 264.
65
Cfr. Hallevy, G. (2014). “Liability for Crimes”, cit., 2014, pág. 185 y ss.; Abbott, R.,
Sarch, A. (2019). “Punishing Artificial Intelligence”, cit., pág. 345; Markwalder, N., Simmler,
M. (2017). “Roboterstrafrecht”, cit., pág. 175 y ss., con un extenso estudio del caso.
66
Cfr. Hilgendorf, E. (2017). “Automated Driving and the Law”, en Hilgendorf,
E., Seidel, U. (Hrsg.), Robotics, Autonomics, and the Law, Baden-Baden, pág. 171 y ss.,
págs. 181-182. En este sentido véase la elección hecha por el legislador austriaco con el
Gesamte Rechtsvorschrift für Automatisiertes Fahren Verordnung: el conductor de un ve-
hículo de conducción automatizada, si bien puede confiar en los sistemas de conducción
75
Cfr. Beck, S. (2017). “Google Cars, Software Agents”, cit., pág. 51.
76
Cfr. Seher, G. (2016). “Intelligente Agenten”, cit., pág. 55.
77
Cfr. Gless, S., Silverman, E., Weigend, T. (2016). “If Robots Cause Harm”, cit.,
pág. 427. En términos más generales, sobre los límites de la observancia de las normas de
precaución en el contexto de actividades de riesgo, véase las declaraciones de Gallo, M.
(1960). “Colpa penale (dir. vig.)”. Enc. dir., Milano, pág. 624 y ss., págs. 639-640.
este fin debe reconocerse también en este ámbito, un margen del denomi-
nado riesgo permitido (Erlaubnis Risiko).
La realización de actividades de diseño, experimentación, produc-
ción y el uso de a.a. debe considerarse lícito en la medida en que los
“operadores” del sector observen normas de precaución precisas78. En
consecuencia, no se podrá hacer ningún reproche a título doloso por los
hechos eventualmente imprudentes que, aunque de forma abstracta pre-
decible, se produjeron a pesar del cumplimiento de las normas de pre-
caución (por ejemplo, de carácter técnico), siendo, de hecho, un riesgo
permitido79.
78
Debe tenerse en cuenta, sin embargo, que en el campo de la IA y del ML aún no
existen suficientes reglas cautelares de fuentes especiales (imprudencia genérica) o posi-
tivizada (imprudencia específica) que permitan a los “operadores” del sector identificar
con precisión las medidas cautelares a seguir en la fase de diseño, desarrollo y produc-
ción y cuya observancia permitiría evitar el hecho lesivo. Dado que se trata de áreas en
las que la experimentación aún se encuentra en una etapa embrionaria, ni siquiera sería
posible probar si la adopción de determinadas normas sería por sí misma eficaz para pre-
venir determinadas infracciones.
79
Sobre este punto tendremos la oportunidad de volver infra, apartado 9.
80
Sobre los “medios de comisión del delito” véase, por todos, Delogu, T. (1974).
“Lo strumento nella teoria generale del reato”. Riv. it. dir. proc. pen., pág. 19 y ss.
81
Piense en el uso cada vez más generalizado de los llamados stalkerware, es de-
cir, agentes de software que, gracias al ML, son capaces de difundir y redirigir mensajes
de odio o insultos en las Redes Sociales. Paradigmática es la historia de Tay, un chatbot
creados por Microsoft con el objetivo de comunicarse con los jóvenes que frecuentan las
plataformas sociales. Al interactuar con los usuarios de Twitter, Tay aprendió rápidamen-
te cómo difundir mensajes racistas y xenófobos, lo que obligó a Microsoft a desactivarlo.
Para un análisis de las implicaciones legales del asunto véase Suárez Gonzalo, W.S., Mas
Manchón, L., Guerrero solé, F. (2019). “Tay is You. The Attribution of Responsibility in the
Algorithmic Culture”. Observatorio, n.° 13(2), pág. 1 y ss.
82
Al tratarse de videos creados de manera fraudulenta, sería difícil aplicar el delito
al que se refiere el art. 612-ter CPI, ya que sanciona, en el primer párrafo, a quien, «des-
pués de haberlos producido o robado», difunde videos de contenido sexual «destinados a
permanecer en el ámbito privado, sin el consentimiento de las personas que aparecen».
Por tanto, parece que el legislador quiso sancionar únicamente la difusión de videos pro-
ducidos con la participación real de la víctima.
83
Sobre la estricta legislación que rige el uso de la mencionada aeronave en Italia,
vid., Enac (2020). “Regolamento mezzi aerei a pilotaggio remoto”. Disponible en: https://
www.enac.gov.it/sites/default/files/allegati/2020-Lug/Regolamento_ APR _Ed_3_Em end_1.
pdf (fecha de consulta: 8 de mayo de 2021).
VIII.
EL AGENTE ARTIFICIAL COMO OBJETO MATERIAL DEL
DELITO
Los a.a. de última generación, operan sobre la base de algoritmos
cuya estructura es similar a la red neuronal humana (el llamado deep
Learning), tienen una capacidad de aprendizaje extraordinaria.
Incluso si los a.a. antes mencionados tuvieran una configuración fí-
sica similar a la nuestra (pensemos, por ejemplo, en robots humanoides),
84
De manera más general, sobre cuestiones éticas, morales y legales relaciona-
das con el uso de drones en el ejército, consulte a Asaro, P. (2017). “Moral and Ethical
Perspectives”, en Aa.Vv., The Humanitarian Impacts of Drones, pág. 141 y ss. Disponible
en: https://reliefweb.int/sites/reliefweb.int/files/resources/humanitarian-impact-of-drones.
pdf (fecha de consulta: 8 de mayo de 2021); European Parliament (2013). “Human Rights
Implications of the Usage of Drones and Unmanned Robots in Warfare”. Disponible en:
https://www.europarl.europa.eu/ RegData/etudes/etudes/join/2013/410220/EXPO-DROI_E
T%2820 13 %29410220_EN.pdf (fecha de consulta: 8 de mayo de 2021).
85
Sobre el controvertido instituto de la aberratio ictus véase Basile, F. (2005). La
colpa in attività illecita. Un’indagine di diritto comparato sul superamento della responsa-
bilità oggettiva. Milano, pág. 94 y ss., pág. 103 y ss.
86
Deberá alcanzarse una solución similar en los casos de la denominada aberratio
delicti a los que se refiere el art. 83 CPI, es decir cuando por un error ejecutivo se causa
un hecho típico diferente al que se quería. Piense en el investigador privado que, para ob-
tener ilegalmente imágenes confidenciales, utiliza un dron teledirigido para sobrevolar la
casa de un político. Si por avería el dron dejara de funcionar repentinamente y al caer al
suelo hiriera gravemente a una persona, el hecho lesivo sería atribuido a título impruden-
te a quien lo utilizó para realizar el delito de injerencia ilegal en la vida privada. a que se
refiere el art. 615-bis CPI.
87
Cfr. Riondato, S. (2017). “Robot: talune implicazioni di diritto penale”, en Moro,
P., Serra, C. (a cura di), Tecnodiritto. Temi e problemi dell’informatica e robotica giuridica,
Milano, pág. 85 y ss., pág. 86.
88
Sobre la infeliz formulación de los delitos de daños informáticos véase Picotti, L.
(2008). “La ratifica della Convenzione Cybercrime del Consiglio d’Europa. Profili di diritto
penale sostanziale”. Dir. pen. proc., pág. 700 y ss., pág. 707 y ss.; Pecorella, C. (2011). “La
riforma dei reati di danneggiamento informatico ad opera della l. n. 48/2008”, en Ruggieri,
F., Picotti, L. (a cura di), Nuove tendenze della giustizia penale di fronte alla criminalità in-
formatica. Aspetti sostanziali e processuali, Torino, pág. 140 y ss.; Salvadori, I. (2013). “La
regulación de los daños informáticos en el código penal italiano”. IDP, Revista de Internet,
Derecho y Política, n.° 16, pág. 44 y ss.; Salvadori, I. (2020). “I danneggiamenti informa-
tici”, en Parodi, C., Sellaroli, V. (a cura di). Il diritto penale dell’informatica. I reati della
rete e sulla rete, Milano, pág. 591 ss.
89
Sobre el uso de la IA en el campo de la justicia predictiva, véase, en el contexto
del debate italiano, Parodi, C., Sellaroli, V. (2019). “Sistema penale e intelligenza arti-
ficiale: molte speranze e qualche equivoco”. Dir. pen. cont., n.° 6, pág. 47 y ss.; Manes
V. (2020). “L’oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecno-
cracia”. Discrimen, pág. 1 y ss.; en el Derecho penal alemán véase, la interesante posi-
ción de Gless, S., Wohlers, W. (2019). “Subsumtionsautomat 2.0. Künstliche Intelligenz
statt menschlicher Richter?”, en Böse, M., Schumann, K.H., Toepel, F. (Hrsg.), FS Urs
Kindhäuser, Baden-Baden, pág. 147 y ss.; en el Derecho penal español véase Miró
Llinares, F. “Inteligencia Artificial y justicia penal: más allá de los resultados lesivos cau-
sados por robots”. Revista de Derecho Penal y Criminológica, 3ª Época, n. 20, pág. 87
y ss.; Nieva Fenoll, J. (2018). Inteligencia Artificial y proceso judicial. Madrid; más en
Los a.a. más complejos (por ejemplo, los MASs), compuestos por uno
o más dispositivos de hardware y software, deben equipararse a un sis-
tema informático o telemático (véase retro, apartado 3). Los comporta-
mientos no autorizados que provoquen, a través de “hechos” dañosos a
los que se refiere el art. 635-bis CPI, la destrucción, inutilidad total o par-
cial, o que obstaculicen gravemente el funcionamiento de un s.i.a. (por
ejemplo, un robot) puede ser subsumidos en los delitos de daños a los
sistemas informáticos (privados o públicos) mencionados en los artículos
615-quater y 635-quinquies del Código Penal italiano90.
De manera más general, para proteger a los a.a. pueden aplicarse,
cuando concurran todas las condiciones, los delitos cibernéticos (cyber
crimes) que tengan por objeto datos o sistemas informáticos91. Considere,
a modo de ejemplo, un hacker que sin autorización se introduce en el
sistema informático que gestiona un coche autónomo. En este caso, la
conducta puede constituir una hipótesis de acceso no autorizado a un sis-
tema informático o telemático al que se refiere el art. 615-ter CPI92.
Lo mismo ocurre con el ciberdelincuente que, fuera de los casos
permitidos por la ley, instala un software espía diseñado para intercep-
tar los datos informáticos que son intercambiados por varios s.i.a. o que
proceda a interceptar las comunicaciones informáticas entre a.a. inter-
general vid., McDaniel, J.L.M., Pease, K. (Eds.) (2021). Predictive Policing and Artificial
Intelligence. New York.
90
Cfr. Salvadori, I. (2020). “I danneggiamenti informatici”, cit., pág. 597 y ss., pág.
607 y ss.; Cappellini, A. (2019). “I delitti contro l’integrità dei dati, dei programmi e dei siste-
mi informatici”, en Cadoppi, A., Canestrari, S., Manna, A., Papa, M. (a cura di), Cybercrime,
cit., pág. 762 y ss., en particular pág. 776 y ss., pág. 798 y ss.
91
Sobre la transición de la delincuencia informática (computer crime) a la ciber-
delincuencia (cybercrime), consulte a Picotti, L. (2018). “Diritto penale e tecnologie infor-
matiche: una visione d’insieme”, en Cadoppi, A., Canestrari, S., Manna, A., Papa, M. (a cura
di), Cybercrime, cit., pág. 35 y ss., pág. 46 y ss.; Clough, J. (2015). Principles of Cybercrime.
2nd ed., London, pág. 3 y ss.; Gillespie, A. (2015). Cybercrime. 2nd ed., Cambridge. Más
en general, sobre la relación entre IA, cibercrimen y Derecho penal, véase Baker, D.,
Robinson, P.H. (eds.) (2021). AI and the Law. Cybercrime and Criminal Liability, London;
Milivojevic, S. (2021). Crime and Punishment in the Future Internet. New York.
92
Sobre un análisis crítico de la estructura normativa del artículo 615-ter CPI,
consultar a Pecorella, C. (2006). Il diritto penale dell’informatica. Milano, pág. 306 ss.;
Salvadori, I. (2013). “L’accesso abusivo ad un sistema informatico o telematico. Una fattis-
pecie paradigmatica dei nuovi beni giuridici emergenti nel diritto penale dell’informatica”,
en Picotti, L. (a cura di), Tutela penale della persona e nuove tecnologie, Padova, pág. 125 y
ss.; Salvadori, I. (2018). “I reati contro la riservatezza informática”, cit., pág. 656 y ss., pág.
666 y ss.; Salvadori, I. (2013). “¿El delito de acceso abusivo a un sistema informático se
puede aplicar también a los insider?”. Revista Derecho Penal Contemporáneo, n. 43, pág.
5 y ss.
95
Sobre la imposibilidad de equiparar tales sistemas a los animales vid., Basile, F.
(2019). “Intelligenza artificiale”, cit., págs. 32-33.
96
En relación con lo expuesto véase Danaher, J. (2017). “Robotic Rape and Robotic
Child Sexual Abuse: Should They Be Criminalized?”. Criminal Law & Philosophy, pág.
71 y ss.; Brown, R., Shelling, J. (2019). “Exploring the Implications of Child Sex Tools”.
Trends & Issues in Crime and Criminal Justice, n.° 570, pág. 2 y ss.; Forsch-Villaronga,
E., Poulsen, A. (2020), “Sex Care Robots. Exploring the Potential Use of Sexual Robot
Technologies for Disabled and Elder Care”. J. Behav. Robot, n.° 11, pág. 1 y ss.; González-
González, C.S., Gil-Iranzo, R.M., Paderewski-Rodríguez, P. (2021). “Human-Robot
Interaction and Sexbots: A systematic Literature Review”. Sensors, n.° 21, pág. 216 y ss.
97
Sobre el controvertido concepto legal de pornografía infantil virtual, véase, en
la jurisprudencia italiana, Cass. pen., sez. III, 13 de enero de 2017 (dep. 9 mayo 2017), n.
22265, lo que también lo ha extendido al cómic, al considerar que las conductas relativas
a dichos materiales deben ser sancionadas ya que alimentan “la atracción por manifes-
taciones sexuales destinadas a involucrar a menores”, y terminan poniendo en peligro la
personalidad aún en formación del menor. En general, vid., Bianchi M. (2019). I confi-
ni della repressione penale della pornografia minorile. Torino, pág. 431 y ss.; Salvadori, I
(2016). I reati di possesso, cit., pág. 185 y ss., pág. 223 y ss.
102
Cfr. Beck, S. (2017). “Google Cars, Software Agents”, cit., pág. 47; Gless, S.,
Silverman, E., Weigend, T. (2016). “If Robots Cause Harm”, cit., pág. 434, que destacan
cómo la persona que sufre dicho daño debe ser considerada como una “víctima” de la
empresa y no de la conducta lesiva culpable de una persona en concreto.
103
Cfr. Pagallo, U. (2016). “Even Angels Need the Rules”, cit., págs. 213-214, que
recuerda la interesante elección del gobierno japonés de crear laboratorios (los llamados
Tokku) en determinadas zonas del país en los que científicos y ciudadanos puedan real-
mente probar cómo a.a. y los robots realizan las funciones para las que fueron creados.
De esta forma es posible establecer cuáles son los problemas legales que pueden derivarse
de su uso efectivo y de su interacción directa con el ser humano.
104
De manera más general, sobre la conveniencia de adoptar reglas de precau-
ción “positivas” en términos de reducción de riesgos, ver las interesantes reflexiones de
Palazzo, F. (2016). “Obblighi prevenzionistici, imputazione colposa e discrezionalità giudi-
ziale”. Dir. pen. proc., n.° 12, pág. 1545 y ss., pág. 1547 y ss.
105
Sobre las relaciones entre ética e IA véase Dignum, V. (2019). Responsible
Artificial Intelligence. Cham; así como las importantes directrices desarrolladas por el
grupo independiente de expertos de alto nivel (el llamado AI HLEG), designado por la
Comisión Europea, y publicado en Comisión Europea (2018). “Directrices éticas para una
IA fiable”. Disponible en: https://ec.europa.eu/futurium/en/ai-alliance-consultation (fecha
de consulta: 8 de mayo de 2021); en sentido similar véase Oecd (2019). “Reccomendation
of the Council on Artificial Intelligence”. Disponible en: https://legalinstruments.oecd.org/
en/instruments/OECD-LEGAL-0449 (fecha de consulta: 8 de mayo de 2021); Oecd (2019).
“Policy and Investment Recommendation for Trustworthy AI”. Disponible en: https://www.
europarl.europa.eu/cmsdata/196378/AI% 20HLEG_Policy%20 and %20Investment%20
Recommendations.pdf (fecha de consulta: 8 de mayo de 2021).