Está en la página 1de 4

Rodrigo Fernández Martín

Jorge Blasco García


Claudia Bodoque Vicente

INTELIGENCIA ARTIFICIAL E IMPUTABILIDAD

Los inicios de la Inteligencia Artificial (IA) se remontan a 1920, y desde entonces se ha


convertido en una disciplina que se encuentra en auge constante. De manera progresiva
se ido desarrollando el campo de la tecnología, hasta llegar al momento actual donde se
han creado robots como Sophia, capaces de aprender de manera parecida a como lo
hacen los seres humanos y de poder tener una conversación fluida y coherente con ellos.

La IA se refiere a la rama de la tecnología destinada a crear máquinas (robots) que


simulen las cualidades y características cognitivas propias y exclusivas de los seres
humanos (comprender, razonar, aprender, resolver problemas, tomar decisiones
autónomas…). Una de las clasificaciones más acertadas de los robots con IA es la que
los divide en “estrecha” y “fuerte”. La IA estrecha se refiere a aquellos software que con
creados para hacer una tarea concreta, de manera que sus limitaciones radican en para lo
que han sido creados. La fuerte, también llamadas Artificial General Intelligence (AGI),
es aquella que pretende simular el cerebro y el funcionamiento humano a través de la
creación de robots capaces de realizar cualquier tarea de igual manera que un ser
humano inteligente y con una capacidad de conciencia y de aprendizaje parecida a la de
una persona.

No obstante, a día de hoy todavía no se ha logrado crear un robot con características tan
humanas como es la inteligencia emocional, referida a la capacidad de sentir, entender y
regular los estados emocionales de uno mismo y de los demás. Sin embargo, los avances
en esta disciplina y la creación de robots dotados cada vez de más autonomía ponen
sobre la mesa algunos riesgos asociados.

La gran problemática es que en la medida que los seres humanos dan vida y autonomía
a la máquina, el control de ésta por parte del creador se verá enormemente dificultado.
De esta manera el robot con IA podrá llevar a cabo determinadas acciones que no son
deseadas ni prevenidas por quien la creó. Con respecto a esto último, ya se han dado
casos en los que la seguridad y la vida de las personas se ha visto afectada por
actuaciones de máquinas: un robot en Japón que confundió a un trabajador con una
Rodrigo Fernández Martín
Jorge Blasco García
Claudia Bodoque Vicente
amenaza y le mató, un coche con sistema inteligente y automático de conducción que
confundió un fondo con el azul el cielo y provocó un choque mortal para el conductor…

Existe gran preocupación social acerca de la continuación en el desarrollo de este tipo


de tecnologías, ya que se teme por las consecuencias tan devastadoras que puede
suponer en tanto en cuanto el robot se haga incontrolable por el ser humano. El miedo
es referido fundamentalmente a la seguridad e integridad de las personas, a la privacidad
de los datos si se emplean maquinarias con IA en campos como por ejemplo la
medicina, al aumento del desempleo en el caso que se empiecen a utilizar en las áreas
laborales y al incremento de la discriminación y xenofobia. Los problemas de
discriminación, se dan por ejemplo con el uso de programas informáticos en el ámbito
judicial. Un ejemplo de esto se encuentra en Estados Unidos, donde se utilizó el
programa COMPAS para medir la peligrosidad de un imputado y tomar así una decisión
sobre su futuro. El problema fue que el programa sólo tuvo en cuenta una variable
(número de detenciones), dejándose de lado otros aspectos (asunción de
responsabilidad, patologías mentales…).

Todo esto hace que se cuestione mucho la imputabilidad en los casos en los que la IA,
como consecuencia de sus actuaciones, genere daños y perjuicios a la persona. ¿Será la
empresa creadora la que debe asumir la responsabilidad de las actuaciones de su robot?,
o, ¿Será el propio robot, autónomo y capaz de tomar sus propias decisiones, el que debe
responder por sus actos?

La IA no es igual de autónoma que los humanos y por tato no es igual de imputable.


La legislación actual exige dos requisitos para que exista un delito: el objetivo (acción,
típica y no justificada) y el subjetivo (imputabilidad, dolo y exigibilidad de una conducta
distinta). Partimos de la existencia del injusto penal (primer requisito) y se pone en
cuestión la culpabilidad (segundo requisito) debido a la desconocida autonomía de las
máquinas (Hernández, 2019). Además, se da por hecho que el sistema artificial no está
diseñado con fines delictivos. Razonar desde una tesis determinista nos lleva
obligatoriamente a la inexistencia de autonomía, por lo que suponemos la tesis del
libre albedrío y, en consecuencia, de la capacidad cognoscitiva y volitiva del sistema
artificial, originándose dos posibilidades (Lariguet, 2015). Por un lado, que el creador
Rodrigo Fernández Martín
Jorge Blasco García
Claudia Bodoque Vicente
de la máquina sea el creador de su capacidad cognoscitiva y volitiva y, por tanto, de su
imputabilidad o, que el diseñador de la máquina aporte la estructura básica necesaria
que permita el libre desarrollo temporal de estas capacidades.

En el primer supuesto la autonomía del sistema artificial queda restringida desde su


creación, asumiendo directamente la imputabilidad el creador. En el segundo caso la
independencia queda al servicio del desarrollo individual de la máquina y es aquí
donde se origina de nuevo un problema, ¿el error (delito) de la máquina es
consecuencia de un fallo de software por parte del creador o un fallo de la máquina a
la hora de desarrollar sus propias habilidades? (Quintero, 2017). El primer supuesto
nos lleva de nuevo a negar la autonomía de la IA, sin embargo, el segundo
planteamiento deposita cierta responsabilidad en la máquina. Siguiendo con el
segundo desarrollo se podría afirmar que ese error, no proveniente de “fábrica”, sino
que es adquirido en el desarrollo evolutivo, circunstancia que coincide con la eximente
de responsabilidad penal recogida en el art. 20.3 del Código Penal: “El que, por sufrir
alteraciones en la percepción desde el nacimiento o desde la infancia, tenga alterada
gravemente la conciencia de la realidad”. En caso de no apreciarse una eximente
completa por falta de criterios estrictos (como es entendible a la hora de enjuiciar un
sistema artificial y no un ser humano) en su defecto se puede aplicar la eximente
incompleta del art. 21.1 CP en relación con el art. 20.3 del CP.

De la casuística recogida se predica que la autonomía de la IA en ninguno de los casos


alcanza la capacidad cognoscitiva y volitiva característica de la especie humana. La
duda existente es si su facultad se encuentra por debajo de la capacidad suficiente
(inimputabilidad) o entre este nivel y el de capacidad normal (inimputabilidad parcial),
recogiendo la imposibilidad de que llegue a la capacidad normal y por tanto a la
condición de imputabilidad, es decir, a asumir su autonomía e independencia respecto
del ser humano creador.

Lariguet, G.C. (2015). Derecho penal, determinismo y libertad. Revista de Derecho


Penal y Criminología, 1, 78-90.
Rodrigo Fernández Martín
Jorge Blasco García
Claudia Bodoque Vicente
Quintero, G. (2017). La robótica ante el derecho penal: el vacío de respuesta jurídica a
las desviaciones incontroladas. Revista Electrónica de Estudios Penales y de la
Seguridad, 1.

Hernández, M. (2019). Inteligencia artificial y derecho penal. Actualidad Jurídica


Iberoamericana, 10 bis, 792-843.

También podría gustarte