Está en la página 1de 11

Página |1

TITULO
Responsabilidad civil derivada del uso de la inteligencia artificial y las tic
Integrantes:
Ramón Antonio Villa Pérez

Planteamiento del problema

Descripción

La Inteligencia Artificial (IA) fue definida genéricamente, en 1956, por J. McCarthy, como

“la ciencia e ingeniería de hacer máquinas que se comporten de una forma que llamaríamos

inteligente si el humano tuviese ese comportamiento”. En fechas recientes, la Comisión

Europea ha precisado la definición de la Inteligencia Artificial como “un sistema basado en

programas informáticos o incorporado en dispositivos físicos que manifiesta un

comportamiento inteligente al ser capaz, entre otras cosas, de recopilar y tratar datos,

analizar e interpretar su entorno y pasar a la acción, con cierto grado de autonomía, con el

fin de alcanzar objetivos específicos”. La noción europea más precisa es la alcanzada por el

Grupo de expertos de alto nivel de la Comisión Europea que define los sistemas de

inteligencia artificial (IA) como “programas informáticos (y posiblemente también equipos

informáticos) diseñados por seres humanos que, dado un objetivo complejo, actúan en la

dimensión física o digital mediante la percepción de su entorno mediante la adquisición de

datos, la interpretación de los datos estructurados o no estructurados, el razonamiento sobre

el conocimiento o el tratamiento de la información, fruto de estos datos y la decisión de las

mejores acciones que se llevarán a cabo para alcanzar el objetivo fijado”.

De lo anterior podemos inferir que las definiciones de la IA son fruto de la acumulación –

más o menos desordenada– de los siguientes factores lógicos, físicos y matemáticos: los
Página |2

sistemas, los programas, los algoritmos, los objetivos definidos y las capacidades de

corrección o autoaprendizaje; amén de una semejanza inicial con la inteligencia natural del

ser humano.

Podemos apreciar, en la actualidad, un cierto subdesarrollo de la “cultura de la

reclamación” en el mundo de la inteligencia artificial. Ello contrasta con el desarrollo

notable de los usos de dicha inteligencia artificial. Pues bien, de este contraste o paradoja

nos permite aventurar un crecimiento exponencial de las reclamaciones de responsabilidad

civil –en sede judicial y extrajudicial– de los consumidores frente a los operadores de

sistemas de inteligencia artificial en un futuro próximo.

En este momento, procede recordar el entusiasmo generalizado que produce la inteligencia

artificial como una especie de “maná” providencial que desterrará automáticamente la

pobreza, la ignorancia y la enfermedad de la faz de la Tierra. Ello nos llevó a advertir, hace

ya algunos años, sobre una suerte de “mito de los algoritmos neutrales”, que acompañaba la

“paradoja de la trasparencia digital”. Con la expresión del “mito de los algoritmos

neutrales” nos hemos referido al contraste entre: Por una parte, la afirmación generalizada

de que el uso de algoritmos –especialmente, en las finanzas– tenía un impacto neutral en el

sentido de que no afectaba a los riesgos para el consumidor porque, por ejemplo, generaban

registros desconcentrados e interconectados imposibles de manipular (por ejemplo, en el

caso del blokchain). Y, por otra parte, la realidad siempre tozuda y constatable –por

ejemplo. cuando se examina la jurisprudencia sobre delincuencia financiera digital– de que

los algoritmos pueden mentir, engañar y manipular (y ser manipulados) mediante, por

ejemplo, prácticas en el mercado de valores de multiplicación patológica de órdenes


Página |3

(“quote stuffing”), de indicios falsos (“spoofing”), de órdenes contradictorias prácticamente

simultáneas (“churning”) y de anticipación parasitaria (“sniffers”).

Por otro lado las Tecnologías de la Información y las Comunicaciones (TIC), son el

conjunto de recursos, herramientas, equipos, programas informáticos, aplicaciones, redes y

medios; que permiten la compilación, procesamiento, almacenamiento, transmisión de

información como: voz, datos, texto, video e imágenes (Art. 6 Ley 1341 de 2009). El año

2021 puso en evidencia la capacidad de defensa de grandes empresas y organizaciones

públicas y privadas en materia de ciberseguridad. En la medida que pasa el tiempo, las

instituciones se han ido adaptando a modelos más híbridos pero la eficiencia de sus

sistemas de seguridad se ha visto perjudicada.

El objetivo por parte de los hackers de robar datos e información confidencial de grandes

empresas han aumentado un 93% a nivel global con respecto a 2020 y se ha generalizado.

Sin embargo, no todos los países tienen el mismo nivel de riesgo de sufrir una brecha de

seguridad; de acuerdo con el último informe presentado por la fiscalía general de la Nación,

en Colombia en el año 2021 creció en un 30% el número de ataques cibernéticos,

comparado con el año anterior.

El robo y hackeo de la información se ha convertido en un negocio rentable y esto lo han

experimentado inclusive las organizaciones más grandes del mundo.

Formulación
¿Cuál sería el grado de responsabilidad civil derivada del uso de la Inteligencia artificial y
las TIC?
Página |4

Justificación
La pandemia nos ha obligado a permanecer más tiempo conectados y esto ha generado un

aumento exponencial en las ciberamenazas. Diariamente aparecen nuevos y más

sofisticados ataques cibernéticos que afectan a usuarios, empresas e instituciones

gubernamentales.

Modalidades como el robo de datos, fraude y ransomware continúan en tendencia y

seguiremos escuchando a diario, noticias del tema. Casos como el ocurrido en Virginia

donde un ataque de ransomware causó el cierre de los sistemas informáticos y sitios web,

de agencias y comisiones legislativas, en las que se incluyen la División de Policía del

Capitolio y la División de Servicios Legislativos, seguirán en aumento.

Los ataques ransomware no son más que un software malicioso que secuestra los datos de

los ordenadores de los usuarios para extorsionarlos y pedir un rescate por ellos. Esta

modalidad de ataque ha generado cerca de 600 millones de dólares en rescates atacando a

grandes, pequeñas y medianas empresas. Los expertos en ciberseguridad de Fiberlux y

Bitdefender señalan que este tipo de ataques ha aumentado cerca de 200% globalmente y

un 140% en Latinoamérica, Colombia se encuentra entre los países principalmente

afectados junto a Perú y México.

En Colombia es alarmante el crecimiento de los ataques informáticos en el ámbito

corporativo, según la Fiscalía General de la Nación, solo en el primer semestre del año se

registró 20.502 crímenes que evidencia un aumento del 36%.

En cuanto a la inteligencia artificial pretendemos resaltar aquellas particularidades en los

riesgos del uso de robots para dilucidar los puntos donde las reglas tradicionales existentes

sobre la responsabilidad civil y del Estado se quedarían cortas para resolver los conflictos
Página |5

que se podrían suscitar. No consideramos que todo fenómeno nuevo derivado del desarrollo

científico y tecnológico requiera normas nuevas, pues gran parte de los supuestos

encajarían en normas existentes en el ordenamiento y serían suficientes las consecuencias

jurídicas ya dispuestas.

Lo primero, entonces, es poner un marco de situaciones fácticas de referencia. Ya vimos la

cantidad de ámbitos diferentes en los cuales se utilizan robots y cada uno de ellos

ameritaría consideraciones particulares. Así, por ejemplo, los robots en el ejercicio de la

medicina implican la consideración de reglas especiales que rigen la actividad, normas

técnicas, códigos éticos y los intereses públicos en la salud y en el avance de la medicina.

En materia de robots bélicos, toda la serie de disposiciones nacionales e internacionales

sobre la guerra, las relaciones entre los estados y los derechos humanos. Los vehículos

autónomos, todas las particularidades y reglas sobre tránsito y circulación. En los robots

asistenciales tener en cuenta la fragilidad o “discapacidades” que podrían tener los usuarios.

El objetivo de este primer trabajo entonces excedería el análisis de esas particularidades y,

por ello, vamos a tomar un ejemplo que consideramos simple y que podría ser de uso

frecuente, para analizar las instituciones básicas de la responsabilidad civil, como una base

o tronco común al que se le podrían colgar luego todas las arandelas de las actividades o

usos particulares: un robot de uso doméstico, adquirido por un consumidor para asistir en

tareas del hogar, pero suponemos que algunas de las tareas incluyen la circulación del robot

por la calle (ej. para sacar la basura o pasear al perro). En paralelo, para analizar la

responsabilidad del Estado, un robot de asistencia a labores de mantenimiento en una

oficina pública. Y en esos escenarios seleccionados, para efectos metodológicos, nos

enfocamos hacia daños materiales y personales, sobre las cosas y las personas, por
Página |6

colisiones e impactos, con personas u otras cosas, caídas del robot o de las cosas que lleva,

lesiones en la interacción con adultos, niños, mascotas. No se analizarán en este momento,

entonces, afectaciones a la intimidad, recopilación indebida de datos personales, “errores y

omisiones” (por usar el término común en el sector asegurador), como malas decisiones que

puedan llevar a daños económicos puros, incumplimiento de contratos, de servicios

públicos, imposiciones de multas, tampoco la pérdida o daño del mismo robot, ni

afectaciones emocionales por vínculos afectivos que podrían establecerse con la máquina

con caracteres humanoides, publicidad engañosa, etc. (Palmerini, 2017, p.71). Pero los

dejamos aquí enunciados porque hacen parte del radar de riesgos a considerar con la

operación de robots.

La culpa y la falla del servicio. La primera herramienta que encontramos en el

ordenamiento, entonces, para abordar los daños señalados es la culpa. La culpa que si bien

como concepto jurídico ya se tenía desde el derecho romano, hoy se refiere a un juicio de

sobre a la actuación del agente, a partir de un modelo de referencia de conducta (abstracto)

que construye el fallador, considerando los deberes jurídicos, la diligencia, cuidado y

pericia, las reglas técnicas de la actividad, la lex artis, etc. Concebida para evaluar

conductas humanas, a partir del reconocimiento de la voluntad y del libre albedrío ya

mencionado, correlativos a la idea de responsabilidad.

Entonces, aplicada esta noción a las situaciones que nos ocupan, siempre que se encuentre

una falla humana con incidencia causal en el daño de un robot se podrá atribuir

responsabilidad con culpa; para esto se deberá identificar el sujeto con conducta

reprochable (fabricante -diseñador, desarrollador-, el operador o usuario, el propietario, el

encargado del mantenimiento, etc.)


Página |7

En segundo lugar, la culpa permite la existencia de presunciones de culpa, verdaderas

presunciones desvirtuables. Y allí la regulación podría, por ejemplo, establecer que ante

ciertas anomalías de funcionamiento existan presunciones de culpa en los fabricantes.

También normas detalladas claras sobre las condiciones en que puede darse el uso y la

circulación podrían permitir valoraciones de culpa de manera más fácil en los usuarios u

operadores.

Sobre la culpa, en principio, diríamos que no es el título de imputación más idóneo para

evaluar las actuaciones del robot. Consideramos que este tipo de reproche es propio de las

conductas humanas, por lo explicado sobre sus fundamentos en la voluntad y la libertad.

Incluso si se crean códigos éticos de lo que sería “un buen robot”, entendemos que

finalmente sería mandatos para los diseñadore y desarrolladores. Ahora, dentro de la culpa

hay matices de valoración y hoy la tendencia es hacia una valoración objetiva, respecto a un

modelo de conducta; desde un punto de vista más objetivo y con códigos de conducta

claros como referentes sí consideramos que podrían encontrarse actuaciones del robot que

se valoren objetivamente como “reprochables”, y que incluso la máquina en sus procesos

de aprendizaje autónomo puede ser la que termine desconociendo estos lineamientos. Sin

embargo, en estos casos llegaríamos solo al reproche objetivo sin una solución de a quién

se le deben atribuir las consecuencias de este hecho. Así, la culpa para una serie de

situaciones relativas a daños causados por robots resulta un criterio insuficiente o

incompleto para efectos de atribución de responsabilidad.

En la misma línea de la culpa valorada de manera objetiva o en abstracto podríamos

analizar la falla del servicio de la responsabilidad del Estado, como un título de imputación
Página |8

apto para aquellos supuestos en que se pueda encontrar una actuación negligente de la

administración pública con incidencia causal en el daño a la víctima.

El robot como una cosa o desempeñando actividades peligrosas/ riesgo excepcional

A partir de la primera revolución industrial y la consecuente introducción de nuevas

máquinas en la sociedad con potentes fuerzas y aceleraciones, se dispararon los accidentes

y daños a las personas y a las cosas. Se planteó entonces una nueva forma de ‘imputación’

de responsabilidad civil sin necesidad de examinar la conducta del causante del daño, sin

requerirse un juicio de reproche o de culpa, bastando la relación causal entre la actividad (o

cosa) y el daño, sin que el agente pudiera argüir simple diligencia y cuidado como forma

de exoneración: la teoría del riesgo. Bajo la denominación teoría del riesgo se pueden

“englobar aquellas doctrinas que, en forma total o parcial quieren prescindir de concepto

de culpa como elemento integral de la responsabilidad civil… la teoría del riesgo trata de

prescindir de la idea de culpa, pero se acude al correctivo del riesgo creado o del riesgo-

provecho” (Tamayo, T1, 2007. P. 822). La teoría del riesgo se fundamenta en que: aquel

que hace uso de bienes riesgosos o ejerce actividades peligrosas, debe responder por los

daños ocasionados como consecuencia de ello (Molinari, 2004, p. 25)

En Francia fueron Saleilles y Josserand quienes dieron fuerza a la responsabilidad objetiva

por actividades riesgosas y el hecho de las cosas, pero sus planteamientos rápidamente

desataron toda una corriente de contradictores: doctrinantes adheridos a la idea de la culpa,

como pilar necesario de la responsabilidad civil, que consideraban a la responsabilidad

objetiva como un retroceso en el campo jurídico. Lo que se acaba de exponer sobre el

derecho francés, se asemeja a lo que ocurrió en otros ordenamientos latinoamericanos y

europeos, con determinante influencia del código napoleónico; es decir, la misma visión del
Página |9

Código de Napoleón, sobre el principio general de la culpa como presupuesto de la

responsabilidad civil, que inspiró la promulgación de códigos como el colombiano de 1887

o el español de 1889. Luego, los cambios sociales y la influencia de los autores franceses

también trajeron planteamiento de responsabilidades objetivas en países para ciertos

supuestos; pero aquí con mayores dificultades para sustentarla, salvo algunos regímenes

legales especiales que se han consagrado, porque carecemos de una norma equivalente al

artículo 1384 del Código Civil Francés, según el cual “uno es responsable de las cosas que

tiene bajo su guarda”, el cual posibilitó en Francia el planteamiento general de

responsabilidad objetiva por el hecho de las cosas. Se destaca para el ámbito civil

colombiano la sentencia reciente SC4420-2020, de 17 de noviembre de 2020, la cual, ante

un accidente de tránsito, plantea responsabilidad objetiva y “presunción de

responsabilidad” por actividad peligrosa, mientras que en materia de responsabilidad del

Estado desde la constitución del 91 el Consejo de Estado reconoce la responsabilidad

objetiva de la administración pública cuando crea riesgos excepcionales o se beneficia de

ellos y los mismos causan daños a los ciudadanos.

Más allá de la de la renuencia en la jurisdicción civil colombiana para aplicar

responsabilidad del tipo objetivo cuando una actividad humana o con cosas puede

calificarse de “riesgosa”, encontramos aquí un título de imputación aplicable a ciertas

actividades que realicen los robots, en las cuales se identifiquen fuerzas, velocidades,

aceleraciones u otros caracteres que reporten riesgos (excepcionales desde la óptica

pública), como una herramienta que ya existe en los ordenamientos de nuestra tradición

jurídica para atribuir daños a quien detente la “guarda” de la actividad riesgosa. Sin

embargo, en el caso que nos ocupa, la multiplicidad de sujetos que pueden intervenir en el
P á g i n a | 10

funcionamiento u operación del robot (dueño, usuario, productor que “vigila” el

entrenamiento, etc.), así como las complejidades técnicas para dilucidar el origen o causa

del comportamiento “riesgoso”, puede dificultar la identificación y determinación del

guardián responsable en los casos concreto.

Objetivo general
Esclarecer los parámetros para establecer la responsabilidad civil derivada del uso de la
Inteligencia artificial y las TIC

Objetivo especifico
 Establecer los parámetros en los cuales se pueda establecer el grado de
responsabilidad civil
 Realizar protocolo guía para cuando estemos ante una situación anteriormente
descrita en el presente texto
 Guiar a las entidades tanto públicas como privadas en optimo manejo de su
ciberseguirdad y el uso de su IA
Pregunta problema
Cuál sería el grado de responsabilidad civil derivada del uso de la Inteligencia artificial y
las TIC

Referencias
Hermida, T. A. J. (2021, 8 junio). La responsabilidad civil derivada del uso de la
inteligencia artificial y su aseguramiento | Revista Ibero-Latinoamericana de seguros.
Recuperado 23 de septiembre de 2022, de
https://revistas.javeriana.edu.co/index.php/iberoseguros/article/view/33793

Centro de Estudios Regulatorios. (2022, 23 junio). Imputación de daños causados por


robots con inteligencia artificial. Recuperado 23 de septiembre de 2022, de
https://www.cerlatam.com/publicaciones/imputacion-de-danos-causados-por-robots-con-
inteligencia-artificial-vigencia-de-los-presupuestos-tradicionales-de-la-responsabilidad-
civil-y-del-estado/
P á g i n a | 11

BBC News Mundo. (2019, 31 octubre). Cómo la inteligencia artificial podría destruirnos
por accidente. Recuperado 23 de septiembre de 2022, de
https://www.bbc.com/mundo/noticias-50246831

También podría gustarte