Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TITULO
Responsabilidad civil derivada del uso de la inteligencia artificial y las tic
Integrantes:
Ramón Antonio Villa Pérez
Descripción
La Inteligencia Artificial (IA) fue definida genéricamente, en 1956, por J. McCarthy, como
“la ciencia e ingeniería de hacer máquinas que se comporten de una forma que llamaríamos
comportamiento inteligente al ser capaz, entre otras cosas, de recopilar y tratar datos,
analizar e interpretar su entorno y pasar a la acción, con cierto grado de autonomía, con el
fin de alcanzar objetivos específicos”. La noción europea más precisa es la alcanzada por el
Grupo de expertos de alto nivel de la Comisión Europea que define los sistemas de
informáticos) diseñados por seres humanos que, dado un objetivo complejo, actúan en la
más o menos desordenada– de los siguientes factores lógicos, físicos y matemáticos: los
Página |2
sistemas, los programas, los algoritmos, los objetivos definidos y las capacidades de
corrección o autoaprendizaje; amén de una semejanza inicial con la inteligencia natural del
ser humano.
notable de los usos de dicha inteligencia artificial. Pues bien, de este contraste o paradoja
civil –en sede judicial y extrajudicial– de los consumidores frente a los operadores de
pobreza, la ignorancia y la enfermedad de la faz de la Tierra. Ello nos llevó a advertir, hace
ya algunos años, sobre una suerte de “mito de los algoritmos neutrales”, que acompañaba la
neutrales” nos hemos referido al contraste entre: Por una parte, la afirmación generalizada
sentido de que no afectaba a los riesgos para el consumidor porque, por ejemplo, generaban
caso del blokchain). Y, por otra parte, la realidad siempre tozuda y constatable –por
los algoritmos pueden mentir, engañar y manipular (y ser manipulados) mediante, por
Por otro lado las Tecnologías de la Información y las Comunicaciones (TIC), son el
información como: voz, datos, texto, video e imágenes (Art. 6 Ley 1341 de 2009). El año
instituciones se han ido adaptando a modelos más híbridos pero la eficiencia de sus
El objetivo por parte de los hackers de robar datos e información confidencial de grandes
empresas han aumentado un 93% a nivel global con respecto a 2020 y se ha generalizado.
Sin embargo, no todos los países tienen el mismo nivel de riesgo de sufrir una brecha de
seguridad; de acuerdo con el último informe presentado por la fiscalía general de la Nación,
Formulación
¿Cuál sería el grado de responsabilidad civil derivada del uso de la Inteligencia artificial y
las TIC?
Página |4
Justificación
La pandemia nos ha obligado a permanecer más tiempo conectados y esto ha generado un
gubernamentales.
seguiremos escuchando a diario, noticias del tema. Casos como el ocurrido en Virginia
donde un ataque de ransomware causó el cierre de los sistemas informáticos y sitios web,
Los ataques ransomware no son más que un software malicioso que secuestra los datos de
los ordenadores de los usuarios para extorsionarlos y pedir un rescate por ellos. Esta
Bitdefender señalan que este tipo de ataques ha aumentado cerca de 200% globalmente y
corporativo, según la Fiscalía General de la Nación, solo en el primer semestre del año se
riesgos del uso de robots para dilucidar los puntos donde las reglas tradicionales existentes
sobre la responsabilidad civil y del Estado se quedarían cortas para resolver los conflictos
Página |5
que se podrían suscitar. No consideramos que todo fenómeno nuevo derivado del desarrollo
científico y tecnológico requiera normas nuevas, pues gran parte de los supuestos
jurídicas ya dispuestas.
cantidad de ámbitos diferentes en los cuales se utilizan robots y cada uno de ellos
sobre la guerra, las relaciones entre los estados y los derechos humanos. Los vehículos
autónomos, todas las particularidades y reglas sobre tránsito y circulación. En los robots
asistenciales tener en cuenta la fragilidad o “discapacidades” que podrían tener los usuarios.
por ello, vamos a tomar un ejemplo que consideramos simple y que podría ser de uso
frecuente, para analizar las instituciones básicas de la responsabilidad civil, como una base
o tronco común al que se le podrían colgar luego todas las arandelas de las actividades o
usos particulares: un robot de uso doméstico, adquirido por un consumidor para asistir en
tareas del hogar, pero suponemos que algunas de las tareas incluyen la circulación del robot
por la calle (ej. para sacar la basura o pasear al perro). En paralelo, para analizar la
enfocamos hacia daños materiales y personales, sobre las cosas y las personas, por
Página |6
colisiones e impactos, con personas u otras cosas, caídas del robot o de las cosas que lleva,
omisiones” (por usar el término común en el sector asegurador), como malas decisiones que
afectaciones emocionales por vínculos afectivos que podrían establecerse con la máquina
con caracteres humanoides, publicidad engañosa, etc. (Palmerini, 2017, p.71). Pero los
dejamos aquí enunciados porque hacen parte del radar de riesgos a considerar con la
operación de robots.
ordenamiento, entonces, para abordar los daños señalados es la culpa. La culpa que si bien
como concepto jurídico ya se tenía desde el derecho romano, hoy se refiere a un juicio de
pericia, las reglas técnicas de la actividad, la lex artis, etc. Concebida para evaluar
Entonces, aplicada esta noción a las situaciones que nos ocupan, siempre que se encuentre
una falla humana con incidencia causal en el daño de un robot se podrá atribuir
responsabilidad con culpa; para esto se deberá identificar el sujeto con conducta
presunciones desvirtuables. Y allí la regulación podría, por ejemplo, establecer que ante
También normas detalladas claras sobre las condiciones en que puede darse el uso y la
circulación podrían permitir valoraciones de culpa de manera más fácil en los usuarios u
operadores.
Sobre la culpa, en principio, diríamos que no es el título de imputación más idóneo para
evaluar las actuaciones del robot. Consideramos que este tipo de reproche es propio de las
Incluso si se crean códigos éticos de lo que sería “un buen robot”, entendemos que
finalmente sería mandatos para los diseñadore y desarrolladores. Ahora, dentro de la culpa
hay matices de valoración y hoy la tendencia es hacia una valoración objetiva, respecto a un
modelo de conducta; desde un punto de vista más objetivo y con códigos de conducta
claros como referentes sí consideramos que podrían encontrarse actuaciones del robot que
de aprendizaje autónomo puede ser la que termine desconociendo estos lineamientos. Sin
embargo, en estos casos llegaríamos solo al reproche objetivo sin una solución de a quién
se le deben atribuir las consecuencias de este hecho. Así, la culpa para una serie de
analizar la falla del servicio de la responsabilidad del Estado, como un título de imputación
Página |8
apto para aquellos supuestos en que se pueda encontrar una actuación negligente de la
y daños a las personas y a las cosas. Se planteó entonces una nueva forma de ‘imputación’
de responsabilidad civil sin necesidad de examinar la conducta del causante del daño, sin
cosa) y el daño, sin que el agente pudiera argüir simple diligencia y cuidado como forma
de exoneración: la teoría del riesgo. Bajo la denominación teoría del riesgo se pueden
“englobar aquellas doctrinas que, en forma total o parcial quieren prescindir de concepto
de culpa como elemento integral de la responsabilidad civil… la teoría del riesgo trata de
prescindir de la idea de culpa, pero se acude al correctivo del riesgo creado o del riesgo-
provecho” (Tamayo, T1, 2007. P. 822). La teoría del riesgo se fundamenta en que: aquel
que hace uso de bienes riesgosos o ejerce actividades peligrosas, debe responder por los
por actividades riesgosas y el hecho de las cosas, pero sus planteamientos rápidamente
europeos, con determinante influencia del código napoleónico; es decir, la misma visión del
Página |9
o el español de 1889. Luego, los cambios sociales y la influencia de los autores franceses
supuestos; pero aquí con mayores dificultades para sustentarla, salvo algunos regímenes
legales especiales que se han consagrado, porque carecemos de una norma equivalente al
artículo 1384 del Código Civil Francés, según el cual “uno es responsable de las cosas que
responsabilidad objetiva por el hecho de las cosas. Se destaca para el ámbito civil
responsabilidad del tipo objetivo cuando una actividad humana o con cosas puede
actividades que realicen los robots, en las cuales se identifiquen fuerzas, velocidades,
pública), como una herramienta que ya existe en los ordenamientos de nuestra tradición
jurídica para atribuir daños a quien detente la “guarda” de la actividad riesgosa. Sin
embargo, en el caso que nos ocupa, la multiplicidad de sujetos que pueden intervenir en el
P á g i n a | 10
entrenamiento, etc.), así como las complejidades técnicas para dilucidar el origen o causa
Objetivo general
Esclarecer los parámetros para establecer la responsabilidad civil derivada del uso de la
Inteligencia artificial y las TIC
Objetivo especifico
Establecer los parámetros en los cuales se pueda establecer el grado de
responsabilidad civil
Realizar protocolo guía para cuando estemos ante una situación anteriormente
descrita en el presente texto
Guiar a las entidades tanto públicas como privadas en optimo manejo de su
ciberseguirdad y el uso de su IA
Pregunta problema
Cuál sería el grado de responsabilidad civil derivada del uso de la Inteligencia artificial y
las TIC
Referencias
Hermida, T. A. J. (2021, 8 junio). La responsabilidad civil derivada del uso de la
inteligencia artificial y su aseguramiento | Revista Ibero-Latinoamericana de seguros.
Recuperado 23 de septiembre de 2022, de
https://revistas.javeriana.edu.co/index.php/iberoseguros/article/view/33793
BBC News Mundo. (2019, 31 octubre). Cómo la inteligencia artificial podría destruirnos
por accidente. Recuperado 23 de septiembre de 2022, de
https://www.bbc.com/mundo/noticias-50246831