Está en la página 1de 5

Índice de

Temas:
- Responsabilidad ética
- Ética en el diseño
- Seguros y garantías
- Aprendizaje y mejora continua
La cuestión ética sobre la responsabilidad de la IA en su capacidad para
tomar decisiones

Introducción

En la actual sociedad se está introduciendo a la cotidianidad el uso de la inteligencia artificial


(IA) como herramienta práctica a necesidades situacionales. Como por ejemplo cuando una
persona la emplea para saber cómo realizar una cuenta rápida, quizás en ese contexto la
noción de responsabilidad no tendría mucho sentido debido al nivel de impacto de la
solución, el hecho de que el cálculo este erróneo simplemente haría que la persona no confíe
en la aplicación . Pero en contextos como la conducción autónoma de vehículos con IA un
error por parte del sistema podría causar un accidente con un potencial riesgo a la vida del
usuario. Por eso es que se plantea quién sería el responsable ante una decisión errónea por
parte de la IA.

Desarrollo
Las opiniones respecto al tema de la ética en la IA, son muy variadas, en algunos casos son
muy indiferentes, incluso en usuarios que la emplean, todo depende del criterio de cada
persona. Pero son pocos quienes tienen una opinión y desean compartirla con la sociedad,
entre estos pocos las opiniones son muy divididas, en amplios aspectos.
● Responsabilidad ética

Dado los principios fundamentales de la moral humana, respecto al tema sugerido en


la investigación nos podríamos plantear las siguientes preguntas ¿Son los
desarrolladores de la IA los responsables de su comportamiento? ¿Deben las empresas
que utilizan la IA asumir la responsabilidad por sus acciones?

Una de tantas respuestas es que las empresas que despliegan IA, tienen la
responsabilidad de vigilar su funcionamiento, ya que la IA no tiene una conciencia
intrínseca o valores éticos propios. Bajo un punto de vista “Ético”, las organizaciones
que tienen el control de diseñar, entrenar y desplegar los sistemas de IA, deberían
responder ante las fallas de su creación. Ya que se podría considerar como una
“negligencia”, al poder realizar rigurosas pruebas, detección de sesgos y monitoreo de
estas, si permiten que una IA defectuosa dañe a la sociedad, es su responsabilidad.

Otros podrían decir que es injusto que la culpa de un error de un producto, caiga
enteramente en su desarrollador, ya que en este caso no es tan fácil poder entrenar una
IA para que sea perfecta, además de que el utilizarla, es una elección, que las personas
toman. Por ende los riesgos que toman, deberían ser tratados como cualquier otra
herramienta, la diferencia es que es difícil determinar a diferencia de una herramienta
convencional, ¿cuando una IA es apta al completo para su uso asegurado?.
● Ética en el diseño

Al depender totalmente de cómo es programada y entrenada por humanos, los


gobiernos tendrían que desarrollar regulaciones éticas y protocolos de pruebas
rigurosos antes de permitir aplicaciones de IA como vehículos autónomos,
diagnósticos médicos, etc. Por último los derechos humanos deberían ser siempre la
principal prioridad sobre la eficiencia o conveniencia de la IA.

Respecto a este tema hay quienes priorizan que la IA se enfoque en la eficiencia, ya


que buscan precisamente una herramienta sin límites o ataduras como las que pueden
ser la moral. En otras palabras ellos quieren ser los que delimiten la ética de sus
productos, no necesitan una mente pensante y confiable, sino una herramienta
eficiente, funcionable y obediente.

● Marco legal y regulatorio

Como se mencionó anteriormente, los gobiernos deberían establecer agencias


regulatorias para el desarrollo, el dilema aca esta en el ¿cómo?, ¿se puede planificar,
encontrar y organizar profesionales para esta labor?. O incluso la pregunta ¿es
relevante para nuestro país?, que se necesita para que una persona con cargo político
se decida a crear un proyecto para la elaboración de una agencia de este estilo.

Las respuestas se relacionan con las anteriores ya que las personas que les gustaría ver
una sociedad totalmente acostumbrada a las IAs, y gracias al surgimiento de estas
organizaciones, se podría empezar a compartir el conocimiento de estas herramientas.

Por otro lado están los que no le ven sentido o no encuentran necesario la fundación
de estas organizaciones, al considerarlo solo un gasto, al pensar que la ética y moral
no son propios de una herramienta, sino que de un humano, y debería quedar así.
● Seguros y garantías

Es probable que en un futuro se requieran nuevos seguros de responsabilidad


para cubrir daños causados por sistemas de IA, similar a los seguros de
autos.

Las empresas que desarrollan y venden sistemas de IA quizás deban


proporcionar garantías sobre su funcionamiento seguro y libre de defectos.
Esto introduce responsabilidad legal para los proveedores.

Cuando la IA cause daños, debe haber un proceso claro para que las víctimas
busquen compensación justa de las partes responsables, lo cual a día de hoy
es difícil de hacer, ya que no se han establecido normas para esto.
● Aprendizaje y mejora continua
El aprendizaje y mejora continua de los sistemas de IA es otro área que
presenta desafíos regulatorios interesantes, ¿Cómo se manejarán las
actualizaciones y parches de software en los sistemas de IA desplegados?
Los reguladores probablemente requerirán procesos estrictos de control de
calidad y pruebas.

A medida que los sistemas de IA recopilan más datos, ¿cómo se garantizará


que esto mejore el sistema en lugar de introducir sesgos? Se necesitan
salvaguardas de equidad alimentadas con nuevos datos.

Sin duda, permitir la mejora continua sin comprometer la seguridad es un


desafío regulatorio clave a medida que la IA se integre más profundamente en
áreas sensibles. Se requerirán enfoques ágiles pero cautelosos.

Conclusión

En base a nuestro trabajo de investigación, llegamos a la conclusión de que las opiniones


de las sociedad son algo extremistas, como quienes desean solo una herramienta sin filtros,
y que dejen en manos de las personas el problema de la moral y la ética. Esto podría
interpretarse de dos formas depende como lo mires, o intentan decir, que no les importa lo
que le pase a las demás personas mientras les brinden el mejor servicio posible, o que cada
uno se haga responsable de sus acciones, incluso podrían ser ambas.

Pero en definitiva todos los aspectos abarcados en este informe se correlacionan, y enlazan
para dar a conocer los distinto puntos de vistas acerca de la ética, tanto en la creación como
en el uso de las IA, pero enfocándonos en la responsabilidad del desarrollador.

Este tema sin lugar a duda es uno mucho muy interesante, sobre todo, porque nos pone a
pensar, como

También podría gustarte