Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Temas:
- Responsabilidad ética
- Ética en el diseño
- Seguros y garantías
- Aprendizaje y mejora continua
La cuestión ética sobre la responsabilidad de la IA en su capacidad para
tomar decisiones
Introducción
Desarrollo
Las opiniones respecto al tema de la ética en la IA, son muy variadas, en algunos casos son
muy indiferentes, incluso en usuarios que la emplean, todo depende del criterio de cada
persona. Pero son pocos quienes tienen una opinión y desean compartirla con la sociedad,
entre estos pocos las opiniones son muy divididas, en amplios aspectos.
● Responsabilidad ética
Una de tantas respuestas es que las empresas que despliegan IA, tienen la
responsabilidad de vigilar su funcionamiento, ya que la IA no tiene una conciencia
intrínseca o valores éticos propios. Bajo un punto de vista “Ético”, las organizaciones
que tienen el control de diseñar, entrenar y desplegar los sistemas de IA, deberían
responder ante las fallas de su creación. Ya que se podría considerar como una
“negligencia”, al poder realizar rigurosas pruebas, detección de sesgos y monitoreo de
estas, si permiten que una IA defectuosa dañe a la sociedad, es su responsabilidad.
Otros podrían decir que es injusto que la culpa de un error de un producto, caiga
enteramente en su desarrollador, ya que en este caso no es tan fácil poder entrenar una
IA para que sea perfecta, además de que el utilizarla, es una elección, que las personas
toman. Por ende los riesgos que toman, deberían ser tratados como cualquier otra
herramienta, la diferencia es que es difícil determinar a diferencia de una herramienta
convencional, ¿cuando una IA es apta al completo para su uso asegurado?.
● Ética en el diseño
Las respuestas se relacionan con las anteriores ya que las personas que les gustaría ver
una sociedad totalmente acostumbrada a las IAs, y gracias al surgimiento de estas
organizaciones, se podría empezar a compartir el conocimiento de estas herramientas.
Por otro lado están los que no le ven sentido o no encuentran necesario la fundación
de estas organizaciones, al considerarlo solo un gasto, al pensar que la ética y moral
no son propios de una herramienta, sino que de un humano, y debería quedar así.
● Seguros y garantías
Cuando la IA cause daños, debe haber un proceso claro para que las víctimas
busquen compensación justa de las partes responsables, lo cual a día de hoy
es difícil de hacer, ya que no se han establecido normas para esto.
● Aprendizaje y mejora continua
El aprendizaje y mejora continua de los sistemas de IA es otro área que
presenta desafíos regulatorios interesantes, ¿Cómo se manejarán las
actualizaciones y parches de software en los sistemas de IA desplegados?
Los reguladores probablemente requerirán procesos estrictos de control de
calidad y pruebas.
Conclusión
Pero en definitiva todos los aspectos abarcados en este informe se correlacionan, y enlazan
para dar a conocer los distinto puntos de vistas acerca de la ética, tanto en la creación como
en el uso de las IA, pero enfocándonos en la responsabilidad del desarrollador.
Este tema sin lugar a duda es uno mucho muy interesante, sobre todo, porque nos pone a
pensar, como