Está en la página 1de 14

Instituto Tecnológico de Las Américas

Asignatura:

Inteligencia Artificial

Tema:

La Ética en la Inteligencia Artificial

Facilitador:

José Ramón Taveraz

Sustentado por:

Nixiz Beltre Uceta

Matrícula:

2019-8572

Grupo:

Fecha de entrega:

Martes, 22 de junio de 2021

1
Índice

- Introducción ………………………………………………. 3

- Definición de ética ……………………………………… 4

- Definición de ética en la IA …………………………. 5

- Principios de ética en la IA …………………………. 6,7

- Problemas de la ética en la IA ………………………. 8,9

- Deberes de un robot ……………………………………. 10

- Derechos de un robot …………………………………. 11,12

- Conclusión …………………………………………………. 13

- Bibliografía ………………………………………………… 14

2
Introducción
Hace un par de años, el Comité de Inteligencia Artificial del Reino Unido, creado en
la Cámara de los Lores (la cámara alta del Parlamento británico) abordó estas
preguntas y definió cinco pilares éticos sobre los que debe construirse y
desarrollarse la capacidad de las máquinas en lo adelante:

 El desarrollo de la Inteligencia Artificial debe ser para el bien común y el


beneficio de la humanidad
 La Inteligencia Artificial debe basar su funcionamiento en los principios de
justicia e inteligibilidad
 La Inteligencia Artificial no debe utilizarse para reducir el derecho a la
información o el derecho a la privacidad de las personas, las familias o la
comunidad.
 Todos los ciudadanos deberían tener derecho a ser educados para florecer
mentalmente, emocionalmente y económicamente, paralelamente a la
Inteligencia Artificial.
 El poder autónomo para dañar, destruir o engañar a los seres humanos no
debería implementarse en la Inteligencia Artificial.

Hace poco, la UNESCO lanzó una consulta global en línea para que el público opine
sobre los aspectos éticos de la inteligencia artificial que resumieron en 11
principios y en valores como la defensa de la dignidad humana, los derechos y
libertades fundamentales, la no discriminación, la fiabilidad, la vida en armonía y la
protección al medioambiente. Estos resultados serán utilizados por un grupo
internacional de expertos de la organización para redactar un marco regulatorio a
nivel mundial para esta tecnología emergente.

Tras la publicación de esta consulta, la UNESCO expresó estar convencida de que


existe “una necesidad urgente" de garantizar de forma global que la IA responde a
los problemas éticos, sociales y políticos de la humanidad de forma adecuada.

La UNESCO reconoce que, sin control, el desarrollo de la IA puede profundizar las


divisiones y desigualdades existentes en el mundo y que no se debería dejar a
nadie atrás contra su voluntad, ya sea en el disfrute de los beneficios de la IA o en la
protección contra sus consecuencias negativas.

Queda evidenciada entonces la necesidad de contar con una regulación ética de la


inteligencia artificial, porque su mal uso genera riesgos que hay que tratar de
mitigar.

Es cierto que el paradigma de un mundo altamente tecnologizado nos aporta


grandes ventajas como usuarios, pero también presenta una serie de dilemas éticos
y morales que por su complejidad convienen sean observados y ponderados
seriamente.

3
La Ética
La ética es una disciplina de la
filosofía que estudia el
comportamiento humano y su
relación con las nociones del bien y
del mal, los preceptos morales, el
deber, la felicidad y el bienestar
común.

La palabra ética proviene del


latín ethĭcus, que a su vez procede del griego antiguo ἠθικός (êthicos), derivado
de êthos, que significa 'carácter' o 'perteneciente al carácter'.

La función de la ética como disciplina es analizar los preceptos de moral, deber y


virtud que guían el comportamiento humano hacia la libertad y la justicia.
Para cumplir con su función, la ética se subdivide en un conjunto de ramas
especializadas. Entre las ramas de la ética se reconocen las siguientes:
 Metaética: estudia las teorías éticas en sí mismas y analiza los significados
atribuidos a las palabras éticas. Por ejemplo, a qué se refiere la gente cuando habla
del bien, de la felicidad o de lo deseable.
 Ética normativa o deontología: establece principios para guiar los
sistemas de normas y deberes en ámbitos de interés común. Por ejemplo, la
llamada regla de oro (tratar a los demás como nos gustaría ser tratados).
 Ética aplicada: analiza la aplicación de las normas éticas y morales a
situaciones concretas. Por ejemplo, cuando la bioética, la ética ambiental, la ética
comunicacional, etc.
La ética se relaciona muy estrechamente con la moral, pero es diferente a esta.
Mientras la moral se refiere a normas adoptadas por tradición, la ética es una
disciplina que reflexiona sobre cuáles acciones serían correctas.

Por ello, en el lenguaje común la ética también puede ser entendida como el
sistema de valores que guía y orienta el comportamiento humano hacia el bien.

4
La Ética en la IA
La ética en la inteligencia artificial es una rama de la ética dirigida a la existencia de
robots inteligentes o cualquier otro ente que posea inteligencia artificial. La
posibilidad de crear máquinas pensantes plantea una serie de cuestiones éticas
que abarcan diferentes puntos, tanto que las máquinas no lastimen a seres
humanos o seres vivos en general, como el estatus moral propio de la máquina.

Por lo general está dividido en roboética, la preocupación por el comportamiento


moral de los seres humanos a medida que diseñan, construyen, usan y tratan a
seres de inteligencia artificial, y la ética de las máquinas, que es la preocupación
por el comportamiento moral de los agentes morales artificiales (en inglés AMAs).

Los pensadores en la actualidad están preocupados por el desarrollo de conciencia


en la inteligencia artificial, aunque no necesariamente están enfocados a lo
importante, debemos entender que desarrollar conciencia en robots no es lo
mismo que darles las funciones para realizar acciones contraproducentes. La parte
delicada es de qué forma se va a incluir la ética en la inteligencia artificial.

Tomemos de ejemplo un robot programado para producir a toda costa clips de


papel, esto podría llevarlo a buscar el control del mundo para obtener los recursos
para cumplir su meta, en realidad el robot no es malvado solamente que su sistema
no está programado para funcionar con éticas complejas o simplemente básicas
por lo que lleva al último fin su función.

El término "ética del robot" ("roboética") se refiere a la moralidad de cómo los


humanos diseñan, construyen y usan robots y otros seres artificialmente
inteligentes. Considera cómo pueden los seres artificialmente inteligentes dañar a
los humanos y cómo podemos beneficiarnos de ellos.

5
Principios de la Ética en la IA
Conscientes de que la revolución tecnológica que vivimos ha cambiado las normas
del juego a todos los niveles y que la Inteligencia Artificial es, sin duda, uno de los
principales motores de ese cambio, Paradigma Digital, multinacional española
especializada en la transformación digital de las empresas, ha querido hacer, a
partir de su cultura y sus valores, una reflexión desde el punto de vista ético sobre
estas cuestiones.

“Esta reflexión nos ha llevado a definir los 5 principios fundamentales que guían y
establecen un marco de buenas prácticas en el desarrollo de la IA en Paradigma, y
que sientan las bases de cómo trabajamos con nuestros clientes en esta área”,
explica Manuel Zaforas, responsable de Data Intelligence en Paradigma Digital.

1) Desarrollo de una IA justa y libre de prejuicios. Para velar porque los


sistemas de inteligencia artificial sean justos, evitando la discriminación de
personas y grupos con las decisiones que tomen, salvaguardando por encima de
toda la dignidad humana. Para ello, es necesario asegurarse de no usar conjuntos
de datos sesgados y controlar la posible discriminación algorítmica utilizando
métricas avaladas por expertos humanos.

2) Cumplir y ayudar a cumplir. Paradigma conoce la importancia de identificar


de manera clara y precisa la responsabilidad de las decisiones tomadas por
sistemas autónomos. Por ello, la compañía se marca el objetivo de ayudar a sus
clientes a reflexionar sobre su responsabilidad en el uso de este tipo de sistemas.
Asimismo, como diseñadores y desarrolladores de estos sistemas, Paradigma
garantiza que el desarrollo del software está siempre de acuerdo con las normas
legislativas y estándares de la industria. Y también se compromete a ayudar a los
clientes en la estimación y evaluación de las posibles consecuencias negativas y
positivas de la implantación de sistemas autónomos en sus grupos de interés y en
la sociedad en su conjunto.

3) Conocer el algoritmo y hacerlo transparente. Confiar en los sistemas


inteligentes que se desarrollan es fundamental. Conocer los algoritmos que se
crean y poder explicar su funcionamiento es la base de “la explicabilidad” de los
algoritmos. Por eso Paradigma se compromete a que sean transparentes para
poder saber cuál es la lógica que emplean y las consecuencias que se pueden
esperar. Para ello diseñan sistemas inteligentes trazables en todas sus etapas,
desde la captura de datos, las interacciones con terceros y la toma de decisiones.

6
Así se garantiza que cualquier intervención de un sistema autónomo en una
decisión siempre tendrá una explicación satisfactoria y auditable.

4) Seguridad y privacidad, pilares clave en los sistemas de IA. Los sistemas


inteligentes no deben corromper la privacidad de ninguna persona y deben
funcionar de forma segura. Por eso, el equipo de seguridad de Paradigma se
asegura de que todos los proyectos cumplan la legislación vigente, poniendo
especial atención en el GDPR y en las normas locales de los países o regiones donde
trabajan. Para ello establecen las medidas de seguridad más adecuadas para
proteger los datos y asegurar que se implantan los medios necesarios para que las
personas puedan ejercer sus derechos. Además, Paradigma es consciente de que
los sistemas basados en IA no deben decidir sin que exista supervisión humana
suficiente. Todo individuo tendrá derecho a no ser objeto de una decisión basada
únicamente en un tratamiento de datos personales automatizado, que pueda
perjudicarle, discriminarle o excluirle.

5) Orientación hacia el propósito y el impacto positivo. Paradigma apuesta por


crear una inteligencia beneficiosa para el mundo y para las personas, en donde la
prosperidad económica creada por la IA sea compartida por toda la humanidad
mejorando así los procesos sociales. Persigue e incentiva que los sistemas de
inteligencia artificial altamente autónomos estén alineados con valores y
comportamientos humanos, siendo compatibles con los ideales de dignidad
humana, derechos, libertades y diversidad cultural.

7
Problemas de la Ética en la IA

Hay que reconocer que nuestras vidas están ligadas a la inteligencia artificial y
cada vez lo estarán más, lo cual nos hace codependientes.

Es cierto que el paradigma de un mundo altamente tecnologizado nos aporta


grandes ventajas como usuarios, pero también presenta una serie de dilemas éticos
y morales que por su complejidad convienen sean observados y ponderados
seriamente.

Por ejemplo, si en nuestra ciudad se observa que, estadísticamente, determinada


población de un cierto segmento y clase social, de sexo masculino y con una edad
promedio de 40 años, es más proclive a cometer delitos, una máquina asumiría que
todo individuo que encaje en ese perfil es, por ende, “necesariamente" un
delincuente.

En algunos países ya se han registrado casos de “prejuicios" de máquinas en


procesos de revisión automatizada de perfiles profesionales: la inteligencia
artificial del sistema rechazaba automáticamente todos los currículos de mujeres,
porque la posición ofertada había sido históricamente ocupada por varones. Una
discriminación por razón de sexo que, seguramente, un reclutador humano no
habría consentido.

Empezamos a dar el poder a las máquinas para que tomen decisiones cotidianas
que afectan la vida de las personas, pero no están capacitadas para abordar
cuestiones morales, como en este último caso: ¿por qué rechazar a todas las
candidatas femeninas como el criterio concluyente para ocupar un empleo?

El aspecto a considerar en un bot es que los algoritmos con los cuales funciona
están concebidos básicamente para resoluciones matemáticas; no consideran así
la ética, conducta y comportamiento humanos en el marco de sus libertades,
deberes y derechos fundamentales.

Se ha tenido noticia de atropellos a peatones o ciclistas por parte de autos


autónomos que, aunque estaban supervisados por un operador humano tras el
guía, un sistema completamente autónomo de inteligencia artificial llevaba el
control. El auto decidió chocar al peatón como alternativa a salvar al supervisor a
bordo del vehículo, cuya vida es, para su algoritmo, prioritaria.

Se plantean en casos así cuestiones éticas y legales. ¿Quién es el responsable del


accidente, el supervisor o el vehículo que mantiene el control y toma la decisión de
chocar a un peatón como un “mal menor"? El vehículo, al fin y al cabo, cumplió su
cometido como máquina “inteligente".

8
Esto deja claro que es primordial poder tener más control sobre cómo los sistemas
recogen y procesan los datos y cómo los utilizan.

Porque no se trata de temer a la inteligencia artificial, sino más bien controlar bien
los procesos que llevan a cabo las personas que desarrollan estos programas
informáticos para que esa inteligencia artificial logre tomar decisiones más acordes
a las de la inteligencia humana.

Si actúan con integridad y pensando siempre en el bien común del ser humano,
los desarrolladores serán responsables de crear una inteligencia artificial que
apoye a la persona y a la sociedad en su progreso y crecimiento.

Por igual, hay que crear los mecanismos para que el acceso a los datos por parte de
cualquier persona sea sencillo, justo y responsable, para que los consumidores y
ciudadanos en general confíen en la tecnología y esta les garantice que protege su
privacidad e imagen personal en todo momento.

Una muestra de cómo esa imagen personal y la propia credibilidad está en juego la
constituyen los llamados deepfakes, desarrollos informáticos que utilizan el audio
e incluso la voz de una persona y los manipulan de forma fraudulenta, haciéndolos
pasar por completamente veraces.

Esto significa que hay que trabajar por mayor transparencia, por el uso de datos
abiertos, contar con comités éticos en empresas de desarrollo informático, aprobar
leyes y reglamentos a nivel estatal que velen por la protección de los datos
personales y su integridad.

Otro aspecto fundamental es la formación en capacidades tecnológicas de la


población, a todos los niveles. Hay que invertir en habilidades tecnológicas de
forma importante, desde los gobiernos a las empresas privadas, para garantizar
una correcta ciudadanía digital, reducir la brecha social y mitigar los efectos
negativos que pueden surgir con determinados desarrollos de la inteligencia
artificial.

Por igual, este tipo de capacitación se convertirá en parte de la formación continua


de los trabajadores, por lo que las empresas deberán considerarlo en sus planes
internos de desarrollo de carrera para no perder competitividad ni cuota de
mercado. Por supuesto, también implica fortalecer la
ciberseguridad, especialmente en infraestructuras de redes de portabilidad. A
mayor codependencia tecnológica, mayor riesgo asumimos de ciberataques,
ocasionados en muchas ocasiones por la propia inconsciencia o desinformación del
ciudadano.

Se hace necesaria una información continua para elevar el nivel de conocimiento


de la gente en este aspecto y hacer frente al cibercrimen.

9
Deberes de un Robot

 Supervisión humana: los sistemas de inteligencia artificial deben permitir


sociedades equitativas apoyando los derechos fundamentales de los
humanos, y no disminuir, limitar o desviar la autonomía de estos.
 Robustez y seguridad: la inteligencia artificial requiere que los algoritmos
sean lo suficientemente seguros, confiables y sólidos como para enfrentar
errores o inconsistencias durante todas las fases del ciclo de vida de sus
sistemas.
 Bienestar social y ambiental: los sistemas de inteligencia artificial deben
utilizarse para mejorar el cambio social positivo, la sostenibilidad y la
responsabilidad ecológica.

Son estándares morales dirigidos a humanos, a los creadores de tecnología. Los


principios son los siguientes:

 Se debe asegurar que la IA está centrada en el ser humano.


 Se debe prestar atención a los grupos vulnerables, como los menores de
edad o las personas con discapacidades.
 Debe respetar los derechos fundamentales y la regulación aplicable.
 Debe ser técnicamente robusta y fiable.
 Debe funcionar con transparencia.
 No debe restringir la libertad humana

10
Derechos de un Robot
Lo que une a todos estos artefactos es que presentan cierto grado de autonomía en
su funcionamiento, de impredecibilidad, y también cuentan con la capacidad de
causar daño físico, lo que abre una nueva etapa en la interacción entre los seres
humanos y la tecnología.

Además, los sistemas más avanzados no repiten instrucciones, sino que se adaptan
interactivamente a las circunstancias, y tienen capacidad de aprendizaje, hasta con
posibilidad de modificar su código. El daño es un efecto conjunto
del software, hardware y forma de uso.

Un desafío normativo
Esta revolución conlleva desafíos a los que la regulación existente no da respuesta.
Es necesario abordar no sólo cuestiones jurídicas, sino también sociales,
económicas, de salud y éticas con el objeto de garantizar la libertad, autonomía y
seguridad de los seres humanos, esclareciendo cuestiones como cuál es la
condición jurídica del robot, si deben tener o no un régimen especial de derechos y
obligaciones, quién asume la responsabilidad de las acciones y omisiones de los
sistemas autónomos e impredecibles, o el conjunto mínimo indispensable de
medidas organizativas, técnicas y legales para asegurar su desarrollo seguro y
minimizar los riesgos a los que están expuestas las personas.

El Derecho tiene que brindar un marco legal de referencia a los operadores del
sector, que están seriamente preocupados por las implicaciones de sus actividades
y, además, necesitan disponer de una cobertura jurídica ante potenciales
creaciones que superen los confines de los laboratorios. Por otro lado, el Derecho
está obligado a elaborar una regulación avanzada que pueda impulsar la robótica y
asegurarle un desarrollo congruente con los valores propios de las constituciones y
de la Carta de los Derechos Fundamentales de la Unión Europea.

Entre las iniciativas reguladoras cabe destacar la Resolución del Parlamento


Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión
sobre normas de Derecho civil sobre robótica, que recoge las principales líneas de
trabajo para el legislador al respecto:

 La creación de una Agencia Europea de Robótica e Inteligencia Artificial.


 La elaboración de un código de conducta ético voluntario que sirva de base
para regular quién será responsable de los impactos sociales, ambientales y de
salud humana de la robótica y asegurar que operen de acuerdo con las normas
legales, de seguridad y éticas pertinentes. Prevé la exigencia de que los robots
incluyan interruptores para su desconexión en caso de emergencia. Y recoge la
necesidad de acordar una Carta sobre Robótica.
 Promulgar un conjunto de reglas de responsabilidad por los daños causados
por los robots.
 Crear un estatuto de persona electrónica.
 Estudiar nuevos modelos de empleo y analizar la viabilidad del actual
sistema tributario y social con la llegada de la robótica.

11
 Integrar la seguridad y la privacidad como valores de serie en el diseño de
los robots.
 Poner en marcha un Registro Europeo de los robots inteligentes.

Una nueva disciplina jurídica


Se hace evidente la necesidad de definir las condiciones de legitimidad jurídica de
las nuevas invenciones y establecer con precisión un régimen claro de derechos y
obligaciones.

La primera cuestión tiene que ver con la existencia de un marco jurídico que
garantice un progreso tecnológico que refuerce el libre desarrollo de la
personalidad y los derechos fundamentales de los seres humanos, al tiempo que
impida que la tecnología se convierta en una vía para hacer a las personas menos
humanas y más pasivas, con una autonomía reducida, con una dependencia
creciente y una pérdida de la capacidad de iniciativa con una eventual situación de
subordinación irreversible que pueda expropiar la libertad y la humanidad misma.

Su análisis jurídico debe enmarcarse dentro de una nueva rama jurídica autónoma,
el Derecho de los Robots (Robot Law), para dar respuesta a estos insólitos desafíos
y situaciones disruptivas, como en su momento sucedió con el Derecho del Trabajo
o el Derecho Ambiental.
En definitiva, el Derecho ofrece herramientas para dar respuesta a este fenómeno
disruptivo, si bien queda mucho por hacer.

Abordar estas cuestiones de manera organizada es una empresa colosal, que


requiere un diálogo permanente y profundo que debe implicar a las disciplinas
jurídicas, éticas y científicas si se quiere que sea fecundo y útil, para permitir a los
diseñadores de robots evitar los problemas legales y éticos concernientes a los
mismos. Y todo ello en una rama jurídica nueva, el Derecho de los Robots, que a la
vez adaptará el Derecho general en vigor, y, en la medida de lo necesario, generará
un Derecho nuevo que respete los principios jurídicos fundamentales de dignidad,
libertad e igualdad.

Conclusión

12
De la mano con la inteligencia artificial aparece un reto muy importante para la
humanidad. Bajo qué principios éticos vamos a programar nuestros algoritmos de
IA cuando se enfrenten a dilemas complicados.

Bajo este análisis, la ética toma una nueva dimensión e importancia en el mundo
actual. No solamente necesitamos más científicos de datos sino personas formadas
en ética para que hagan buen uso de la tecnología, pensando en el bien de la
sociedad.

A pesar de todas esas dificultades, las tecnologías basadas en la inteligencia


artificial ya están empezado a cambiar nuestras vidas en aspectos como la salud, la
seguridad, la productividad o el ocio, y a medio plazo van a tener un gran impacto
en la energía, el transporte, la educación y las actividades domésticas. No obstante,
por muy inteligentes que lleguen a ser las futuras inteligencias artificiales, siempre
serán distintas a las humanas debido a lo determinantes que resultan los cuerpos
en los que se ubican. Además, el hecho de ser ajenas a los valores y necesidades
humanas nos debería hacer reflexionar sobre aspectos éticos en el desarrollo de la
inteligencia artificial y, en particular, sobre la conveniencia de dotar de total
autonomía a las máquinas.

Bibliografía

13
- https://www.popularenlinea.com/Personas/blog/Pages/La-etica-
frente-a-la-inteligencia-artificial.aspx

- https://www.significados.com/etica/

- https://es.wikipedia.org/wiki/
%C3%89tica_en_la_inteligencia_artificial

- https://directivosygerentes.es/innovacion/cinco-principios-
eticos-desarrollo-uso-inteligencia-
artificial#:~:text=4)%20Seguridad%20y%20privacidad%2C
%20pilares,deben%20funcionar%20de%20forma
%20segura.&text=Adem%C3%A1s%2C%20Paradigma
%20es%20consciente%20de,que%20exista%20supervisi
%C3%B3n%20humana%20suficiente.

14

También podría gustarte