Está en la página 1de 1

¿Cuáles son los principios

éticos de los sistemas de IA?

a
No-maleficencia y beneficencia Rendición de cuentas y
No maleficencia: Se refiere al responsabilidad
principio de “no hacer daño”. Para Rendición de cuentas: Se refiere
esto se deben minimizar los riesgos a la necesidad de ser responsable
éticos que pueden surgir de las o responder por un sistema de IA,
aplicaciones de esta tecnología su comportamiento, resultados y

b
(discriminación, protección de posibles impactos.
privacidad, etc).
Responsabilidad:
Beneficencia: • Legal: Un actor* es legalmente
Busca que los responsable de un hecho cuando
sistemas de un sistema legal puede sancionarlo
IA promuevan • Moral: Un actor* es moralmente
el desarrollo responsable si se le puede culpar
sostenible y de él.
bienestar (OCDE) *Actor: una institución, organización o individuo

Transparencia y explicabilidad
Este principio surge como respuesta al derecho de los
individuos de saber cómo se toman decisiones críticas que
los afectan, incluidas las tomadas a partir de un sistema de IA,
incluso los de “caja negra”, que significa que no puede verse
realmente cómo funcionan (Universidad de Helsinki).

Transparencia: Propiedad de un sistema de IA que permite


obtener cierta información sobre su comportamiento interno.

c Explicabilidad: Término que se refiere a la posibilidad de explicar las soluciones


algorítimicas de manera comprensible.

El principio de transparencia y explicabilidad es relevante en tres cuestiones


básicas:

1 2 3
justificación de las el derecho a saber la obligación moral
decisiones que tengan cómo fueron tomadas de comprender las
un efecto ético o legal las decisiones que consecuencias de
en individuos; afectan de alguna nuestros actos, como
manera; una responsabilidad al
usar la tecnología.

d
Respeto a los derechos humanos
Los derechos humanos (DDHH) son normas universales que protegen
a todas las personas de abusos políticos, legales y sociales. Los DDHH
constituyen la base de los actuales principios éticos de los sistemas de IA
(Universidad de Helsinki). Entre los cuales están la privacidad y la seguridad.

Privacidad Seguridad ¿Otros derechos


Desde la ética, la privacidad está (robustez y protección) humanos?
relacionada con la autonomía
y la integridad personal. Los Seguridad: Se refiere a proteger La privacidad y la seguridad han
datos —el insumo principal de los a las personas de daños suscitado mucha atención en
sistemas de IA— pueden contener físicos, sociales y emocionales las discusiones éticas. Aunque
información que podría utilizarse (incluidos accidentes y fallas de es necesario considerar también
para inferir atributos sensibles funcionamiento). el impacto de los sistemas
(como, por ejemplo, edad, género • A partir de este derecho, se de IA en todo el espectro de
u orientación sexual, entre otros, crea la obligación moral de derechos humanos y libertades
preferencias u opiniones religiosas diseñar productos, leyes y el fundamentales. Es esencial
y políticas). Asimismo, los datos ambiente propicios para que la preguntarse: ¿Cómo impactará
biométricos pueden revelar seguridad pueda ser protegida. esta tecnología en derecho a
detalles de la salud física y mental. En términos de los sistemas de IA, la educación y al trabajo, o a
En este sentido, los datos plantean por un lado, consiste en cuestionar un juicio justo, o a la libertad
problemas de privacidad si se hace si esta tecnología puede ser una de expresión, de reunión y de
un mal uso de estos, pues podrían amenaza existencial, que es una manifestación? ¿Cómo afecta
manipular, afectar o perjudicar discusión más filosófica; por otro la brecha de género? ¿Qué
a una persona y su integridad lado, en un ámbito más práctico, pasa con los grupos especiales,
psicológica y moral (Universidad consiste en diseñar sistemas de como la niñez? (Universidad de
de Helsinki). IA que se comporten de forma Helsinki).
segura y predecible.
Robustez: En el aspecto técnico,
es la capacidad del sistema
de IA para funcionar de forma
predecible en circunstancias
nuevas e impredecibles.
Por último, si bien los sistemas
de IA pueden proveer de nuevas
formas de seguridad, incluidas
formas de vigilancia, es importante
analizar qué otros derechos
entran en juego, como puede
ser la privacidad, y preguntarse:
¿seguridad para quién?
(Universidad de Helsinki).

Justicia y no-discriminación
Todos los seres humanos deben ser tratados de la misma manera (igualdad) y
tener al alcance las mismas oportunidades (equidad) pues todos tienen la misma
dignidad.
Cuando una persona es tratada injustamente, se viola su dignidad humana
fundamental, esto puede conducir a la discriminación, que es una diferencia de

e trato entre individuos pertenecientes a un grupo.

Posibles causas de sesgos:


Discriminación y sesgo
• No tener una muestra representativa,
• interpretación o etiquetado erróneo/segado de los datos utilizados
• ignorancia cultural,
• entre otros.

Lo importante es que, al analizar los sistemas de IA para detectar la falta de equidad, no basta con examinar los
algoritmos. La falta de equidad, que puede llevar a resultados injustos.

Algunos posibles orígenes de la falta de equidad:


• Razones históricas,
• razones culturales,
• diseño,
• gestión de datos o de despliegue

En términos de sistemas de IA, la discriminación está relacionada con sesgos.


Debe examinarse de manera constante todo el ciclo de vida del sistema de IA
desde la consideración y aplicación de los principios éticos.

Fuentes: Universidad de Helsinki. (2020). Elements of AI, Universidad de Helsinki. (Elementos de la Inteligencia Artificial) Recuperado de: https://ethics-of-ai.mooc.fi/
Pombo, C., et al. (2020). fAIr LAC: Adopción ética y responsable de la inteligencia artificial en América Latina y el Caribe. Banco Interamericano de Desarrollo.

También podría gustarte