Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Históricamente las maneras de ser hombres y mujeres han sido pensadas desde lugares fijos,
estereotipados, pero ¿qué son los estereotipos?, son imágenes sociales simplificadas e
incompletas que supuestamente caracterizan a un grupo de personas.
1
Informática. 5°A. CPEM N°15.
Prof. Oliva, Marcela.
reconocer las relaciones de poder que se dan entre los géneros, en general
favorables a los varones como grupo social y discriminatorias para las mujeres;
que dichas relaciones han sido constituidas social e históricamente y son
constitutivas de las personas;
que las mismas atraviesan todo el entramado social y se articulan con otras
relaciones sociales, como las de clase, etnia, edad, preferencia sexual y religión.
1) ¿Los algoritmos en la IA fomentan sesgos de género y raza? ¿De qué forma? Ejemplos
2) ¿Cómo se reflejan estos sesgos de género en el campo laboral de la IA?
3) ¿Qué acciones plantean son necesarias para implementar la perspectiva de género en
la IA?
4) Realizar una red conceptual/collage con conceptos e imágenes que creas son
importantes en este tema.
2
Informática. 5°A. CPEM N°15.
Prof. Oliva, Marcela.
Algoritmos con sesgos de género y raza: la nueva expresión de las
desigualdades
Hoy el vínculo entre género y tecnología está reproduciendo e incluso amplificando el modelo del
patriarcado. Por ejemplo, de todos los profesionales que trabajan en inteligencia artificial (AI) sólo el
22% son mujeres. Google y Facebook, por su parte, reportaron que las mujeres que trabajan en AI
representan el 10% y 15% respectivamente. En América Latina sólo el 38% de los usuarios de internet
son mujeres y en el Reino Unido las mujeres que trabajan en ciberseguridad ganan un 16% menos en
comparación a los hombres.
Si consideramos la raza, el escenario es aún peor. En el año 2018 Google reportó que un 25,7% de
mujeres trabajaban en puestos técnicos, pero este número bajó a 0,8% si considerábamos mujeres
negras. La misma tendencia ocurría con otros grandes de la tecnología, como Facebook, Apple y
Microsoft, evidenciando la crisis de diversidad existente en el ecosistema tecnológico e informático.
¿Y por qué hoy este tema cobra tanta importancia? Actualmente existe un rápido incremento de los
sistemas y aplicaciones que automatizan los procesos, utilizando inteligencia artificial (IA). De hecho,
cada vez son más los países que han creado, o están creando estrategias nacionales de IA para
promover su uso. Esto porque permiten resolver problemas de alta complejidad, facilitan la
automatización y logran personalizar los procesos con el uso eficiente de los recursos.
Sobre estos procesos existen diversos casos concretos que muestran cómo el uso de IA para
automatizar procesos replica sesgos de género. Por ejemplo, el año 2014 Amazon comenzó a
desarrollar un programa que, utilizando Machine Learning, permitía revisar y evaluar
automáticamente cientos de currículums. Este sistema aprendía de los currículums recibidos en los
últimos 10 años y el desempeño de las personas contratadas en ese rango de tiempo. El 2015 la
compañía se dió cuenta que este nuevo sistema ponderaba de peor manera a las mujeres para puestos
de desarrollo de software u otras labores técnicas. Un reflejo del histórico dominio masculino en la
industria tecnológica. A pesar de los esfuerzos, Amazon no pudo revertir este aprendizaje y desechó el
programa.
Por otra parte, Joy Buolamwini y Timnit Gebru, investigadores del MIT, evaluaron los software de
reconocimiento facial de IBM, Microsoft y Face++, encontrando que todas las compañías tenían mejor
performance en reconocer rostros de hombres que de mujeres, y en rostros de personas de piel clara
versus en personas de piel oscura. Al analizar los sub-grupos, el reconocimiento facial de mujeres
negras fue el que tuvo mayor tasa de error en las tres compañías: un 31% de error en promedio. Este
resultado se contrapone con el error de menos de un 1% para hombres blancos.
Estas tasas de error son críticas. Esta tecnología es la que hoy es utilizada por gobiernos para la
detección de tendencias criminales. Y bien sabemos que estas pueden usarse para generar un informe
de probabilidades de reincidencia o influir en las sentencias de las personas.
3
Informática. 5°A. CPEM N°15.
Prof. Oliva, Marcela.
Ejemplos como estos dan cuenta del rol que tiene el uso de la Inteligencia Artificial en la creación de
sistemas automatizados. El hecho de que dichos sistemas sean entrenados con un conjunto de datos
generados por personas, y la experiencia de éstas, implica que los sistemas aprenderán y mantendrán
la subjetividad que puede venir con ellas. Lo que significa, que los sesgos existentes en el mundo offline
son traspasados al online. En este sentido, se hace necesario promover estrategias que garanticen que
la adopción de nuevas tecnologías en escala masiva detengan la creación de más desigualdades de
género, de raza, entre muchas otras.
Esta realidad asusta y se convierte en un escenario crítico cuando pensamos que ésta será, y está
siendo, la tecnología que impulsarán los Estados y que influirá directamente en las libertades y los
derechos civiles de las personas. Muy probablemente determinará becas, subsidios de vivienda,
permisos de migración y tendrá un rol clave en la seguridad ciudadana.
Desde Ciudadanía Inteligente, trabajamos constantemente para buscar formas en que los sesgos
actuales de la sociedad no se repliquen en estos sistemas, y que estos puedan ser usados, incluso, para
revertirlos. En conjunto con Women at the table (W@tt), organización de la sociedad civil que
promueve la igualdad de género, luchamos para visibilizar los prejuicios existentes, hacer un llamado
claro a diferentes actores para defender la transparencia y pilotear con acciones afirmativas en los
algoritmos. Adherimos a la declaración de W@tt que hace un llamado a:
(2) Incluir una variedad interseccional y número paritario de mujeres en la creación, diseño y código
de toma de decisión basada en algoritmos.
Fuente: https://www.elmostrador.cl/braga/2019/10/08/algoritmos-con-sesgos-de-genero-y-raza-la-
nueva-expresion-de-las-desigualdades/
4
Informática. 5°A. CPEM N°15.
Prof. Oliva, Marcela.
El sesgo de género y las diversas formas de discriminación contra las mujeres y las niñas
impregnan todas las esferas de la vida. El acceso equitativo de las mujeres a la ciencia y la
tecnología de la información no es una excepción. Mientras continúan los desafíos planteados
por la brecha digital y la escasa representación de las mujeres en ciencia, tecnología, ingeniería
y matemáticas (STEM, por sus siglas en inglés), la inteligencia artificial (IA) y la automatización
generan nuevos desafíos para lograr una igualdad de género sustancial en la era de la Cuarta
Revolución Industrial.
Si la IA y la automatización no se desarrollan y aplican con perspectiva de género, es probable
que reproduzcan y refuercen los estereotipos de género y normas sociales discriminatorias
existentes. De hecho, puede que esto ya esté sucediendo de manera (in)consciente.
Consideremos algunos ejemplos:
Como destaca un informe de la UNESCO de 2019, no es coincidencia que los servicios de
asistentes personales virtuales como Siri, Alexa y Cortana tengan nombres femeninos y una voz
femenina predeterminada. Las empresas que diseñan estos servicios refuerzan una realidad
social en la que la mayoría de las personas que prestan servicios secretariales o de asistencia
personal en los sectores públicos y privados son mujeres.
El sesgo de género también impregna los algoritmos de IA. Dado que el 78 % de los profesionales
de IA son hombres, las experiencias masculinas configuran y dominan la creación de algoritmos.
Este sesgo de género puede tener consecuencias adversas importantes para las mujeres. Por
ejemplo, los algoritmos podrían afectar el acceso de las mujeres a los trabajos y préstamos al
investigar automáticamente sus solicitudes u otorgarles una calificación desfavorable. Del
mismo modo, la evaluación de riesgos basada en algoritmos en el sistema de justicia penal
podría perjudicar a las mujeres si el sistema no toma en cuenta que son menos propensas a
reincidir que los hombres.
Aunque la robotización y la automatización de los trabajos afectarán tanto a hombres como a
mujeres, es probable que el sesgo de género se propague y afecte a las mujere s de manera
desproporcionada. Por ejemplo, las mujeres sobrerrepresentadas en ciertos sectores con alto
riesgo de automatización pueden verse más perjudicadas: si más del 70 % de las personas que
trabajan en la confección de ropa son mujeres, la automatización afectará más a las mujeres que
a los hombres. También es muy probable que la relativa falta de movilidad y flexibilidad reduzca
la capacidad de negociación de las mujeres en general, o sus alternativas de empleo.
A pesar de la posibilidad de que exista tal sesgo de género, las normas de IA que se están
formulando no integran adecuadamente una perspectiva de género. Por ejemplo, la Declaración
de Montreal para un Desarrollo Responsable de la Inteligencia Artificial no se refiere de forma
explícita a la integración de una perspectiva de género, mientras que el Marco ético de
AI4People para una buena sociedad de IA solo menciona la diversidad/género una vez. Tanto la
Recomendación del Consejo de la OCDE sobre la IA como los Principios de IA del G20 enfatiz an
la importancia de que la IA contribuya a reducir la desigualdad de género, pero no ofrecen
detalles sobre cómo se podría lograr esto.
Los Estados, las empresas y otros actores pueden tomar varias medidas concretas. En primer
lugar, las mujeres deben ser participantes activas en la creación de la IA y la automatización, en
lugar de meras beneficiarias pasivas. Las mujeres y sus experiencias deben integrarse
adecuadamente en todas las etapas del diseño, el desarrollo y la aplicación de la IA y la
automatización. Además de la contratación proactiva de más mujeres en todos los niveles, las
empresas de IA y automatización deben involucrar a especialistas en cuestiones de género y
organizaciones de mujeres desde el principio para realizar la debida diligencia de derechos
humanos.
En tercer lugar, los Estados, las empresas y las universidades deben planificar e invertir en
desarrollar la capacidad de las mujeres para lograr una transición sin problemas a la IA y la
automatización. Esto requeriría formación profesional/técnica tanto a nivel educativo como
laboral.
En quinto lugar, se deben adoptar medidas especiales para que las mujeres conozcan sus
derechos humanos y las repercusiones de la IA y la automatización para sus derechos .
Fuente: https://www.openglobalrights.org/addressing-gender-bias-in-artificial-intelligence-
and-automation/?lang=Spanish