Está en la página 1de 6

Informática. 5°A. CPEM N°15.

Prof. Oliva, Marcela.

Estereotipos, y representaciones sociales en torno al género

Históricamente las maneras de ser hombres y mujeres han sido pensadas desde lugares fijos,
estereotipados, pero ¿qué son los estereotipos?, son imágenes sociales simplificadas e
incompletas que supuestamente caracterizan a un grupo de personas.

Los estereotipos pueden referir a múltiples aspectos de la vida social, la religión, la


nacionalidad, el sexo, la etnia, la orientación sexual, entre otros. Por ejemplo, cuando se afirma
“todos los argentinos son…”, el estereotipo está armado en función de la nacionalidad.
También puede haber estereotipos en función del sexo, como cuando se dice: “todas las
mujeres son…” (débiles, sensibles, charlatanas) o “los varones son…” (inquietos, desprolijos,
fuertes). Los estereotipos implican una imagen limitada acerca de cómo son las personas,
niegan sus particularidades, sus individualidades y en su lugar se ubica una caracterización que
se supone alcanza a todos los individuos del grupo al que se está haciendo referencia.

Ahora bien, ¿cuándo se habla de estereotipos de género a


qué nos referimos?

A esas representaciones simplificadas, incompletas y


generalizadas que se realizan teniendo como base al sexo
biológico. Por ejemplo, son estereotipos asumir que sean solo las
mujeres quienes se tengan que ocupar o sean responsables de
la crianza de las niñas y los niños, de las personas mayores o del
trabajo doméstico. El estereotipo femenino está asociado con los
cuidados, la emoción, la fragilidad, la docilidad, la obediencia a
la autoridad masculina.

1. ¿Las publicidades que vemos a


diario reflejan estereotipos de
género?
2. ¿En qué otros ámbitos se
reflejan estos estereotipos?

1
Informática. 5°A. CPEM N°15.
Prof. Oliva, Marcela.

¿Qué es la perspectiva de género?


Es la comprensión de los condicionantes socio-culturales en la construcción de las
identidades de género, así como el reconocimiento de la igualdad de derechos para
varones y mujeres. Esta perspectiva implica:

 reconocer las relaciones de poder que se dan entre los géneros, en general
favorables a los varones como grupo social y discriminatorias para las mujeres;
 que dichas relaciones han sido constituidas social e históricamente y son
constitutivas de las personas;
 que las mismas atraviesan todo el entramado social y se articulan con otras
relaciones sociales, como las de clase, etnia, edad, preferencia sexual y religión.

Propuestas para fomentar la perspectiva de género

1) Poniendo freno al sexismo. Un ejemplo de ello es


la discriminación en el uso del lenguaje, donde las
mujeres quedan relegadas a un segundo plano cuando
se emplea el masculino como genérico.
2) Dejando de dividir a los hombres y mujeres en
función de roles. El género no determina las
capacidades de unos y otras. El talento o la inteligencia
no depende de si naces hombre o mujer, y, por tanto,
no hay labores propias ni definidas. Dividamos las
tareas del hogar y responsabilidades a partes iguales, e
invitemos a los más pequeños y pequeñas a participar también.
3) Deconstruyendo estereotipos. Niñas que practican ballet y niños que juegan al fútbol,
muñecas para unas y coches para otros, o preguntas y expresiones como "Ana, ¿cuándo
piensas casarte?", "estás mucho más guapa con ese vestido que usando pantalones". Son
ejemplos de cómo educamos o nos comportamos, ¿no crees que es hora de cambiar esta
actitud?

La perspectiva de género en la Inteligencia Artificial.


A partir de la lectura del material y las dos noticias propuestas para abordar este tema,
contestar:

1) ¿Los algoritmos en la IA fomentan sesgos de género y raza? ¿De qué forma? Ejemplos
2) ¿Cómo se reflejan estos sesgos de género en el campo laboral de la IA?
3) ¿Qué acciones plantean son necesarias para implementar la perspectiva de género en
la IA?
4) Realizar una red conceptual/collage con conceptos e imágenes que creas son
importantes en este tema.

2
Informática. 5°A. CPEM N°15.
Prof. Oliva, Marcela.
Algoritmos con sesgos de género y raza: la nueva expresión de las
desigualdades
Hoy el vínculo entre género y tecnología está reproduciendo e incluso amplificando el modelo del
patriarcado. Por ejemplo, de todos los profesionales que trabajan en inteligencia artificial (AI) sólo el
22% son mujeres. Google y Facebook, por su parte, reportaron que las mujeres que trabajan en AI
representan el 10% y 15% respectivamente. En América Latina sólo el 38% de los usuarios de internet
son mujeres y en el Reino Unido las mujeres que trabajan en ciberseguridad ganan un 16% menos en
comparación a los hombres.

Si consideramos la raza, el escenario es aún peor. En el año 2018 Google reportó que un 25,7% de
mujeres trabajaban en puestos técnicos, pero este número bajó a 0,8% si considerábamos mujeres
negras. La misma tendencia ocurría con otros grandes de la tecnología, como Facebook, Apple y
Microsoft, evidenciando la crisis de diversidad existente en el ecosistema tecnológico e informático.

¿Y por qué hoy este tema cobra tanta importancia? Actualmente existe un rápido incremento de los
sistemas y aplicaciones que automatizan los procesos, utilizando inteligencia artificial (IA). De hecho,
cada vez son más los países que han creado, o están creando estrategias nacionales de IA para
promover su uso. Esto porque permiten resolver problemas de alta complejidad, facilitan la
automatización y logran personalizar los procesos con el uso eficiente de los recursos.

LAS MÁQUINAS NO SOLO OBEDECEN, TAMBIÉN APRENDEN (Y PUEDEN APRENDER MUY


MAL)
El campo de la IA es gigante y dentro de esa combinación de algoritmos está el Machine Learning (ML),
o aprendizaje de máquinas o automático. Un sistema que hoy es ampliamente utilizado y que consiste
básicamente en que las computadoras aprendan. En otras palabras, el desempeño de las máquinas
mejora con la experiencia. Por ejemplo, Netflix, utiliza ML para recomendar de forma personalizada a
los usuarios qué ver, y estas recomendaciones se ajustan a partir de los datos que se entregan. Estos
datos pueden ser explícitos, como darle like a una cierta película o serie, o, en su gran mayoría,
implícitos, como pausar cierta serie después de 10 minutos o mirar una película en dos días. Toda esta
información que le entregamos a Netflix, en conjunto con la de todos los demás usuarios, es el dataset,
o conjunto de datos, que utiliza su sistema de recomendación para mejorar constantemente.

Sobre estos procesos existen diversos casos concretos que muestran cómo el uso de IA para
automatizar procesos replica sesgos de género. Por ejemplo, el año 2014 Amazon comenzó a
desarrollar un programa que, utilizando Machine Learning, permitía revisar y evaluar
automáticamente cientos de currículums. Este sistema aprendía de los currículums recibidos en los
últimos 10 años y el desempeño de las personas contratadas en ese rango de tiempo. El 2015 la
compañía se dió cuenta que este nuevo sistema ponderaba de peor manera a las mujeres para puestos
de desarrollo de software u otras labores técnicas. Un reflejo del histórico dominio masculino en la
industria tecnológica. A pesar de los esfuerzos, Amazon no pudo revertir este aprendizaje y desechó el
programa.

Por otra parte, Joy Buolamwini y Timnit Gebru, investigadores del MIT, evaluaron los software de
reconocimiento facial de IBM, Microsoft y Face++, encontrando que todas las compañías tenían mejor
performance en reconocer rostros de hombres que de mujeres, y en rostros de personas de piel clara
versus en personas de piel oscura. Al analizar los sub-grupos, el reconocimiento facial de mujeres
negras fue el que tuvo mayor tasa de error en las tres compañías: un 31% de error en promedio. Este
resultado se contrapone con el error de menos de un 1% para hombres blancos.

Estas tasas de error son críticas. Esta tecnología es la que hoy es utilizada por gobiernos para la
detección de tendencias criminales. Y bien sabemos que estas pueden usarse para generar un informe
de probabilidades de reincidencia o influir en las sentencias de las personas.
3
Informática. 5°A. CPEM N°15.
Prof. Oliva, Marcela.
Ejemplos como estos dan cuenta del rol que tiene el uso de la Inteligencia Artificial en la creación de
sistemas automatizados. El hecho de que dichos sistemas sean entrenados con un conjunto de datos
generados por personas, y la experiencia de éstas, implica que los sistemas aprenderán y mantendrán
la subjetividad que puede venir con ellas. Lo que significa, que los sesgos existentes en el mundo offline
son traspasados al online. En este sentido, se hace necesario promover estrategias que garanticen que
la adopción de nuevas tecnologías en escala masiva detengan la creación de más desigualdades de
género, de raza, entre muchas otras.

Esta realidad asusta y se convierte en un escenario crítico cuando pensamos que ésta será, y está
siendo, la tecnología que impulsarán los Estados y que influirá directamente en las libertades y los
derechos civiles de las personas. Muy probablemente determinará becas, subsidios de vivienda,
permisos de migración y tendrá un rol clave en la seguridad ciudadana.

Desde Ciudadanía Inteligente, trabajamos constantemente para buscar formas en que los sesgos
actuales de la sociedad no se repliquen en estos sistemas, y que estos puedan ser usados, incluso, para
revertirlos. En conjunto con Women at the table (W@tt), organización de la sociedad civil que
promueve la igualdad de género, luchamos para visibilizar los prejuicios existentes, hacer un llamado
claro a diferentes actores para defender la transparencia y pilotear con acciones afirmativas en los
algoritmos. Adherimos a la declaración de W@tt que hace un llamado a:

(1) Defender y adoptar directrices que establezcan transparencia en la toma de decisiones


algorítmicas.

(2) Incluir una variedad interseccional y número paritario de mujeres en la creación, diseño y código
de toma de decisión basada en algoritmos.

(3) La existencia de cooperación internacional y un enfoque basado en derechos humanos en el


desarrollo de estos sistemas.

Estamos en un punto decisivo de la historia. La cantidad de sistemas de toma de decisiones


automatizados no tiene precedentes, y estos se están desplegando a gran velocidad. Podemos dejar
que la tecnología siga poniendo barreras a las mujeres y los grupos sub-representados, o podemos
utilizarla a nuestro favor. En Ciudadanía Inteligente seguiremos trabajando para desarrollar acciones
afirmativas con el fin de corregir los sesgos que impiden una participación plena de las personas en las
diferentes esferas de la sociedad.

Fuente: https://www.elmostrador.cl/braga/2019/10/08/algoritmos-con-sesgos-de-genero-y-raza-la-
nueva-expresion-de-las-desigualdades/

4
Informática. 5°A. CPEM N°15.
Prof. Oliva, Marcela.

Afrontar el sesgo de género en la inteligencia artificial y la


automatización

Veinticinco años después de la adopción de la Declaración y Plataforma de Acción de Beijing,


persiste un sesgo de género importante en las normas sociales existentes. Por ejemplo, apenas
en febrero de 2020, el Tribunal Supremo de la India tuvo que recordar le al gobierno indio que
sus argumentos para no permitir que las mujeres ocupen puestos de mando en el ejército se
basaban en estereotipos. Y el sesgo de género no es un problema exclusivamente masculino: un
informe reciente del PNUD titulado Tackling Social Norms (Abordar las normas sociales)
encontró que alrededor del 90 % de las personas (hombres y mujeres) tienen algún sesgo contra
las mujeres.

El sesgo de género y las diversas formas de discriminación contra las mujeres y las niñas
impregnan todas las esferas de la vida. El acceso equitativo de las mujeres a la ciencia y la
tecnología de la información no es una excepción. Mientras continúan los desafíos planteados
por la brecha digital y la escasa representación de las mujeres en ciencia, tecnología, ingeniería
y matemáticas (STEM, por sus siglas en inglés), la inteligencia artificial (IA) y la automatización
generan nuevos desafíos para lograr una igualdad de género sustancial en la era de la Cuarta
Revolución Industrial.
Si la IA y la automatización no se desarrollan y aplican con perspectiva de género, es probable
que reproduzcan y refuercen los estereotipos de género y normas sociales discriminatorias
existentes. De hecho, puede que esto ya esté sucediendo de manera (in)consciente.
Consideremos algunos ejemplos:
Como destaca un informe de la UNESCO de 2019, no es coincidencia que los servicios de
asistentes personales virtuales como Siri, Alexa y Cortana tengan nombres femeninos y una voz
femenina predeterminada. Las empresas que diseñan estos servicios refuerzan una realidad
social en la que la mayoría de las personas que prestan servicios secretariales o de asistencia
personal en los sectores públicos y privados son mujeres.
El sesgo de género también impregna los algoritmos de IA. Dado que el 78 % de los profesionales
de IA son hombres, las experiencias masculinas configuran y dominan la creación de algoritmos.
Este sesgo de género puede tener consecuencias adversas importantes para las mujeres. Por
ejemplo, los algoritmos podrían afectar el acceso de las mujeres a los trabajos y préstamos al
investigar automáticamente sus solicitudes u otorgarles una calificación desfavorable. Del
mismo modo, la evaluación de riesgos basada en algoritmos en el sistema de justicia penal
podría perjudicar a las mujeres si el sistema no toma en cuenta que son menos propensas a
reincidir que los hombres.
Aunque la robotización y la automatización de los trabajos afectarán tanto a hombres como a
mujeres, es probable que el sesgo de género se propague y afecte a las mujere s de manera
desproporcionada. Por ejemplo, las mujeres sobrerrepresentadas en ciertos sectores con alto
riesgo de automatización pueden verse más perjudicadas: si más del 70 % de las personas que
trabajan en la confección de ropa son mujeres, la automatización afectará más a las mujeres que
a los hombres. También es muy probable que la relativa falta de movilidad y flexibilidad reduzca
la capacidad de negociación de las mujeres en general, o sus alternativas de empleo.
A pesar de la posibilidad de que exista tal sesgo de género, las normas de IA que se están
formulando no integran adecuadamente una perspectiva de género. Por ejemplo, la Declaración
de Montreal para un Desarrollo Responsable de la Inteligencia Artificial no se refiere de forma
explícita a la integración de una perspectiva de género, mientras que el Marco ético de
AI4People para una buena sociedad de IA solo menciona la diversidad/género una vez. Tanto la
Recomendación del Consejo de la OCDE sobre la IA como los Principios de IA del G20 enfatiz an
la importancia de que la IA contribuya a reducir la desigualdad de género, pero no ofrecen
detalles sobre cómo se podría lograr esto.

Los Principios de aprendizaje automático responsable incluyen la “evaluación de sesgos” como


uno de sus principios. Este enfoque aislado hacia el género es el mismo que adoptan empresas
5
Informática. 5°A. CPEM N°15.
Prof. Oliva, Marcela.
como Google y Microsoft, cuyos Principios de IA subrayan la necesidad de evitar “crear o reforzar
un sesgo injusto” y de tratar a “todas las personas de manera imparcial”, respectivamente. Las
empresas relacionadas con la IA y la automatización deben adoptar un enfoque con perspectiva
de género en todos sus principios para superar el sesgo de género inherente. Por ejemplo,
Google debería incorporar una perspectiva de género al evaluar cuáles tecnologías nuevas son
“socialmente beneficiosas” o cómo es que los sistemas de IA se “construyen y prueban para ser
seguros”.

¿Qué se debe hacer para afrontar el sesgo de género en la IA y la automatización? El


marco de género para los Principios Rectores de la ONU sobre empresas y derechos humanos
podría ofrecer orientación práctica a los Estados, empresas y otros actores. El marco implica un
ciclo de tres etapas: evaluación con perspectiva de género, medidas tr ansformadoras en
cuestión de género y remedios transformadores en cuestión de género. La evaluación debe ser
capaz de responder a las repercusiones negativas diferenciadas, interseccionales y
desproporcionadas para los derechos humanos de las mujeres. Las medidas y remedios
resultantes deben ser transformadores; es decir, poder producir un cambio en las normas
patriarcales, las relaciones de poder desiguales y los estereotipos de género.

Los Estados, las empresas y otros actores pueden tomar varias medidas concretas. En primer
lugar, las mujeres deben ser participantes activas en la creación de la IA y la automatización, en
lugar de meras beneficiarias pasivas. Las mujeres y sus experiencias deben integrarse
adecuadamente en todas las etapas del diseño, el desarrollo y la aplicación de la IA y la
automatización. Además de la contratación proactiva de más mujeres en todos los niveles, las
empresas de IA y automatización deben involucrar a especialistas en cuestiones de género y
organizaciones de mujeres desde el principio para realizar la debida diligencia de derechos
humanos.

Las mujeres deben ser participantes activas en la creación de la IA y la automatización, en lugar


de meras beneficiarias pasivas.
En segundo lugar, los datos en los que se basan los algoritmos, la IA y la automatización deben
estar desglosados por sexo; de lo contrario, las experiencias de las mujeres no se reflejarán en
las herramientas tecnológicas y estas podrían seguir internalizando los sesgos de género
existentes contra las mujeres. Además, incluso los datos relacionados con las mujeres deben
protegerse contra cualquier riesgo de género inherente.

En tercer lugar, los Estados, las empresas y las universidades deben planificar e invertir en
desarrollar la capacidad de las mujeres para lograr una transición sin problemas a la IA y la
automatización. Esto requeriría formación profesional/técnica tanto a nivel educativo como
laboral.

En cuarto lugar, la IA y la automatización deben diseñarse con el fin de superar la discriminación


de género y las normas sociales patriarcales. En otras palabras, estas tecnologías deben
utilizarse para responder a los retos que enfrentan las mujeres, como el trabajo de cuidado no
remunerado, la brecha salarial de género, el acoso cibernético, la violencia de género y el acoso
sexual, la trata, las violaciones de derechos sexuales y reproductivos, y la subrepresentación en
puestos de liderazgo. Del mismo modo, el poder de la IA y la automatización se debe emplear
para mejorar el acceso de las mujeres a las finanzas, educación superior y oportunidades de
trabajo flexibles.

En quinto lugar, se deben adoptar medidas especiales para que las mujeres conozcan sus
derechos humanos y las repercusiones de la IA y la automatización para sus derechos .

Fuente: https://www.openglobalrights.org/addressing-gender-bias-in-artificial-intelligence-
and-automation/?lang=Spanish

También podría gustarte