Está en la página 1de 13

Los algoritmos: otra forma tecnológica de (https://www.fundacionluminis.org.

ar/)
Home banalizar el maltrato - Fundación Lu... https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
Mi Carpeta (https://www.fundacionluminis.org.ar/mi-carpeta) Login

Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)

Radio (https://www.fundacionluminis.org.ar/radio) Recursos didácticos Datos abiertos (https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)

Info útil Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)

Categoría

Brecha salarial (https://www.fundacionluminis.org.ar/categoria-educacion-genero/brecha-salarial)


Educación (https://www.fundacionluminis.org.ar/categoria-educacion-genero/educacion)
Estereotipos (https://www.fundacionluminis.org.ar/categoria-educacion-genero/estereotipos)
Inclusión �nanciera (https://www.fundacionluminis.org.ar/categoria-educacion-genero/inclusion-�nanciera)
Inventoras y descubridoras (https://www.fundacionluminis.org.ar/categoria-educacion-genero/inventoras-y-descubridoras)
Justicia (https://www.fundacionluminis.org.ar/categoria-educacion-genero/justicia)
La agenda de género en el mundo (https://www.fundacionluminis.org.ar/categoria-educacion-genero/la-agenda-de-genero-en-el-mundo)
Moda (https://www.fundacionluminis.org.ar/categoria-educacion-genero/moda)
Política (https://www.fundacionluminis.org.ar/categoria-educacion-genero/politica)
Publicidad (https://www.fundacionluminis.org.ar/categoria-educacion-genero/publicidad)
Recursos (https://www.fundacionluminis.org.ar/categoria-educacion-genero/recursos)
Redes Sociales (https://www.fundacionluminis.org.ar/categoria-educacion-genero/redes-sociales)
Salud sexual y reproductiva (https://www.fundacionluminis.org.ar/categoria-educacion-genero/salud-sexual-y-reproductiva)
Tecnología (https://www.fundacionluminis.org.ar/categoria-educacion-genero/tecnologia)
Violencia de Género (https://www.fundacionluminis.org.ar/categoria-educacion-genero/violencia-de-genero)

1 de 13 7/12/18 22:28
Los algoritmos: otra forma tecnológica de (https://www.fundacionluminis.org.ar/)
Home banalizar el maltrato - Fundación Lu... https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
Mi Carpeta (https://www.fundacionluminis.org.ar/mi-carpeta) Login

Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)

Los algoritmos: otra forma tecnológica de banalizar el maltrato


Radio (https://www.fundacionluminis.org.ar/radio) Recursos didácticos Datos abiertos (https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)
Los algoritmos tienen prejuicios: ellos son informáticos y ellas, amas de casa
27 agosto
Info útil 2018
Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)
| Estereotipos (https://www.fundacionluminis.org.ar/categoria-educacion-genero/estereotipos), Recursos
(https://www.fundacionluminis.org.ar/categoria-educacion-genero/recursos), Redes Sociales
(https://www.fundacionluminis.org.ar/categoria-educacion-genero/redes-sociales), Tecnología
(https://www.fundacionluminis.org.ar/categoria-educacion-genero/tecnologia)

 GUARDAR  COMPARTIR POR EMAIL    

(WHATSAPP://SEND?TEXT=LOS%20ALGORITMOS
(HTTPS://WWW.FACEBOOK.COM
(HTTPS://TWITTER.COM
(HTTPS://WWW.LINKEDIN.COM

%3A%20OTRA%20FORMA%20TECNOL
/SHARER/INTENT /CWS/SHARE?URL=HTTPS

%C3%B3GICA%20DE%20BANALIZAR%20EL%20MALTRATO%20-%20FUNDACI
/SHARER.PHP?U=HTTPS
/TWEET?TEXT=LOS%20ALGORITMOS
%3A%2F

%C3%B3N%20LUMINIS%20HTTPS
%3A%2F %3A%20OTRA%20FORMA%20TECNOL
%2FWWW.FUNDACIONLUMINIS.ORG.AR%2FEDUCACION-

%3A%2F %2FWWW.FUNDACIONLUMINIS.ORG.AR%2FEDUCACION-
%C3%B3GICA%20DE%20BANALIZAR%20EL%20MALTRATO%20-%20FUNDACI
Y-GENERO%2FLOS-

%2FWWW.FUNDACIONLUMINIS.ORG.AR%2FEDUCACION-
Y-GENERO%2FLOS-
%C3%B3N%20LUMINIS&
ALGORITMOS-

Y-GENERO%2FLOS-
ALGORITMOS-
URL=HTTPS
OTRA-

ALGORITMOS-
OTRA- %3A%2F FORMA-

OTRA- FORMA- %2FWWW.FUNDACIONLUMINIS.ORG.AR%2FEDUCACION-


TECNOLOGICA-

FORMA- TECNOLOGICA-
Y-GENERO%2FLOS-
DE-

TECNOLOGICA-
DE- ALGORITMOS-
BANALIZAR-

DE- BANALIZAR-
OTRA- EL-

BANALIZAR-
EL- FORMA- MALTRATO)
2 de 13 7/12/18 22:28
EL- MALTRATO)
TECNOLOGICA-
En esteotra
Los algoritmos: artículo
forma se aborda
tecnológica dela(https://www.fundacionluminis.org.ar/)
Home cuestión
banalizar de los sesgos
el maltrato sexistas
- Fundación Lu... de los(https://www.fundacionluminis.org.ar/mi-carpeta)
Mi Carpeta algoritmos informáticos, lo
https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
Login

que nos pareció sumamente interesante, porque advierte sobre el efecto ampli�cador de los
Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)
estereotipos que tienen las redes sociales e internet. Ya habíamos llamado la atención sobre el
Radiomismo peligro para el caso de los medios
(https://www.fundacionluminis.org.ar/radio) de comunicación
Recursos didácticos yDatos
sus abiertos
productos (la información y la
(https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)
publicidad) en  artículo anterior: “No banalizar el maltrato
Info útil Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)
(https://www.fundacionluminis.org.ar/educacion-y-genero/no-banalizar-maltrato)”.

El problema es que los programadores, como los periodistas y los publicistas y los
comunicadores sociales, recogen de la sociedad los valores, los estereotipos y las prácticas
imperantes y, al repetirlos en los algoritmos y en los medios de comunicación, los hacen cada vez
más fuertes (porque son a su vez inductores de conductas) y los legitiman.

Por tanto, si la inteligencia arti�cial “aprende” sobre la base de lo que ya existe (con�rmándolo,
pero no creándolo) y según las reglas de aprendizaje con que son programados procesan datos y
concluyen patrones, no podremos caer en el simplismo de demonizar a los algoritmos y nada
más. Sería como romper el espejo para sacarnos el problema de encima. Hay que mirar
necesariamente a los creadores de esos algoritmos (que deben trabajar con un mayor criterio
crítico) y a quienes practicamos las conductas de las que se alimentan (la sociedad general) Unos
y otros somos los padres de la criatura.

He aquí el artículo

“La inteligencia arti�cial puede ser sexista. Cinco cientí�cos nos explican por qué.

Es una verdad mundialmente reconocida que un hombre soltero, poseedor de una gran
fortuna, necesita una esposa”. Así arrancó Jane Austen su famosa novela Orgullo y Prejuicio
3 de 13(1813). Preguntemos a un algoritmo que estudia el per�l psicológico y que ha sido 7/12/18 22:28
desarrollado por la Universidad de Cambridge, a cien millas de donde vivió la escritora
inglesa,otra
Los algoritmos: qué nostecnológica
forma diría al analizar
de
Home banalizarese pequeño
el maltrato texto. Lu...
- Fundación
(https://www.fundacionluminis.org.ar/) https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
Mi Carpeta (https://www.fundacionluminis.org.ar/mi-carpeta) Login

Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)


– La persona que lo escribió es más liberal y artística que la media… ¡Correcto!
Radio (https://www.fundacionluminis.org.ar/radio) Recursos didácticos Datos abiertos (https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)
– Es más organizada y trabajadora también… ¡Correcto!
Info útil Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)

– Su edad ronda los 30 años… Aproximado

– La probabilidad de que sea un hombre es del 99%… ¿Jane Austen?

¿Un error casual? Pongamos a prueba al mismo algoritmo con otra mujer, esta vez de la
época presente; Christine Lagarde. ¿Qué conclusiones extrae tras analizar un discurso suyo
sobre economía mundial?

– Que es el “arquetipo de la masculinidad”…

¿Por qué? ¿Será porque habla de economía y crecimiento y eso es muy masculino?
Probablemente… ¿Y si resulta que la forma que tienen de aprender las máquinas por sí
solas (machine learning) también contiene sesgos sexistas (y de otro tipo) que vemos en la
sociedad? De eso va el artículo que han escrito Bolukbasi, Chang, Zou, Saligrama y Kalai,
(Universidad de Boston y Microsoft), una referencia en este incipiente campo de
investigación. [Aquí, el artículo completo, en su versión original, en inglés
(https://www.fundacionluminis.org.ar/biblioteca/man-is-to-computer-programmer-as-
woman-is-to-homemaker-debiasing-word-embeddings)].

Para poder adentrarse en este mundo de los algoritmos hay que comprender un poco
4 de 13mejor cómo es su forma de “aprender”. Igual que los niños aprenden de sus padres, 7/12/18 22:28
muchos algoritmos aprenden de los datos con los que se les alimenta. En el procesamiento
naturalotra
Los algoritmos: delforma
lenguaje, una
tecnológica dede
Home las técnicas
banalizar más
el maltrato utilizadas
- Fundación Miconsiste
Lu...
(https://www.fundacionluminis.org.ar/) en cebar a la máquina con
https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
Carpeta (https://www.fundacionluminis.org.ar/mi-carpeta) Login

miles y miles de textos para que encuentre patrones y aprenda por sí misma el idioma. Se
Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)
llama mapeo de palabras (word embedding, en inglés). “Es una red arti�cial para entender
Radiola estructura de una frase. La máquinaRecursos
(https://www.fundacionluminis.org.ar/radio) se alimenta con un
didácticos montón
Datos abiertosde textos que
(https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)
representan el lenguaje que se está estudiando”, explica Álvaro Barbero, Chief Data
Info útil Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)
Scientist del Instituto de Ingeniería del Conocimiento. “El sistema aprende qué palabras
están cercanas a otras y las convierte en números para que la máquina pueda entender el
lenguaje. Se utiliza bastante porque es un sistema muy efectivo”.

Dicho de otra manera, lo que hace el sistema/algoritmo es agrupar palabras por temas.
Algo parecido a ordenar un armario (ahora que está tan de moda), tenemos la sección
abrigos, partes de arriba, camisetas, bufandas, calcetines… y luego establecemos
combinaciones. ¿Pero y si la máquina nos dice al ver unos pantalones que el sujeto es un
hombre? ¿Es que la mujer no puede llevar pantalones? No, es porque es más probable
estadísticamente que sea un hombre.

En el artículo de Bolukbasi et al. se aborda la problemática de delegar totalmente en el


machine learning sin tener en cuenta el riesgo de ampli�cación de los sesgos presentes en
los datos.

El estudio puede resultar un primer acercamiento al mundo de los algoritmos sin ser
excesivamente técnico. Además está lleno de ejemplos de cómo la técnica de mapeo de
palabras nutrida con datos de Google News (la base más extensa de las que hay) está llena
de prejuicios y sexismo.

“Hay cientos o incluso miles de artículos escritos sobre mapeo de palabras y sus
5 de 13aplicaciones, desde la búsqueda en internet al análisis de currículos. Pero ninguno de estos 7/12/18 22:28
estudios ha reconocido lo llamativamente sexistas que son estos mapeos y el riesgo que
suponen
Los algoritmos: otrapor lotecnológica
forma tanto aHomela
de hora de elintroducir
banalizar sesgos en
maltrato - Fundación sistemas
Lu...
(https://www.fundacionluminis.org.ar/) Mi del mundo real”.
https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
Carpeta (https://www.fundacionluminis.org.ar/mi-carpeta) Login

Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)


Los autores digamos que juguetearon con el algoritmo de la siguiente manera:
Radio (https://www.fundacionluminis.org.ar/radio) Recursos didácticos Datos abiertos (https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)
El hombre es a un rey lo que la mujer es a “X”
Info útil Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)

X = reina (decía la máquina).

París es a Francia lo que Tokio es a “X”

X = Japón

El hombre es a programador informático lo que la mujer es a “X”

X = ama de casa

Ups… ¿Respuesta equivocada? No fue la única asociación sexista que encontraron en el


sistema. También se toparon con las siguientes: Costura – Carpintería. Enfermera – Médico.
Rubia – Corpulento. Diseñadora de interiores – Arquitecto. Pequeña – Alto…

“El algoritmo es naif, así que re�ejará las características de la muestra. En nuestro artículo
analizamos Twitter, Web Crawl, Wikipedia y Google News y encontramos diversos tipos de
sesgos en todos los casos. Por ejemplo, Wikipedia tiene menos sesgo racial que Google
News, mientras que el sesgo de género es generalizado en todas las bases de datos”, aclara
Bolukbasi.

6 de 13En el extremo del género femenino el algoritmo entrenado por Google News sitúa 7/12/18 22:28
profesiones como: ama de casa, recepcionista, bibliotecaria, peluquera, niñera, contable…
Mientras
Los algoritmos: otraque
formaen el lado
tecnológica más
de
Home masculino
banalizar �guran:
el maltrato profesor,
- Fundación Lu...
(https://www.fundacionluminis.org.ar/) capitán,
Mi Carpeta �lósofo, �nanciero,
https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
(https://www.fundacionluminis.org.ar/mi-carpeta) Login

locutor, mago, jefe…


Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)

Radio“En Wikipedia, Wager et al. encontraron,


(https://www.fundacionluminis.org.ar/radio) comodidácticos
Recursos sugería otro trabajo
Datos abiertosprevio sobre el sesgo de
(https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)
género en el lenguaje, que en los artículos sobre mujeres se destacaba más su género, sus
Info útil Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)
maridos, los trabajos de sus parejas y otra serie de temas que en el caso de los artículos
sobre hombres se trataban mucho menos. En cuando a palabras concretas, encontraron
que algunas predecían el género. Por ejemplo “marido” aparece considerablemente más a
menudo en artículos sobre mujeres mientras que “béisbol” se dan más en textos sobre
hombres”.

¿Cómo se cuanti�ca el sesgo?


Los autores utilizan como referencia emparejamientos neutrales: hermano – hermana, rey-
reina, padre – madre. Es normal, y de esperar, que hermano esté mucho más cerca del
género masculino que del femenino. ¿Pero qué pasa si la palabra médico se sitúa muy
cerca del lado masculino? Solo ese dato no con�rmaría el sesgo. Sí lo haría el hecho de que
estuviera mucho más cerca del lado masculino que del femenino. Para saber si había sesgo
o no los autores recurrieron a trabajadores de Amazon Mechanical Turk, que opinaron si
determinadas relaciones de palabras les parecían sexistas.

“Hay sesgos muy habituales que relacionan términos femeninos con liberal, artístico y
familiar y términos masculinos con ciencia y carreras profesionales”.

Este grá�co del estudio muestra las palabras que están contaminadas; las que están por
encima de la línea horizontal. Por ejemplo: ama de casa (homemaker) está mucho más
cerca del “ella” (she) que del él (he). ¿Es esto un sesgo? Claramente. Genio (genius), por el
7 de 13lado contrario se asocia mucho más al mundo masculino. Las palabras que están por 7/12/18 22:28
debajo de la línea horizontal son las que tienen sentido que estén más hacia un lado u otro
porqueotra
Los algoritmos: suforma
propia de�nición
tecnológica implica ya un género.
de (https://www.fundacionluminis.org.ar/)
Home banalizar el maltrato - Fundación Lu... https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
Mi Carpeta (https://www.fundacionluminis.org.ar/mi-carpeta) Login

Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)

Radio (https://www.fundacionluminis.org.ar/radio) Recursos didácticos Datos abiertos (https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)

Info útil Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)

[El grá�co muestra entonces, como reza el epígrafe, que acá traducimos, las palabras
seleccionadas proyectadas a lo largo de dos ejes: el eje “x”, que las ordena en una proyección
sobre la diferencia entre las palabras “él” y “ella”, y el eje “Y”, que lo hace en una proyección
aprendida que capta la neutralidad de género (con palabras neutras de género por encima de la
línea y palabras especí�cas de género por debajo). Nótese también como ejemplo la ubicación
otras palabras como “subject” (sujeto), “divorce” (divorcio), “dancer” (bailarín o bailarina) y
“brillant” (brillante)].

[Llamamos la atención sobre la palabra “homemaker” porque el sesgo connotado en el inglés se


8 de 13 7/12/18 22:28
acentúa en el castellano, donde la traducción hace directamente alusión al género femenino:
“ama de
Los algoritmos: casa”].
otra forma tecnológica de (https://www.fundacionluminis.org.ar/)
Home banalizar el maltrato - Fundación Lu... https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
Mi Carpeta (https://www.fundacionluminis.org.ar/mi-carpeta) Login

Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)


Así que tenemos un algoritmo infectado suelto. ¿Se puede arreglar?
RadioLos autores proponen un sistema paraRecursos
(https://www.fundacionluminis.org.ar/radio) solucionarlo que Datos
didácticos daríaabiertos
asociaciones mucho más
(https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)
neutrales. Estos grá�cos muestran la efectividad de la corrección: en el caso de las
Info útil Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)
analogías malas, se reduce tras modi�car posteriormente el algoritmo (grá�co izquierda),
mientras que el número de las analogías apropiadas (grá�co derecha) no se ve reducido.
Las relaciones tipo padre-madre no desaparecen.

Por ejemplo: un 19% de las 150 analogías seleccionadas se consideraban sexistas. Después
de aplicar la modi�cación (hard debiased) se redujeron al 6%. En el caso de “él es médico
como ella es a X”, el algoritmo ya no dice “X = enfermera” sino “X = doctora”.

Las implicaciones de estas asociaciones sexistas pueden ir mucho más allá de lo que es
correcto o no: existe el peligro de que el efecto se pueda ampli�car desde la red a la vida
real. Los autores ponen un hipotético ejemplo: si el algoritmo relaciona la informática más
con nombres de hombres que de mujeres, entonces puede llegar a in�uir en los motores
de búsqueda; las páginas de “José” saldrían mucho más arriba que las de “María”. “Sería
todavía más difícil para una mujer ser reconocida como una informática y contribuiría a
ampliar la brecha que ya hay entre hombres y mujeres en la informática”.

“Esto supone un riesgo importante y un reto para el machine learning y sus aplicaciones…
En términos de palabras, la asociación al género femenino de cualquier palabra, incluso
una subjetivamente positiva como podría ser ‘atractiva’, puede provocar discriminación
contra las mujeres si reduce la asociación con otras palabras como ‘profesional”.

9 de 13Vivimos rodeados de muchos algoritmos cuyas fórmulas desconocemos. El reciente caso de 7/12/18 22:28
las noticias falsas y su propagación a través de las redes sociales ya ha forzado algunos
cambios
Los algoritmos: otramatemáticos.
forma tecnológicaEs
de difícil
Home banalizarsaber si estamos
el maltrato expuestos
- Fundación Lu...
(https://www.fundacionluminis.org.ar/) a sesgos
Mi Carpeta por todas partes. “Es
https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
(https://www.fundacionluminis.org.ar/mi-carpeta) Login

posible que tu solicitud de préstamo al banco, o un detector de fraude o incluso Siri tengan
Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)
sesgos. Es muy difícil de decir pero estamos intentando construir un marco para saberlo y
Radiomedirlo”, explica Bolukbasi.
(https://www.fundacionluminis.org.ar/radio) Recursos didácticos Datos abiertos (https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)

Info útil Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)


Algunos alertan de que se está creando “la entidad más discriminadora, terca y fascista que
haya conocido la raza humana; la inteligencia arti�cial.” Pero esa máquina con conciencia
todavía no se ha creado. Tenemos eso sí, algoritmos y sus prejuicios”.

“Los algoritmos tienen prejuicios: ellos son informáticos y ellas, amas de casa”. Por Rebeca
Gimeno, para El País del 16 de mayo de 2017.
La imagen es original del artículo.
Las cursivas entre corchetes son nuestras.

Algunas preguntas para trabajar con los alumnos:

En un contexto sociocultural en el que cotidianamente interactuamos con tecnologías


digitales diseñadas por terceros: ¿Se puede considerar banal una cuestión como la que es
es presentada en este artículo?

¿Por qué motivos podría o no ser banal este tema?

Afortunadamente, esta problemática empieza a preocupar también en nuestras latitudes.


En este link (https://www.lanacion.com.ar/2166321-algoritmolandia-cumbre-analizar-
impacto-inteligencia-arti�cial), encontraran un artículo de diario que re�ere a
Algortimolandia, un evento organizado por el Banco Interamericano de Desarrollo (BID), a
10 de través de su Instituto de Integración de América y El Caribe, para analizar el impacto que la
13 7/12/18 22:28
robótica, la inteligencia arti�cial y los algoritmos pueden tener en diferentes aspectos de
nuestra
Los algoritmos: vida
otra individual
forma tecnológicaydecolectiva,
Home banalizar elentre ellos
maltrato la perpetuación
- Fundación Lu...
(https://www.fundacionluminis.org.ar/) de las iniquidades.
https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
Mi Carpeta (https://www.fundacionluminis.org.ar/mi-carpeta) Login

Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)

Radio (https://www.fundacionluminis.org.ar/radio) Recursos didácticos Datos abiertos (https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)

Deja Novedades
Info útil un comentario
Contacto (https://www.fundacionluminis.org.ar/contacto)
Lo siento, debes estar conectado (https://www.fundacionluminis.org.ar/wp-login.php?redirect_to=https%3A%2F
%2Fwww.fundacionluminis.org.ar%2Feducacion-y-genero%2Flos-algoritmos-otra-forma-tecnologica-de-banalizar-el-
maltrato) para publicar un comentario.

Quiénes Somos Qué Hacemos Recursos Didácticos Twitter Newsletter

Twittear
Ámbitos de desarrollo Becas Formador de Biblioteca virtual Email *
(https://www.fundacionluminis.org.ar
Formadores (https://fundacionluminis.org.ar
Compartir /quienes-somos/ambitos-de- (https://www.fundacionluminis.org.ar
/biblioteca/)
desarrollo) /becas-formador-de-
formadores)
Recursos didácticos para la ENVIAR
Equipo de trabajo enseñanza online
(https://www.fundacionluminis.org.ar
Mejora de la calidad de la (https://fundacionluminis.org.ar
/quienes-somos/el-equipo) formación docente /recurso-didactico-online/)
(https://www.fundacionluminis.org.ar
/mejoramiento-de-
Nuestros valores Videoteca
formacion-docente)
(https://www.fundacionluminis.org.ar (https://fundacionluminis.org.ar
/quienes-somos/nuestros- /video)
valores) Construcción de Ciudadanía
(https://www.fundacionluminis.org.ar
Guías didácticas
/que-hacemos/construccion-
Lúminis hoy (https://www.fundacionluminis.org.ar
de-ciudadania)
(https://www.fundacionluminis.org.ar /tipo-trabajo/guia-didactica
/quienes-somos/luminis-hoy) /?post_type=library_item)
Gestión del Conocimiento
(https://www.fundacionluminis.org.ar
Alianzas Directorio de Instituciones
/gestion-del-conocimiento)
(https://www.fundacionluminis.org.ar Educativas
/quienes-somos/alianzas) (https://fundacionluminis.org.ar
/directorio)

Listado orientativo de
11 de 13 bibliografía profesional
7/12/18 22:28
(https://www.fundacionluminis.org.ar
/listado-orientativo)
Los algoritmos: otra forma tecnológica de (https://www.fundacionluminis.org.ar/)
banalizar el maltrato - Fundación Lu... https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
Home Fundación Lúminis Mi Carpeta (https://www.fundacionluminis.org.ar/mi-carpeta) Login
@InfoLuminis
Datos Abiertos sobre
Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2)
Educación
Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)
Calendario escolar #2018
(https://www.fundacionluminis.org.arde la Provincia de Buenos
/datos-abiertos-educacion/)
Radio (https://www.fundacionluminis.org.ar/radio)
Aires - Para todos los Recursos didácticos Datos abiertos (https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)
niveles, ciclos y
Educación y Género
modalidades -
Info(https://www.fundacionluminis.org.ar
útil Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)
/educacion-y-genero/) goo.gl/CSZUdM

Calend…
Aquí, el …
fundaci…

7m

Fundación Lúminis
@InfoLuminis
#EducaciónYGénero -
#Recursos - Las 10
invenciones que debemos
a mujeres - #Video -
goo.gl/Dyquhk

37m

Av. del Libertador 314, 2do piso, o�cina "B". C1001ABQ, Ciudad de Buenos Aires. Tel-Fax: (+5411) 4312-5023/4631
12 de 13 7/12/18 22:28
info@fundacionluminis.org.ar (mailto:info@fundacionluminis.org.ar)
Los algoritmos: otra forma tecnológica de (https://www.fundacionluminis.org.ar/)
Home banalizar el maltrato - Fundación Lu... https://www.fundacionluminis.org.ar/educacion-y-genero/los-algoritmos-otra-form...
Mi Carpeta (https://www.fundacionluminis.org.ar/mi-carpeta) Login

Quiénes Somos (https://www.fundacionluminis.org.ar/quienes-somos-2) Becas (https://www.fundacionluminis.org.ar/becas-formador-de-formadores)

Radio (https://www.fundacionluminis.org.ar/radio) Recursos didácticos Datos abiertos (https://www.fundacionluminis.org.ar/datos-abiertos-educacion/)

Info útil Novedades Contacto (https://www.fundacionluminis.org.ar/contacto)

13 de 13 7/12/18 22:28