Está en la página 1de 1

Los roles de hombres y mujeres en la sociedad han cambiado desde hace décadas.

Tradicionalmente, los hombres trabajaban fuera del hogar y eran el único sostén de la familia,
ocupaban algunos de los puestos más poderosos de la sociedad, incluidos médicos, abogados y
políticos, mientras que las mujeres gobernaban el ámbito doméstico. quedarse en casa, criar hijos
y cenar esperando a sus maridos. si funcionó. era como secretaria una enfermera u otra profesión
estereotípicamente femenina.

Las mujeres en los EE. UU. Obtuvieron uno de sus primeros gustos del mundo laboral durante la
guerra mundial. Los hombres fueron a la guerra y las mujeres fueron

También podría gustarte