Está en la página 1de 2

EL NAZISMO EN ALEMANIA

¿Qué es el nazismo?
Doctrina política nacionalista, racista y totalitaria que fue impulsada en
Alemania por Adolf Hitler (político alemán, 1889-1945) después de la
Primera Guerra Mundial, y que defendía el poder absoluto del Estado
y la superioridad y la supremacía del pueblo germano frente a los
demás pueblos de Europa.

¿Cómo surgió?
Surgió en el intervalo de la primera guerra mundial, luego de que
Alemania fuese derrotada y presentara múltiples dificultades
económicas, políticas y sociales.
Partido obrero alemán
Adolf Hitler, era miembro de este partido. En 1921, Hitler convirtió este
partido en el partido nacional socialista obrero alemán. Fue conocido
como “partido nazi”.
Partido nazi
En la elección de 1933, el partido nazi consiguió 1/3 de los votos. Pero
a pesar de eso, no consiguieron la mayoría de los votos. El 30 de
enero de 1933, Hitler fue nombrado por el presidente Hindenburg
“canciller de Alemania”. En 10 meses, Hitler transformo radicalmente la
estructura política en ese país.
“Mi lucha”
Los campos de concentración se comenzaron a implementar inclusive
antes de que Hitler llegara a la presidencia. En estos se torturaban y
fusilaban a los judíos, homosexuales, presos políticos, gitanos,
testigos de heova, entre otros.

También podría gustarte