• Asignatura: Historia
  • Autor: lux441
  • hace 2 años

Qué sucedió en Europa con la llegada del nazismo

Respuestas

Respuesta dada por: daniela228848
1

Respuesta:La ideología del nazismo ganó fuerza en la Alemania derrotada en la Primera Guerra Mundial. Hitler explotó el descontento surgido por la derrota del Imperio Alemán, la debilidad de su frágil heredera, la República de Weimar, y las imposiciones de los vencedores de la guerra en el Tratado de Versalles.

Explicación:

Preguntas similares