• Asignatura: Galego
  • Autor: abeldavila645
  • hace 7 años

el nazismo en Alemania ​

Respuestas

Respuesta dada por: Anónimo
2

La Alemania nazi o nacionalsocialista son términos historiográficos empleados normalmente para referirse al periodo de la historia de Alemania comprendido entre 1933 y 1945, cuando el Partido Nacionalsocialista Obrero Alemán de Adolf Hitler gobernó el país.

Preguntas similares