¿Que entiende por la Alemania Naci?


ahora ayudenme en eso porfa

Respuestas

Respuesta dada por: cuevasramirezl45
3

Respuesta:

Alemania nazi o nacionalsocialista son términos historiográficos empleados normalmente para referirse al periodo de la historia de Alemania comprendido entre 1933 y 1945, cuando el Partido Nacionalsocialista Obrero Alemán (NSDAP) dirigido por Adolf Hitler gobernó el país.


andres212006: gracia brou
cuevasramirezl45: de nada
Preguntas similares