¿Qué ganó Alemania después de la Primera Guerra Mundial?
a. Gano más territorio en Medio Oriente y Europa.
b. Ganó más territorio en África.
c. Nada porque perdió su imperio colonial.
Respuestas
Respuesta dada por:
1
C. básicamente Alemania quedó en ruinas y gracias al tratado de Versalles le arrebataron gran parte de su territorio
Preguntas similares
hace 6 años
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años