• Asignatura: Historia
  • Autor: lolipop1234
  • hace 8 años

¿Qué ganó Alemania después de la Primera Guerra Mundial?

a. Gano más territorio en Medio Oriente y Europa.
b. Ganó más territorio en África.
c. Nada porque perdió su imperio colonial.

Respuestas

Respuesta dada por: nicozam1203
1
C. básicamente Alemania quedó en ruinas y gracias al tratado de Versalles le arrebataron gran parte de su territorio
Preguntas similares