• Asignatura: Historia
  • Autor: lizsama
  • hace 6 años

que países ganaron territorio en la primera guerra mundial?

Respuestas

Respuesta dada por: taehyungkim13
2

Respuesta:

espero que ayude

Explicación:

Alemania perdió la Primera Guerra Mundial, y en el Tratado de Versalles de 1919, las potencias vencedoras (Estados Unidos, Gran Bretaña, Francia y los otros estados aliados) impusieron a la derrotada Alemania disposiciones punitivas para su territorio, milicia y economía.

Preguntas similares