• Asignatura: Historia
  • Autor: lunabianca12liz
  • hace 5 años

que postura tuvo Alemania al terminar la primera Guerra mundial? ​

Respuestas

Respuesta dada por: guapera2021
6

Respuesta:

Después de la Primera Guerra Mundial Alemania perdió el 10% de su territorio a favor de sus vecinos y se formó entonces la República de Weimar. Esta república incluyó territorios al este de los actuales límites alemanes, en su mayoría Prusia Oriental.

Explicación:

esto te sirvió ❤️


lunabianca12liz: muchas gracias
Respuesta dada por: danielgameromorales
3

Respuesta:Alemania perdió la Primera Guerra Mundial, y en el Tratado de Versalles de 1919, las potencias vencedoras (Estados Unidos, Gran Bretaña, Francia y los otros estados aliados) impusieron a la derrotada Alemania disposiciones punitivas para su territorio, milicia y economía

Explicación:Espero que te ayude


lunabianca12liz: Gracias por su respuesta
Preguntas similares