• Asignatura: Historia
  • Autor: celestenicolemm
  • hace 3 años

¿Qué papel cumplía el ejército en la Alemania después de la Primera Guerra Mundial?

Respuestas

Respuesta dada por: alyssabladellcopper
1

Respuesta:

Haz un resumen sobre esto para que parezca aue lo hiciste xd

Explicación:

Alemania perdió la Primera Guerra Mundial, y en el Tratado de Versalles de 1919, las potencias vencedoras (Estados Unidos, Gran Bretaña, Francia y los otros estados aliados) impusieron a la derrotada Alemania disposiciones punitivas para su territorio, milicia y economía.

Se le prohibió a Alemania la fabricación de armamentos de guerra. El pago de más de 30 mil millones de dólares a las fuerzas aliadas para la reparación de sus territorios. Alemania debió aceptar toda la responsabilidad material y moral de la guerra. Grandes territorios alemanes fueron otorgados a las fuerzas aliadas.

Preguntas similares