• Asignatura: Historia
  • Autor: luciadelizia5
  • hace 8 años

Qué sucedió con Alemania en la 1ra guerra mundial?

Respuestas

Respuesta dada por: mikysongs
3
Tras el término de la Primera Guerra Mundial en noviembre de 1918, las potencias vencedoras como Francia y Gran Bretaña impusieron a la derrotada Alemania el pago de reparaciones de guerra por la destrucción causada durante el conflicto, sufrida principalmente en Bélgica y el norte de Francia
Preguntas similares