• Asignatura: Historia
  • Autor: marcodelgado7202
  • hace 4 años

¿Qué paso con Alemania tras la Primera Guerra Mundial, hacia afuera y en el interior del país?

Respuestas

Respuesta dada por: Anónimo
1

Respuesta:

Después de la Primera Guerra Mundial Alemania perdió el 10% de su territorio a favor de sus vecinos y se formó entonces la República de Weimar. Esta república incluyó territorios al este de los actuales límites alemanes, en su mayoría Prusia Oriental.

Preguntas similares