• Asignatura: Historia
  • Autor: NatiiCastro
  • hace 2 años

¿Qué sucedió con los territorios después de terminar la primera y segunda guerra mundial?

(por favor no busquen de internet) ​

Respuestas

Respuesta dada por: alejipeRozz
1

Respuesta:

Los territorios volvieron a estar con sus propietarios por que Alemania tuvo que devolver todos los territorios que había Conquistado y todo volvió a estar en orden tal cual como lo conocemos

Preguntas similares