Respuestas
Respuesta dada por:
1
el tratado de Versalles es un contrato que firmo Alemania con los países vencedores de la segunda guerra mundial. en el, Alemania se comprometia a hacerse cargo de los daños externos a su país causados por la guerra y a entregar gran parte del territorio conquistado durante la guera
Preguntas similares
hace 6 años
hace 6 años
hace 9 años