Luego que los alemanes admitieron su derrota en noviembre de 1918, se reunieron los representantes de los vencedores y vencidos para poner fin legalmente a la Primera Guerra Mundial. Los vencedores (Gran Bretaña, Francia e Italia, principalmente) impusieron un pacto de paz que obligaba a los alemanes a ceder varios territorios y pagar una fuerte indemnización por los daños de la guerra. Con lo anterior en Alemania:
Respuestas
Respuesta dada por:
0
No entendí en lo que quieres que te ayude pero más o menos en Alemania se hicieron muchos cambios después de la guerra ya que algunos de los representantes más horribles de la guerra que mataban gente fueron encerrados a condena y otros prefirieron suicidarse además también tuvieron que pagar muchos territorios que fueron dañados en su país y el de otros por la guerra que se dio.
Síganme en insta:rospigliosifernanda
Síganme en insta:rospigliosifernanda
Respuesta dada por:
0
Respuesta:
nose
Explicación:
nose por2
Preguntas similares
hace 5 años
hace 5 años
hace 8 años
hace 8 años
hace 8 años
hace 8 años