• Asignatura: Geografía
  • Autor: mmela1704
  • hace 8 años

¿Qué cambios se produgieron en Europa después de la Primera Guerra Mundial?



Respuestas

Respuesta dada por: nahueltuama93
1

europa despues de la primera guerra mundial el 11 de noviembre de 1918 finalmente alemania firmaba el armisticio poniendo fin a la guerra mundial en la cual las potencias aliadas salieron victoriosas

Preguntas similares