Que crees que sucedio en europa y el mundo después de la primera guerra mundial

Respuestas

Respuesta dada por: arimar92000
3

Respuesta: Europa después de la Primera Guerra Mundial. ... El 11 de noviembre de 1918 finalmente Alemania firmaba el armisticio poniendo fin a la Primera Guerra Mundial, en la cual las potencias aliadas salieron victoriosas.27

Explicación:

ESO ES

Preguntas similares