Respuestas
Respuesta dada por:
4
¿Qué pasó con la Alemania después de la Primera Guerra Mundial?
Alemania perdió la Primera Guerra Mundial, y en el Tratado de Versalles de 1919, las potencias vencedoras (Estados Unidos, Gran Bretaña, Francia y los otros estados aliados) impusieron a la derrotada Alemania disposiciones punitivas para su territorio, milicia y economía.
El Reino de Italia quedó unificado bajo la forma de una monarquía constitucional con Parlamento elegido por sufragio universal masculino y un sistema económico liberal, donde la Jefatura del Estado recaía en la Casa Saboya y el Rey Víctor Manuel II, siendo sucedido tras su muerte por el Rey Humberto I
Preguntas similares
hace 3 años
hace 3 años
hace 3 años
hace 6 años
hace 6 años
hace 6 años