• Asignatura: Historia
  • Autor: papitasconlimon
  • hace 4 años

Qué pasó con Italia y Alemania después de la Primera Guerra Mundial ??

Respuestas

Respuesta dada por: animendietap7
4

¿Qué pasó con la Alemania después de la Primera Guerra Mundial?

Alemania perdió la Primera Guerra Mundial, y en el Tratado de Versalles de 1919, las potencias vencedoras (Estados Unidos, Gran Bretaña, Francia y los otros estados aliados) impusieron a la derrotada Alemania disposiciones punitivas para su territorio, milicia y economía.

El Reino de Italia quedó unificado bajo la forma de una monarquía constitucional con Parlamento elegido por sufragio universal masculino y un sistema económico liberal, donde la Jefatura del Estado recaía en la Casa Saboya y el Rey Víctor Manuel II, siendo sucedido tras su muerte por el Rey Humberto I

Preguntas similares