Respuestas
Respuesta:
Alemania antes de la primera guerra mundial era un país que se tuvo que unificar para convertirse en el imperio alemán, dado que antes de eso, estaba conformado por diversos estados sin llamarse oficialmente un país. Esto al volverse un Imperio, incrementó sus capacidades bélicas, su gran ejército derrotó sin mucho esfuerzo a la Francia de Napoleón III; perdiendo varios territorios, Inglaterra le brindó su apoyo a Francia pero Alemania les hacía sombra a las dos juntas.
En Alemania, antes no había un Presidente o mandatario a cargo de la nación, más bien a este se le llamaba como un Káiser, el cual significaría un Emperador.
El país Alemán después de la guerra se vio en una oscuridad económica y de depresión total por todos los demás países que le obligaron a reparar todos los desastres ocasionados por la primera guerra, Alemania fue culpada y amenazada a responder los estragos y muertes ocasionada por este evento.
Hitler al tomar el control, decidió invertir principalmente en la elaboración y crecimiento económico del país. Ignorando todo lo impuesto por el tratado que su nación firmó y aceptó.
Explicación: Espero te ayude uwu
Por fa dame coronita :)