Respuestas
Respuesta dada por:
2
La política arbitraria alemana y los intentos de "germanización" forzosa hicieron que la mayor parte de la población aceptara de buen grado el retorno a Francia tras el fin de la primera guerra mundial. Sin embargo, las actitudes centralistas tendentes a eliminar los rasgos culturales diferenciadores de estas regiones crearon descontento contra Francia. De 1940 a 1945, tras la invasión nazi, volvieron a manos alemanas, para ser definitivamente francesas tras la derrota de Hitler.
espero ayudarte¡¡¡
espero ayudarte¡¡¡
Preguntas similares
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años