Respuestas
Respuesta dada por:
2
Respuesta:
Es una ideología política y cultural que afirma que los alemanes son una nación y que promueve la unidad cultural entre ellos. Los primeros orígenes del nacionalismo alemán comenzaron con el nacimiento del nacionalismo romántico durante las Guerras napoleónicas, cuando el pangermanismo comenzó a extenderse. La defensa de la nación alemana comenzó a convertirse en una importante fuerza política en respuesta a la invasión de territorios alemanes por la Francia de Napoleón. Después del ascenso y caída de la Alemania nazi, el nacionalismo alemán ha acabado convirtiéndose en un tabú dentro de la propia Alemania.
Explicación:
Su origen se dio cuando comenzó el nacionalismo romántico. Espero te sirva :)
Preguntas similares
hace 3 años
hace 3 años
hace 6 años
hace 8 años