Respuestas
Respuesta:
El Nacionalismo alemán (en alemán: Deutschnationalismus) es una ideología política y cultural que afirma que los alemanes son una nación y que promueve la unidad cultural entre ellos.[1] Los primeros orígenes del nacionalismo alemán comenzaron con el nacimiento del nacionalismo romántico durante las Guerras napoleónicas, cuando el pangermanismo comenzó a extenderse. La defensa de la nación alemana comenzó a convertirse en una importante fuerza política en respuesta a la invasión de territorios alemanes por la Francia de Napoleón. Después del ascenso y caída de la Alemania nazi, el nacionalismo alemán ha acabado convirtiéndose en un tabú dentro de la propia Alemania.[2] No obstante, durante la Guerra Fría surgió una corriente moderada del nacionalismo alemán que apoyó la reunificación de la Alemania Oriental y Occidental, lo que finalmente se lograría en 1990.[2]