¿que son los nasis?ya se que son de Alemania¿pero que son?

Respuestas

Respuesta dada por: goback
1
Nazi es la contracción de la palabra alemana Nationalsozialist, de la cual deriva Nationalsozialismus, que significa nacionalsocialismo o Nazismo. 
La palabra nazi se utiliza para todo lo que se relaciona con el régimen que gobernó Alemania de 1933 a 1945 con la llegada al poder del partido nacionalsocialista, el autoproclamado Tercer Reich y Austria a partir de la Anschluss. La Alemania de este periodo se conoce como la Alemania nazi.
Respuesta dada por: elnalpz
2
Los nazis creían en una ideología política llamada ''Nazismo'' donde básicamente ellos se creían la mejor raza de la Tierra y que por ello tenían mejores derechos y podían mandar sobre sus ''inferiores''. La raza que más odiaban eran judíos, minusválidos, gente con alguna enfermedad, homosexuales,...
Preguntas similares