Respuestas
Respuesta dada por:
1
En la segunda guerra mundial nació el nazismo en Alemania y parte de Europa (se conoce como álamos nazi) Adolfo Hitler se tomó el poder de Alemania y impuso un pensamiento racista Anti judio, en el año 1439 los alemanes invadieron varsovia (capital de Polonia) con el paso del tiempo se llevaron a los judíos, homosexuales, opcitores políticos etc a campo de concentración y exterminio nazi distribuidos por Europa.
Adolfo Hitler tenía como plan recuperar territorio perdido en la primer Guerra mundial y someter a Alemania en un régimen absolutista.
la segunda guerra mundial acabo en el año 1944 al derrotar al ejército alemán
naomiuwu45:
gracias :D
Preguntas similares
hace 3 años
hace 3 años
hace 3 años
hace 6 años
hace 6 años
hace 8 años