Respuestas
Respuesta dada por:
20
La Alemania nazi de Adolfo Hitler fue el gran país invasor durante la Segunda Guerra Mundial y llegó a ocupar extensos territorios de Europa.
Los países que no fueron invadidos por los alemanes fueron por condiciones particulares como el Reino Unido, que queda isla fuera del continente, o porque eran aliados del nazismo como Italia y España o quedaban muy lejanos como Portugal.
Por supuesto, Alemania como país agresor tampoco fue invadido sino hasta el fin de la guerra con la derrota de su régimen.
Preguntas similares
hace 6 años