• Asignatura: Historia
  • Autor: karencorderojim
  • hace 4 años

qué sucedió en Alemania con el fin de la guerra​

Respuestas

Respuesta dada por: dome3012
16

Respuesta:

La guerra acabó con una victoria total de los aliados sobre el eje en 1945 y la liberación de los prisioneros en campos de exterminio. La guerra en Europa terminó con la captura de Berlín por tropas soviéticas y polacas y la consiguiente rendición incondicional alemana el 8 de mayo de 1945

Explicación:

espero que te sirva

Respuesta dada por: miramonlilibed
24

En Alemania, con el fin de la guerra, se acabó la monarquía y se instauró una república parlamentaria

Preguntas similares