al terminar la segunda guerra mundial se terminaron las guerras entre países
vladimirsanchezsos:
mande
Respuestas
Respuesta dada por:
6
Respuesta:
La guerra acabó con una victoria total de los aliados sobre el eje en 1945 y la liberación de los prisioneros en campos de exterminio. La guerra en Europa terminó con la captura de Berlín por tropas soviéticas y polacas y la consiguiente rendición incondicional alemana el 8 de mayo de 1945.
Espero haberte ayudado :3
Respuesta dada por:
7
Respuesta:
si y no
Explicación:
ya que si acabo entre países paro faltaron guerras que todavía siguen existiendo
Preguntas similares
hace 4 años
hace 4 años
hace 7 años
hace 8 años
hace 8 años