• Asignatura: Historia
  • Autor: jaredramirezrodrigue
  • hace 5 años

¿al terminar la Segunda Guerra Mundial se acabaron Las Guerras entre países?​

Respuestas

Respuesta dada por: davidexe911
2

Respuesta:

No

Explicación:

No porque siguen teniendo ciertas indiferencias y distintos modos de pensar y también el modo de pensar de los presidentes y sus ideas sobre el mundo

Preguntas similares