• Asignatura: Historia
  • Autor: Xoultrux
  • hace 4 años

Cual fue el papel de Estados Unidos después después de la primera Guerra Mundial?

Respuestas

Respuesta dada por: youngmi19k
1

Estados Unidos procedió a actuar en base a un imperativo moral, ofreciendo el compromiso de todo el país en nombre de la paz y la libertad.

Preguntas similares