• Asignatura: Historia
  • Autor: yessi8366
  • hace 2 años



¿ POR QÚE ESTADOS UNIDOS TOMA GRAN IMPORTANCIA DESPUES DE LA 1 GUERRA MUNDIAL?

Respuestas

Respuesta dada por: LunaticoUwU
0

Respuesta:

La guerra confirmó el papel de liderazgo de Estados Unidos en los asuntos internacionales. En el país, amplió el tamaño y el alcance del gobierno e incluso ayudó a la mujer a asegurarse el voto luego que miles de ellas ingresaran a las fuerzas armadas y trabajaran en las fábricas.

Explicación:

Espero que te sirva :)

Preguntas similares