Que países se formaron después de la segunda guerra mundial ​

Respuestas

Respuesta dada por: jennie415626
0

Respuesta:

Francia y el Reino Unido, que habían dominado la política internacional durante los últimos siglos, ceden su influencia ante Estados Unidos y Rusia

Respuesta dada por: LYD0123
0

Respuesta:

Francia y El Reino Unido, que habían dominado la política internacional durante los últimos siglos, ceden su influencia ante Estados Unidos y Rusia.

Explicación:

Espero te sirva :)

Preguntas similares