Respuestas
Respuesta dada por:
2
Respuesta:
La posguerra en Europa Al terminar la Segunda Guerra Mundial, el dominio político y económico de los Estados Unidos de América se acrecentó vertiginosamente, y con él, se produjo un cambio en las relaciones internacionales, que dejaban de guiarse por el eurocentrismo, pasando a ocupar EUA el lugar que otrora ocupara Europa
Explicación:
me das coronita plis
coreprime0298owwl05:
Bro gracias pero pregunte sobre la primera osea antes de la segunda guerra mundial
Preguntas similares
hace 4 años
hace 4 años
hace 7 años
hace 8 años