Respuestas
Respuesta dada por:
4
Al terminar la Segunda Guerra Mundial, el dominio político y económico de los Estados Unidos de América se acrecentó vertiginosamente, y con él, se produjo un cambio en las relaciones internacionales, que dejaban de guiarse por el eurocentrismo (1), pasando a ocupar EUA el lugar que otrora ocupara Europa (2).
Preguntas similares
hace 6 años
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años