Respuestas
Respuesta dada por:
3
Imperialismo estadounidense, o imperialismo americano, es un término utilizado para hacer referencia al expansionismo histórico que forman parte de la historia contemporánea y la vigente influencia política, cultural, militar y económica de los Estados Unidos a nivel mundial.
Preguntas similares
hace 6 años
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años