¿Porque se afirma que Estados unidos ejerce el imperialismo en el continente Americano?

Respuestas

Respuesta dada por: luchidubois6
2

Respuesta; Los Estados Unidos emprendieron una política imperialista orientada prioritariamente hacia el Caribe y Centroamérica, sin olvidar el sur del continente. También comenzaron a poner su punto de mira en el Pacífico, con el objetivo de situar en algunos enclaves bases navales para proteger sus rutas comerciales con Asia

Respuesta dada por: boytroll
0

Por qué se afirma que el continente americano es el más largo del mundo parte 1

Preguntas similares