• Asignatura: Historia
  • Autor: ricardo2455
  • hace 8 años

que acontecimiento dieron origen al imperialismo de los Estados Unidos​

Respuestas

Respuesta dada por: sandra66gonzalez
2

Respuesta:

El concepto ‘imperialismo estadounidense’ es aceptado por la mayor parte de la comunidad internacional, tanto por políticos como por historiadores. Es un hecho incuestionable que Estados Unidos ha tenido un comportamiento imperialista desde el inicio de su formación como país, y especialmente a lo largo del S.XX.


ricardo2455: en que consiste la politica del garrote ?
sandra66gonzalez: Política del Gran Garrote: contra las naciones de América Latina. Apoyo estadounidense a la independencia de Panamá en 1903, cuando el gobierno Colombiano rechazó la propuesta de Roosevelt para construir el Canal de Panamá. La ocupación militar de la República Dominicana entre 1916 y 1924.
ricardo2455: quien lo puso en practica ?
ricardo2455: que fundamento sirvieron de sustento ?
Preguntas similares