• Asignatura: Historia
  • Autor: 27643184
  • hace 9 años

que era el imperialismo estadounidense en america






Respuestas

Respuesta dada por: blankitha10
2
Se puede definir imperialismo como la “actitud y doctrina de quienes propugnan o practican la extensión del dominio de un país sobre otro u otros por medio de la fuerza militar, económica o política.” (fuente: RAE). Así pues, cuando Estados Unidos interviene en Afganistán o en Iraq es una forma de imperialismo, o cuando apoya dictaduras militares en ciertos países, o lanza guerras de prevención (por si acaso) sobre otras naciones, es imperialismo también. Imperialismo por medio de la fuerza militar.

Preguntas similares