• Asignatura: Historia
  • Autor: hatzirigarcia
  • hace 4 años

¿Estados unidos era un país imperialista antes de empezar la primera guerra mundial?

Respuestas

Respuesta dada por: pilisabela0217
1

Respuesta:

El concepto ‘imperialismo estadounidense’ es aceptado por la mayor parte de la comunidad internacional, tanto por políticos como por historiadores. Es un hecho incuestionable que Estados Unidos ha tenido un comportamiento imperialista desde el inicio de su formación como país, y especialmente a lo largo del S.XX.

Se puede definir imperialismo como la «actitud y doctrina de quienes propugnan o practican la extensión del dominio de un país sobre otro u otros por medio de la fuerza militar, económica o política.» (fuente: RAE). Así pues, cuando Estados Unidos interviene en Afganistán o en Iraq es una forma de imperialismo, o cuando apoya dictaduras militares en ciertos países, o lanza guerras de prevención (por si acaso) sobre otras naciones, es imperialismo también. Imperialismo por medio de la fuerza militar.

Explicación: espero te ayude

Preguntas similares