• Asignatura: Historia
  • Autor: andrea404
  • hace 9 años

que significa imperialismo norteamericano

Respuestas

Respuesta dada por: luuzlupi
1
referencia a una sociedad que abarca ciertas partes del mundo y que acatan unas leyes. Cuando hablamos de imperialismo, hablamos de la acción de imponer o sugerir, de manera más educada, un tipo de sociedad, en ciertas partes del mundo
Preguntas similares