• Asignatura: Historia
  • Autor: NicolleSanttos9692
  • hace 9 años

Que significado tiene el termino imperialismo?

Respuestas

Respuesta dada por: len12869
8
Concretamente significa extender o imponer a otros. Dominar otras tierras usando el poder militar o económico. Se ha llevado en practica por las principales potencias del mundo, como Inglaterra (más que nada), Alemania, España, Francia y el más reciente caso de los Estados Unidos. El imperialismo comenzó con colonias, con extensión de territorios, de imponer religiones e ideas propias, más tarde el imperialismo cambió de mañas, porque dejó de conquistar y anexarse tierras a su territorio, y empezó a manipular por medio de la economía, más que nada es así cómo se nos presenta el imperialismo hoy en día.
Preguntas similares