Respuestas
Respuesta dada por:
8
Concretamente significa extender o imponer a otros. Dominar otras tierras usando el poder militar o económico. Se ha llevado en practica por las principales potencias del mundo, como Inglaterra (más que nada), Alemania, España, Francia y el más reciente caso de los Estados Unidos. El imperialismo comenzó con colonias, con extensión de territorios, de imponer religiones e ideas propias, más tarde el imperialismo cambió de mañas, porque dejó de conquistar y anexarse tierras a su territorio, y empezó a manipular por medio de la economía, más que nada es así cómo se nos presenta el imperialismo hoy en día.
Preguntas similares
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años