Respuestas
Respuesta dada por:
19
Término que viene de su raíz colonia y ésta del latín coloniam. Es la doctrina que tiende a legitimar la dominación política y económica de un territorio o de una nación por el gobierno de un estado extranjero. Suele llamarse así al proceso iniciado en el siglo XV con la conquista, asentamiento y explotación, por parte de Europa, de territorios en América, Oriente y África.España, Portugal, Inglaterra, Francia y los Países Bajos comenzaron las actividades coloniales. Desde 1880 y hasta principios del siglo XX, la búsqueda de nuevos mercados y materias primas provocó el resurgimiento del colonialismo con la repartición de África entre las grandes potencias europeas, sobre todo Inglaterra y Francia.
Respuesta dada por:
21
El colonialismo es el dominio territorial, económico y cultural establecido durante largo tiempo sobre un pueblo extranjero que se ve sometido al país dominante.
Aunque este término existe desde la época de la Antigua Grecia, hay variantes en su significado, pues en el caso de las antiguas colonias griegas o en el de América se usaba más bien la palabra “colonización” en vez de colonialismo, ya que en estos casos los territorios colonizados no estaban subordinados a la metrópoli, y a todos los habitantes de estos primeros se les consideraba como otros ciudadanos más de la potencia europea.
espero q te sirva
Aunque este término existe desde la época de la Antigua Grecia, hay variantes en su significado, pues en el caso de las antiguas colonias griegas o en el de América se usaba más bien la palabra “colonización” en vez de colonialismo, ya que en estos casos los territorios colonizados no estaban subordinados a la metrópoli, y a todos los habitantes de estos primeros se les consideraba como otros ciudadanos más de la potencia europea.
espero q te sirva
Preguntas similares
hace 7 años
hace 7 años
hace 7 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años