Respuestas
Respuesta dada por:
1
Respuesta:
Colonialismo. Término que viene de su raíz colonia y ésta del latín coloniam. Es la doctrina que tiende a legitimar la dominación política y económica de un territorio o de una nación por el gobierno de un estado extranjero. Suele llamarse así al proceso iniciado en el siglo XV con la conquista, asentamiento y explotación, por parte de Europa, de territorios en América, Asia y África.
Preguntas similares
hace 3 años
hace 6 años
hace 6 años
hace 8 años