Respuestas
Respuesta dada por:
0
El colonialismo es una doctrina política a través de la cual un país intenta dominar a otro, generalmente por la fuerza. La colonización europea de América comenzó con la llegada de Cristóbal Colón al continente, que implicó la conquista de los territorios donde vivían los aborígenes y la explotación de éstos
Preguntas similares
hace 6 años
hace 9 años
hace 9 años
hace 9 años