Respuestas
Respuesta dada por:
1
La conquista de estas tierras americanas por parte de los europeos. El dominio de la tierra y su gente por España. Fue lo que se conocio como el "pacto colonial". Significo el sometimiento de tierras, pueblos y culturas autoctonas al dominio del invasor.
Preguntas similares
hace 7 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años