Respuestas
Respuesta dada por:
9
Al momento de llegar los colonos a América, los cambios fueron bastante drásticos, éstos tomaron el control de las tierras, declararon a los indígenas hombres libres, sin embargo estos no tenían derecho de ejercer papeles notables dentro de la sociedad, quedando mas bien aislados, los Colonos iniciaron el proceso de explotación y comercialización de los productos de las tierras, e instalaron ciudades coloniales en los territorios.
Preguntas similares
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años