con la llegada de los españoles a América los indigenas pasaron de ser dueños y señores de los territorios a ser
Respuestas
Respuesta dada por:
0
Respuesta:
falso, cuando los españoles llegaron a america colonizaron todo
Preguntas similares
hace 3 años
hace 6 años
hace 6 años
hace 6 años
hace 8 años
hace 8 años