• Asignatura: Historia
  • Autor: richard359912
  • hace 3 años

los europeos que conquistaron América que derechos tenian​

Respuestas

Respuesta dada por: jgutierrezcoyla
3

Respuesta:

A partir de ahí, el Imperio español, el Imperio portugués, y desde comienzos del siglo XVII el Imperio británico (1608), Francia (1609) y los Países Bajos (1625), conquistaron y colonizaron una gran parte del territorio americano.

Explicación:

espero te sirva no olviden seguirme y denme coronita plis

Preguntas similares