• Asignatura: Historia
  • Autor: ramirez2420
  • hace 5 años

cuáles son los reinos que colonizaron América ​

Respuestas

Respuesta dada por: romerodhyanna
2

Respuesta:

El Imperio español, el Imperio portugués, y desde comienzos del siglo XVII el Imperio británico (1608), Francia (1609) y los Países Bajos (1625), conquistaron y colonizaron una gran parte del territorio americano.

Preguntas similares