• Asignatura: Geografía
  • Autor: dhaylin02
  • hace 9 años

quienes vienen a colonizar américa del norte

Respuestas

Respuesta dada por: PerfectMoonlight
3
Los que vinieron a colonizar américa del norte fueron los ingleses... En 1583 la Reina Isabel I de Inglaterra otorga una autorización al pirata Sir Walter Raleigh para fundar una colonia al Norte de Florida, a la que llamaría Virginia y que abarcaría Carolina del Sur,Carolina del Norte, Virginia, Virginia Occidental y Maine. (EE.UU)
Preguntas similares