Respuestas
Respuesta dada por:
1
Respuesta:
Las plantaciones son un aspecto importante de la historia de la América de Estados Unidos, sobre todo en el período anterior a la Guerra Civil. ...
Los plantadores más ricos, tales como la élite de Virginia con plantaciones cerca del río James, poseían más tierras y esclavos que otros agricultores.
Explicación:
Preguntas similares
hace 6 años
hace 6 años
hace 8 años
hace 8 años
hace 9 años
hace 9 años