Respuestas
Respuesta dada por:
6
La Colonización de las tierras que, desde su dominio europeo pasaron a llamarse América, siempre se ha relatado como un suceso histórico protagonizado por Cristóbal Colón y sus tropas, pero jamás se habla del rol de las mujeres y la relación que tuvieron en torno a este tema.
Según datos del portal Vanguardia, las mujeres sí tuvieron un papel fundamental en la colonización, tanto las que vinieron de España como las nativas.
Esta afirmación fue realizada a través de un estudio realizado en Panamá, en el que se buscó dar un nuevo enfoque a la historia, que siempre se ha relatado abordando las experiencias e incidencias de los expedicionarios y los conquistadores del sexo masculino.
Preguntas similares
hace 6 años
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años