Respuestas
Respuesta dada por:
1
El término apareció después de finalizar la Segunda Guerra Mundial para referirse al proceso social, impulsado por la Organización de las Naciones Unidas, de poner fin al colonialism
o, mayoritariamente europeo, que dio lugar a la independencia nacional de varios continentes, principalmente en África y Asia.
Más recientemente, el término "Descolonización" ha sido usado para referirse a una postura y una operación cultural, tendiente a revelar y revertir situaciones institucionales, culturales y epistemológicas afectadas por el Eurocentrismo y otros mecanismos de subordinación y poder. Este significado está impulsado por las corrientes llamadas poscoloniales y decoloniale
espero que te sirva corona porfa
jomayradelgado44:
grazias
Preguntas similares
hace 4 años
hace 4 años
hace 6 años
hace 6 años