Respuestas
Respuesta dada por:
1
Respuesta:
El término "descolonización" apareció luego de finalizada la segunda guerra mundial para referirse al proceso político impulsado por las Naciones Unidas de poner fin al colonialismo, mayoritariamente europeo, que dio lugar a la independencia nacional de varios países, principalmente en África y Asia.
Explicación:
Preguntas similares
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años