Respuestas
Respuesta dada por:
5
Respuesta:
El término apareció después de finalizar la Segunda Guerra Mundial para referirse al proceso social, impulsado por la Organización de las Naciones Unidas, de poner fin al colonialismo, mayoritariamente europeo, que dio lugar a la independencia nacional de varios continentes, principalmente en África y Asia.
Preguntas similares
hace 3 años
hace 3 años
hace 5 años
hace 7 años