• Asignatura: Geografía
  • Autor: gonzalezdarwim599
  • hace 3 años

cuando se termina el colonialismo​

Respuestas

Respuesta dada por: jennyrecalde584
0

Respuesta:

El término apareció después de finalizar la Segunda Guerra Mundial para referirse al proceso social, impulsado por la Organización de las Naciones Unidas, de poner fin al colonialismo, mayoritariamente europeo, que dio lugar a la independencia nacional de varios continentes, principalmente en África y Asia.

Explicación:

Respuesta dada por: shande44
0

Explicación:

Este mundo colonial se vino al suelo luego de la Segunda Guerra Mundial. En los quince años que corren entre 1945 y 1960, el año de la descolonización en el mundo, en que se celebra el fin de esta etapa histórica, las potencias europeas tuvieron que liquidar casi por completo sus imperios coloniales.

Preguntas similares