• Asignatura: Castellano
  • Autor: laurapinzon58
  • hace 3 años

los cambios que se dieron en la República de Colombia en su territorio para llegar hasta la actualidad??☺️​

Respuestas

Respuesta dada por: pilarstiglitiz125
0

Respuesta:

Aquí tienes☺

Colombia fue una época de grandes cambios: se pasó de ser una dependencia del Imperio español en sus inicios, a las guerras de independencia y a los experimentos políticos para dar forma a una nación independiente. Tras el levantamiento del Común en 1781 la Expedición Botánica iniciada en 1783 y, la publicación de la Declaración de los derechos del hombre y del ciudadano hecha por Antonio Nariño en 1793, el movimiento independentista se manifestó concretamente el 15 de julio de 1810, cuando los habitantes de Santa fé depusieron al virrey y liquidaron la Real

Preguntas similares