• Asignatura: Geografía
  • Autor: vramiro22
  • hace 3 años

Que surgen los Estados-Nacíon​

Respuestas

Respuesta dada por: luna863937
1

Respuesta:

El Estado nación surge, mediante el tratado de Westfalia, al final de la guerra de los Treinta Años (1648). Mediante este tratado se acaba con el antiguo orden feudal y se da paso a organizaciones territoriales definidas en torno a un gobierno que reconoce sus límites y su poder.

Explicación:

espero que te sirva

Preguntas similares