• Asignatura: Geografía
  • Autor: sabinejossmargonzale
  • hace 8 meses

En qué país surgió la geografía?

Respuestas

Respuesta dada por: vedelidzerodriguez38
0

Respuesta:

En qué país surgió la geografía?

En su génesis institucional en el siglo XVIII en Alemania, Francia e Inglaterra, la geografía es una disciplina que se enseña y aprende en la universidad. Es una ciencia cuyo interés es la comprensión de la organización del espacio y la relación entre la política, la cultura y el territorio.

Explicación:

Holi espero que esto te sirva y que tengas un lindo día

Respuesta dada por: estebancarlos371
0

Respuesta:

Grecia

Explicación:

Básicamente, esta evolución se puede dividir en dos grandes periodos: un periodo premoderno que comenzaría en Grecia, y un periodo moderno a partir del siglo XIX donde se produce su institucionalización universitaria, lo que tuvo una influencia enorme en su desarrollo.

Preguntas similares