• Asignatura: Geografía
  • Autor: Analyluna1992
  • hace 1 año

Que quiere decir la geografía​

Respuestas

Respuesta dada por: ezequielalfaro031
0

Respuesta:

La geografía es la ciencia que estudia las relaciones entre la sociedad y el espacio, pero a diferencia de otras disciplinas, la geografía parte de una visión integral desde diferentes campos, empezando por la enseñanza, en donde se requiere dar interpretaciones globales sobre el mundo, hasta la ordenación

Preguntas similares