• Asignatura: Geografía
  • Autor: facgar10p6sgtw
  • hace 3 años

que significa la palabra geografía como ciencia social?​

Respuestas

Respuesta dada por: robersoncollate17
3

Respuesta:

La geografía es la disciplina que trata de la descripción o de la representación gráfica de la Tierra.​​ En sentido amplio es la ciencia que estudia la superficie terrestre, las sociedades que la habitan y los territorios, paisajes, lugares o regiones que la forman al relacionarse entre sí.​

Explicación:

gracias xd

Respuesta dada por: emilydulce1427
0

Respuesta:

que estudia y describe la tierra y señala las características y la localización de los sistemas que aparecen en su superficie.

Preguntas similares