• Asignatura: Geografía
  • Autor: angelsubirajoshua
  • hace 1 año

2. Que nos enseñan los libro de geografia?​

Respuestas

Respuesta dada por: danilozambranop7r03v
2

Explicación:

Los libros de geografía cuyo objetivo primordial es la explicación de toda una serie de fenómenos naturales y sociales y no se refiere solo a la localización de esos fenómenos, sino que también estudia cómo son y cómo han cambiado para llegar a ser lo que son.

Respuesta dada por: solunquen
0

jajajaja la geografia ahh

Preguntas similares