• Asignatura: Geografía
  • Autor: angeldelarosa8881
  • hace 1 año

Cuál es la ciencia que se encarga de dar la Tierra​

Respuestas

Respuesta dada por: StepThay
0

Respuesta:

Las ciencias de la Tierra o geociencias son un conjunto de disciplinas cuyo objeto es el estudio del Planeta Tierra, su interacción con el universo, y la evolución de los seres vivos que habitan en él.

Preguntas similares