• Asignatura: Geografía
  • Autor: vikimilagros23
  • hace 6 años

cuales son los objetivos de las ciencias que estudian la tierra

Respuestas

Respuesta dada por: constanza2912
0

Respuesta:

Las Ciencias de la Tierra son un conjunto de disciplinas cuyo objetivo es el estudio del Planeta Tierra, y su interacción con el universo, y la evolución de los seres vivos que habitan sobre él.

Preguntas similares