• Asignatura: Geografía
  • Autor: vikimilagros23
  • hace 5 años

definicion de ciencias que estudianla tierra

Respuestas

Respuesta dada por: constanza2912
0

Respuesta:

Las ciencias de la Tierra o geociencias son disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales. Su principal exponente es la geología.

Preguntas similares