Respuestas
Respuesta dada por:
1
Las ciencias de la Tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales. Su principal exponente es la geología. Forman también parte de las ciencias planetarias, las que se ocupan del estudio de los planetas del sistema solar.
Preguntas similares
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años