Respuestas
Respuesta dada por:
1
Las ciencias de la Tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Forman también parte de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del Sistema Solar.
Preguntas similares
hace 7 años
hace 10 años
hace 10 años
hace 10 años
hace 10 años
hace 10 años