Respuestas
Respuesta dada por:
0
Respuesta:
Las ciencias de la Tierra o geociencias son disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales. Su principal exponente es la geología.[1] También forman parte de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del sistema solar.
Preguntas similares
hace 4 años
hace 7 años
hace 7 años
hace 7 años
hace 8 años
hace 8 años