Respuestas
Respuesta dada por:
0
Las ciencias de la Tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales. Su principal exponente es la geología
Preguntas similares
hace 5 años
hace 5 años
hace 5 años
hace 8 años
hace 8 años
hace 8 años
hace 9 años
hace 9 años