Respuestas
Respuesta dada por:
0
Respuesta:
Las ciencias de la Tierra o geociencias son un conjunto de disciplinas cuyo objeto es el estudio del Planeta Tierra, su interacción con el universo, y la evolución de los seres vivos que habitan en él.
Preguntas similares
hace 1 año
hace 1 año
hace 4 años
hace 4 años
hace 7 años