Respuestas
Respuesta dada por:
0
Respuesta:
Las ciencias de la Tierra o geociencias son un conjunto de disciplinas cuyo objeto es el estudio del Planeta Tierra, su interacción con el universo, y la evolución de los seres vivos que habitan en él
Preguntas similares
hace 2 años
hace 5 años
hace 5 años