Respuestas
Respuesta dada por:
0
Respuesta:
Las Ciencias de la Tierra son un conjunto de disciplinas cuyo objetivo es el estudio del Planeta Tierra, y su interacción con el universo, y la evolución de los seres vivos que habitan sobre él.
Preguntas similares
hace 4 años
hace 4 años
hace 4 años
hace 8 años