Respuestas
Respuesta dada por:
3
Respuesta:
Las Ciencias de la Tierra son un conjunto de disciplinas cuyo objetivo es el estudio del Planeta Tierra, y su interacción con el universo, y la evolución de los seres vivos que habitan sobre él. ... Para estudiar este planeta se requiere de una visión integral y el empleo de los métodos de varias disciplinas.
Preguntas similares
hace 3 meses
hace 3 meses
hace 3 meses
hace 4 años
hace 4 años