• Asignatura: Geografía
  • Autor: NoheTareasDificiles
  • hace 9 años

Definir Ciencia de la Tierra

Respuestas

Respuesta dada por: deborahvilla
5
las ciencias de la tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología evolucion y dinamica del planeta tierra
Preguntas similares