• Asignatura: Biología
  • Autor: alexamendoz164
  • hace 8 años

para ti que significa ciencias de la tierra?​

Respuestas

Respuesta dada por: isa6688
1

Respuesta:

disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales.

Preguntas similares