Respuestas
Respuesta dada por:
2
Respuesta:
Las ciencias de la Tierra son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra.
Las ciencia de la vida comprenden todos los campos de la ciencia que estudian los seres vivos, como las plantas, animales y seres humanos.
Preguntas similares
hace 5 años
hace 5 años
hace 5 años
hace 8 años
hace 8 años
hace 8 años
hace 9 años
hace 9 años