• Asignatura: Geografía
  • Autor: sebas0936
  • hace 6 años

Definición ciencia que trata la descripción de la Tierra

Respuestas

Respuesta dada por: danielacp2007
1

Respuesta: Las ciencias de la Tierra o geociencias son disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. ... También forman parte de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del sistema solar.

Espero que te ayude :)

Preguntas similares