• Asignatura: Geografía
  • Autor: vikimilagros23
  • hace 5 años

definicion de ciencias que estudianla tierra

Respuestas

Respuesta dada por: ARMYxSTAY78
2

Respuesta:

Las ciencias de la Tierra o geociencias son disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. ... También forman parte de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del sistema solar.

Explicación:

:Dsaluditos♡


vikimilagros23: estoy confundida con ese concepto que hasta donde se es referente a las ciencias de la tierra, con el concepto de ciencias que estudian la tierra
Respuesta dada por: Bioleta15
0

Respuesta:

Ela ciencia de la Tierra o Tambien se le dice Geociencias.

Explicación:

Espero que te sirva dame puntos corona porfis!

Preguntas similares