• Asignatura: Biología
  • Autor: angiteamo21
  • hace 5 años

Definición de ciencias de la tierra según varios autores.
Lo necesito urgente ​


Anónimo: Donde vivimos
Anónimo: Y nos reprudicimos
Anónimo: xd

Respuestas

Respuesta dada por: idkValenzuela
0

Respuesta:

Las ciencias de la Tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Constituyen un caso particular de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del Sistema Solar.

Explicación:


Anónimo: Es sacado del internet
Anónimo: xd
Anónimo: parazo investiga
Anónimo: xd
Preguntas similares