Respuestas
Respuesta dada por:
0
Las ciencias de la Tierra son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su principal exponente es la geología. Forman también parte de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del Sistema Solar.
MariiiNaza:
?́ ESE NO ES EL CONCEPTO DE FENOMENOS
Preguntas similares
hace 6 años
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años