que importancia tienen las definiciones del estudio de la tierra​

Respuestas

Respuesta dada por: pepito2345xdja
2

Respuesta:

Tienen una importancia demasiada interesante y muy definitiva, Acá te dejo un resumen lo que definen de el estudio de la tierra.

-El estudio de la Tierra son un conjunto de disciplinas cuyo objeto es el estudio del Planeta Tierra, y la evolución de los seres vivos que habitan en él. Las ciencias de la Tierra, constituyen una herramienta para planificar una explotación racional de los recursos naturales,​ comprender las causas que originan los fenómenos naturales que afectan al ser humano y cómo este influye en la naturaleza con sus acciones.

Explicación:

espero haberte ayudado :'3

Adjuntos:
Respuesta dada por: gyan3115
1

Respuesta: importancia de Ciencias de la Tierra

Las ciencias de la Tierra​ constituyen una herramienta para planificar una explotación racional de los recursos naturales,​ comprender las causas que originan los fenómenos naturales que afectan al ser humano y cómo este influye en la naturaleza con sus acciones.

espero te sirva

Preguntas similares