Cuál es la importancia del agua para el planeta Tierra​

Respuestas

Respuesta dada por: macarenallamuca
2

Respuesta:

El agua es el elemento más importante para la vida. Es de una importancia vital para el ser humano, así como para el resto de animales y seres vivos que nos acompañan en el planeta Tierra. Resulta curioso que el 70 por ciento de la Tierra sea agua y que el 70 por ciento de nuestro cuerpo también sea agua.

Explicación:

Espero te ayude con la pregunta Dios te bendiga mucho

Preguntas similares