• Asignatura: Religión
  • Autor: candebrizuela14
  • hace 6 años

que significa que Dios le haya dado poder al hombre de dominar a la tierra??​

Respuestas

Respuesta dada por: karen178957
2

Respuesta:

Dios le dio al hombre el poder de dominar la tierra para que a través de eso el ordenara y gobernara las naciones y los pueblos

Explicación:

espero te ayude

Preguntas similares