Que significa ¿Que es el trabajo desde la visión cristiana ?
Adjuntos:
marga123suarez:
me lo pueden decir ahora no hay corona sino
Respuestas
Respuesta dada por:
2
Respuesta:
el trabajo es una obligación, es decir, un deber del hombre El hombre debe trabajar, sea porque el Creador así lo ha ordenado, bien sea por el hecho de su propia humanidad, cuyo mantenimiento y de, sarrollo exigen el trabajo.
Preguntas similares
hace 2 años
hace 2 años
hace 2 años
hace 5 años
hace 5 años
hace 7 años