• Asignatura: Religión
  • Autor: dennimaraguilar974
  • hace 2 años

¿es cierto que el trabajo dignifica al hombre?

Respuestas

Respuesta dada por: samanthamarreroc
3

Respuesta:

La dignidad humana es un término tan amplio como fundamental. Dice el dicho que «El trabajo dignifica a la persona». En esta dignidad intrínseca de la que se habla en la Declaración de Derechos Humanos influyen un abanico de condicionantes que pueden aumentar su dimensión o por el contrario reducirla.

Preguntas similares