Respuestas
Respuesta dada por:
2
El trabajo es importante porque le enseña al hombre a ganarse las cosas y no robar, a obtener cosas como alimento, protección, le enseña a convivir y relacionarse con otras persona, obtener conocimientos nuevos y descubrir capacidades que desconocía que tenía.
Respuesta dada por:
0
yo tengo la respuesta con otra pregunta pero similar
¿porque se puede afirmar que el trabajo dignifica al hombre a partir de su autoestima?
porque el hombre se siente integrado a la sociedad, y a la vez el trabajo genera un imagen positiva y mejora la calidad de vida, para sentirse util
Preguntas similares
hace 6 años
hace 6 años
hace 9 años
hace 9 años