Respuestas
Respuesta dada por:
1
Respuesta:
El trabajo es un derecho y un deber social
El que asegurara al trabajador el respeto a su dignidad, una existencia decorosa y una remuneración justa que cubra sus necesidades y las de su familia
Espero que te sirva :)
Preguntas similares
hace 2 años
hace 4 años
hace 4 años
hace 7 años
hace 7 años