• Asignatura: Derecho
  • Autor: negro12rebora
  • hace 3 años

con respecto a los derechos de los trabajadores​

Respuestas

Respuesta dada por: nicoleargencio
0

Respuesta:

- El trabajo es un derecho y un deber social. Gozará de la protección del Estado, el que asegurará al trabajador el respeto a su dignidad, una existencia decorosa y una remuneración justa que cubra sus necesidades y las de su familia.

Explicación:

Espero que te sirva

Preguntas similares