• Asignatura: Derecho
  • Autor: tonygn99
  • hace 5 años

Concepto de hacer en derecho laboral

Respuestas

Respuesta dada por: sahiravargas999
0

Qué significa derecho laboral?

El derecho laboral, derecho del trabajo o derecho social es una rama del derecho cuyos principios y normas jurídicas tienen por objeto la tutela del trabajo humano realizado en forma libre, por cuenta ajena, en relación de dependencia y a cambio de una contraprestación.

Preguntas similares