Respuestas
Respuesta dada por:
0
Qué significa derecho laboral?
El derecho laboral, derecho del trabajo o derecho social es una rama del derecho cuyos principios y normas jurídicas tienen por objeto la tutela del trabajo humano realizado en forma libre, por cuenta ajena, en relación de dependencia y a cambio de una contraprestación.
Preguntas similares
hace 4 años
hace 4 años
hace 4 años
hace 7 años
hace 7 años
hace 7 años
hace 8 años
hace 8 años