¿Qué es el trabajo en el derecho?

Respuestas

Respuesta dada por: tbermudezgomez28
2

También es conocido como Derecho del trabajo , derecho social o derecho laboral, El mismo se define como una rama del derecho en la cual las normas y los principios jurídicos se centralizan en el ámbito de la labor de cada persona en forma libre, o por cualquier otro motivo legal.

Este conjunto de normas garantizan que la relación de trabajo sea lo mas afectivo y como para el trabajador y empleador.

Preguntas similares