Respuestas
Respuesta dada por:
2
Respuesta:
El derecho laboral, también conocido como derecho del trabajo, es el conjunto de normas jurídicas que se establecen entre el trabajador y el empleador.
Esta rama entiende al trabajo como aquella actividad que un individuo desarrolla para generar modificaciones en el entorno a cambio de bienes económicos que le permitan subsistir.
Tiene como premisa asegurarle a quien trabaja un pleno crecimiento e integración real a la sociedad. Mientras se garantiza el cumplimiento de las obligaciones de ambas partes.
Explicación:
espero haberte ayudado:)
Preguntas similares
hace 4 años
hace 4 años
hace 4 años
hace 6 años