• Asignatura: Geografía
  • Autor: karenfranco6466
  • hace 3 años

que son los derechos del trabajo? definir con sus palabras

Respuestas

Respuesta dada por: leidyayovinazareno
0

Explicación:

el derecho el trabajo es un derecho fundamental del humano por el que todas las personas tienen derecho al trabajo

Preguntas similares