Respuestas
Respuesta dada por:
8
han evolucionado como cualquier cosa, es decir, ahora existen mas leyes apoyando al trabajador y las mujeres tambien se estan intergrando al mundo lavoral. antes el trabajo era mal visto en la sociedad y fue evolucionado hasta que era necesario para la sociedad
jbhclove1542:
gracias bb
Preguntas similares
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años