definicion de derechos sociales ​

Respuestas

Respuesta dada por: francoherrera366
8

Respuesta:

El derecho social es aquella especialidad de derecho que se basa en una serie de principios y normas que tienen por objeto proteger, velar, integrar y pautar el comportamiento y las actitudes de los individuos que viven de su trabajo y a aquellos que se les puede describir como económicamente débiles.

Preguntas similares