Respuestas
Respuesta dada por:
2
Respuesta:
Los derechos sociales son aquellos que están alineados con la infinita dignidad del ser humano. Es decir, defienden la importancia de la integración personal a través de objetivos importantes como el acceso al mercado laboral, el derecho a la sanidad o a la educación
Explicación:
Preguntas similares
hace 3 años
hace 3 años
hace 6 años
hace 6 años
hace 6 años