Respuestas
Respuesta:
Los derechos sociales son aquellos derechos que facilitan a los ciudadanos o habitantes de un país a desarrollarse en autonomía, igualdad y libertad así como aquellos derechos que les permiten unas condiciones económicas y de acceso a bienes necesarios para una vida digna.12
Los derechos sociales, desde el punto de vista del contrato social, en contraste con los derechos naturales, son aquellos que son considerados derechos legales reconocidos por el derecho positivo.3
Los derechos sociales, son una parte de los derechos económicos, sociales y culturales y parte de los derechos humanos, aparecen en el Pacto Internacional de Derechos Económicos, Sociales y Culturales (PIDESC) aprobado en 1966 y que entró en vigor en 1976 y de forma más genérica en la Declaración Universal de los Derechos Humanos de 1948.4
Explicación: