• Asignatura: Historia
  • Autor: lgeremias88
  • hace 2 años

¿que derechos se reconocieron a fines del
siglo xx?​

Respuestas

Respuesta dada por: FabianMalaver
2

Respuesta:

derechos humanos, el siglo XX es el de la consolidación de los derechos económicos y sociales. El derecho al trabajo, a sus frutos, y a la seguridad social pasan a ser las nuevas exigencias y se reclama su protección.

Preguntas similares