• Asignatura: Derecho
  • Autor: anabellajimenezmen
  • hace 7 años

Qué significa la palabra derecho?

Respuestas

Respuesta dada por: elintocable69
0

Respuesta:El Derecho es el conjunto de normas que imponen deberes y normas que confieren facultades, que establecen las bases de convivencia social y cuyo fin es dotar a todos los miembros de la sociedad de los mínimos de seguridad, certeza, igualdad, libertad y justicia”2.

Explicación: hay esta

Preguntas similares