Qué significan derecho natural , y derecho positivo?

Respuestas

Respuesta dada por: nayibegutierrezjambo
2

Respuesta:

El derecho natural, en vista de que es dado por la naturaleza y de acuerdo con la naturaleza racional del hombre, es el único justo, por lo que el hombre, al legislar y crear el derecho positivo, debe acatar sus mandatos.

Preguntas similares