• Asignatura: Derecho
  • Autor: lucasesmoris
  • hace 3 años

Defina derecho natural y positivo

Respuestas

Respuesta dada por: paradavasquezerick
4

Respuesta:

Explicación:

El Derecho natural, son un conjunto de valores o principios que se encuentran en la naturaleza y conciencia del hombre. Por su parte, el Derecho positivo, son normas dictadas por el Estado con el objetivo de regular la conducta del hombre en sociedad.

Preguntas similares