• Asignatura: Derecho
  • Autor: zack887
  • hace 6 años

Explique que es el derecho natural y positivo​

Respuestas

Respuesta dada por: karollcorazon15
2

Respuesta:

El Derecho natural, son un conjunto de valores o principios que se encuentran en la naturaleza y conciencia del hombre. Por su parte, el Derecho positivo, son normas dictadas por el Estado con el objetivo de regular la conducta del hombre en sociedad. El Derecho natural es universal y eterno

espero te sirva :)


zack887: Muchisimas gracias, :"3
karollcorazon15: De nada :)
Preguntas similares