• Asignatura: Derecho
  • Autor: xiadyov
  • hace 9 años

que es el derecho positivo y el derecho Natural

Respuestas

Respuesta dada por: familiasuarez
43
derecho positivo: son normas juridicas dictado por el estado para regular la relacion de los hombres en sociedad.
derecho natural: son valores o principios que ese encuentran en la conciencia de los hombres y en la naturaleza.
espero te sirva..

Respuesta dada por: jochijo03
3

Respuesta:

es el conjunto e leyes, normas, reglamentos y resoluciones impuestas por el estado de cumplimento obligatorio

Explicación:

Preguntas similares