• Asignatura: Historia
  • Autor: agustinitavelascokaw
  • hace 6 años

explica con tus palabras lo que significa derecho natural

Respuestas

Respuesta dada por: 20182021adamarisalva
2

Respuesta:El derecho natural es una doctrina ética y jurídica que postula la existencia de derechos fundamentados o determinados en la naturaleza humana. Propugna la existencia de un conjunto de derechos universales, anteriores, superiores e independientes al derecho escrito, al derecho positivo y al derecho consuetudinario.

Explicación:

Preguntas similares