• Asignatura: Derecho
  • Autor: rodangles
  • hace 1 año

cual es la definición de derecho positivo

Respuestas

Respuesta dada por: federicosaid2002
1

El derecho positivo es el conjunto de normas jurídicas escritas por una soberanía. El derecho positivo puede ser de aplicación vigente o no vigente, dependiendo si la norma rige para una población determinada, o la norma ya ha sido derogada por la promulgación de una posterior

Preguntas similares