• Asignatura: Derecho
  • Autor: celesteabfernandez23
  • hace 2 años

que entiendes por derecho positivo? dar su definicion​

Respuestas

Respuesta dada por: karinamariduena9
0

Explicación:

El derecho positivo es el conjunto de normas jurídicas escritas por una soberanía (por el órgano estatal que ejerza la función legislativa).

El derecho positivo puede ser de aplicación vigente o no vigente, dependiendo si la norma rige para una población determinada, o la norma ya ha sido derogada por la promulgación de una posterior.

No solo se considera derecho positivo a la ley, sino además a toda norma jurídica que se encuentre escrita (decretos, acuerdos, reglamentos, etc.).

Preguntas similares