• Asignatura: Derecho
  • Autor: natalya1997
  • hace 8 años

Que es el derecho positivo?

Respuestas

Respuesta dada por: Nayelisot
5

Respuesta:

El derecho positivo es el conjunto de normas jurídicas escritas por una soberanía (por el órgano estatal que ejerza la función legislativa).

Explicación:

El derecho positivo puede ser de aplicación vigente o no vigente, dependiendo si la norma rige para una población determinada, o la norma ya ha sido derogada por la promulgación de una posterior.

No solo se considera derecho positivo a la ley, sino además a toda norma jurídica que se encuentre escrita (decretos, acuerdos, reglamentos, etc.).

En otras palabras el derecho positivo es el derecho que está escrito. A diferencia del derecho natural (inherente al ser humano) y del consuetudinario (dictado por la costumbre), el derecho positivo es impuesto colectivamente a favor de normar la convivencia de las personas, sancionado por las instituciones del Estado conforme a lo establecido en un código común —un cuerpo de leyes escritas— que, a su vez, pueden ser cambiadas por consenso. Se trata de leyes fundamentadas en un pacto jurídico y social.

Preguntas similares