• Asignatura: Derecho
  • Autor: samuelito55
  • hace 5 años

Que son los derechos positivos


fantamon0102: supongo son derechos q se le otorga a una persona que son positvos osea buenoa creo nose.......

Respuestas

Respuesta dada por: Anónimo
0

Respuesta:

. ¿Qué son los derechos positivos? R= El derecho positivo es el conjunto de normas jurídicas escritas por una soberanía.

El derecho positivo puede ser de aplicación vigente o no vigente, dependiendo si la norma rige para una población determinada, o la norma ya ha sido derogada por la promulgación de una posterior.

Saludos!!!

Preguntas similares