• Asignatura: Geografía
  • Autor: carlitanunez1988
  • hace 7 años

deme una definición de derecho positivo​

Respuestas

Respuesta dada por: Preguntator000
0

El derecho positivo es aquel grupo de normas o leyes jurídicas escritas que se hallan vigentes en un Estado dispuestas por sus órganos competentes; es decir se habla de una agrupación de leyes elementales pronunciadas por una administración para que cumplan un determinado fin, que deben estar carentes de los valores

Adjuntos:
Preguntas similares