Respuestas
Respuesta dada por:
1
Respuesta:
el derecho positivo es el derecho que está escrito. A diferencia del derecho natural (inherente al ser humano) y dictado por la costumbre, el derecho positivo es impuesto colectivamente a favor de normar la convivencia de las personas, sancionado por el Estado
Explicación:
Preguntas similares
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años