Respuestas
Respuesta dada por:
0
Respuesta:
el derecho positivo es el conjunto de normas jurídicas dictadas por una autoridad competente que tiene la finalidad de establecer el bien común.
Explicación:
espero te ayude :)
Preguntas similares
hace 4 años
hace 7 años
hace 7 años
hace 7 años