• Asignatura: Derecho
  • Autor: Rochalucas6376
  • hace 8 años

elabora una breve definición de lo que comprendiste que son los derechos civiles

Respuestas

Respuesta dada por: lainteligentenovata
12

Respuesta:

El Derecho Civil es una rama del Derecho en general, como conjunto de normas jurídicas, que trata de las relaciones entre civiles o particulares, sin intervención del Estado como persona de Derecho Público, ya que el Derecho Civil integra el llamado Derecho Privado.

Explicación:

Los derechos civiles son los reconocidos por todos los ciudadanos por la ley; y en ello se distinguen de los derechos humanos y de los derechos naturales. Los derechos civiles son concedidos dentro de un Estado, mientras que los derechos naturales o los derechos humanos son internacionales, y, se tienen, o bien por el mero hecho de nacer, según la teoría iusnaturalista, o bien por la mera constitución de la sociedad, según la teoría contractualista (el iuspositivismo, que separa moral y derecho, no se plantea la existencia de derechos naturales). John Locke sostuvo que los derechos naturales a la vida, la libertad y la propiedad debían ser convertidos en derechos civiles y protegerse por el Estado soberano como aspecto del contrato social (derechos constitucionales).

Preguntas similares