Respuestas
Respuesta dada por:
403
Un contrato social es un acuerdo que realizan los hombres y mujeres para organizarse y vivir en sociedad. Rousseau (pensador frances siglo XVIII) hablaba que antes el hombre vivia en estado de "naturaleza". Y luego se organizo por medio de un acuerdo o pacto, que es este contrato social.
nigel96:
gracias
Preguntas similares
hace 7 años
hace 7 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años