Respuestas
Respuesta dada por:
8
El positivismo es una teoría filosófica que considera como único medio de conocimiento la experiencia bien sea comprobada o verificada a través de los sentidos. El positivismos influye de manera directa en cuanto a la vida social por el hecho de que este considera que en la vida social hay una armonía total y esta regida por leyes naturales que son independientes a la voluntad humana, con el fin de que todo lo que se aprende a través de las experiencias se convierta en conocimiento.
Preguntas similares
hace 6 años
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años