que entienden por antropocentrismo

Respuestas

Respuesta dada por: miamaque
2

El antropocentrismo es la doctrina que, en el plano de la epistemología, sitúa al ser humano como medida y centro de todas las cosas, y en el de la ética defiende que los intereses de los seres humanos son aquellos que deben recibir atención moral por encima de cualquier otra cosa.

Preguntas similares