que significa antropocentrismo​

Respuestas

Respuesta dada por: K00B4M
0

Respuesta:

El antropocentrismo es la doctrina que, en el plano de la epistemología, sitúa al ser humano como medida y centro de todas las cosas, y en el de la ética defiende que los intereses de los seres humanos son aquellos que deben recibir atención moral por encima de cualquier otra cosa. 

Preguntas similares