• Asignatura: Historia
  • Autor: montserrat130907
  • hace 3 años

el antropocentrismo que significa?​

Respuestas

Respuesta dada por: losteletubbies200037
5

Respuesta:

El antropocentrismo es la doctrina que, en el plano de la epistemología, sitúa al ser humano como medida y centro de todas las cosas, y en el de la ética defiende que los intereses de los seres humanos son aquellos que deben recibir atención moral por encima de cualquier otra cosa

Respuesta dada por: naaiaraof
4
El antropocentrismo es una nueva manera de pensar que se aplica en el renacimiento. En la Edad Media la sociedad era teocentrista, es decir, todo lo que ocurría era porque Dios lo había querido, Dios era el centro del universo. Pero en el renacimiento se produce un cambio de mentalidad, el antropocentrismo, que significa que el hombre se convierte en el centro del universo

Espero que ayudase :)
Preguntas similares