• Asignatura: Psicología
  • Autor: nenissssssss
  • hace 4 años

que es el Biocentrismo

Respuestas

Respuesta dada por: alejandra5621
4

El biocentrismo es un término aparecido en los años 1970 para designar a una teoría moral que afirma que todo ser vivo merece respeto moral. Asociado en sus orígenes con la ecología profunda o ecologismo radical, el biocentrismo pretende reivindicar el valor primordial de la vida

Respuesta dada por: yesidmaderahernandez
0

Explicación:

el biocentrismo es un término aparecido de los años 1970

Preguntas similares