Respuestas
Respuesta dada por:
4
El biocentrismo es un término aparecido en los años 1970 para designar a una teoría moral que afirma que todo ser vivo merece respeto moral. Asociado en sus orígenes con la ecología profunda o ecologismo radical, el biocentrismo pretende reivindicar el valor primordial de la vida
Respuesta dada por:
0
Explicación:
el biocentrismo es un término aparecido de los años 1970
Preguntas similares
hace 3 años
hace 3 años
hace 6 años