• Asignatura: Filosofía
  • Autor: alejandradelatorre20
  • hace 8 años

crees que es necesario reconocer los derechos de la naturaleza para formar una nueva sociedad?

Respuestas

Respuesta dada por: audrey93
2

Respuesta:

si

Explicación:

cada vez hay un mayor reconocimiento jurídico de que la naturaleza tiene derechos, y afirmarlos es esencial tanto para un ambiente sano

Preguntas similares