• Asignatura: Filosofía
  • Autor: mariliferreira1987
  • hace 3 años

que significa la naturaleza dominaba al hombre?​

Respuestas

Respuesta dada por: amiamuespi
0

Respuesta:

que esta tenia mas libertad en cuanto a los animales y lugares pero ahora el hombre lo esta exterminando

Preguntas similares