Por mucho tiempo se acuso a la iglesia de ser complice de los poderes dominantes, por la posicion que tomaba frente a los conflictos sociales.¿ Crees que su papel e imagen han cambiado dentro de la sociedad?

Respuestas

Respuesta dada por: jenniferzpt91
7
pues no pues la iglesia sigue apoyando a los gobiernos, pues ellos tambien salen beneficiados del gobierno 
Preguntas similares