Que quiere decir la cultura cambia

Respuestas

Respuesta dada por: danilozapata15
4

Respuesta:

Explicación:

Cambio cultural es un término utilizado en la formulación de políticas públicas que enfatiza la influencia del capital cultural en el comportamiento individual y comunitario. A veces se le ha llamado reposicionamiento de la cultura, lo que significa la reconstrucción del concepto cultural de una sociedad

Preguntas similares