definición social del trabajo

Respuestas

Respuesta dada por: jl421223
3

Respuesta:

El trabajo social es una profesión y ciencia social basada en la práctica y una disciplina académica que promueve el cambio y el desarrollo social, la cohesión social, el fortalecimiento y la liberación de las personas.

Preguntas similares