Respuestas
Respuesta dada por:
17
El trabajo social es una profesión basada en la práctica y una disciplina académica que promueve el cambio y el desarrollo social, la cohesión social, y el fortalecimiento y la liberación de las personas. Los principios de la justicia social, los derechos humanos, la responsabilidad colectiva y el respeto a la diversidad son fundamentales para el trabajo social. Respaldada por las teorías del trabajo social, las ciencias sociales, las humanidades y los conocimientos indígenas, el trabajo social involucra a las personas y las estructuras para hacer frente a desafíos de la vida y aumentar el bienestar.
Preguntas similares
hace 7 años
hace 7 años
hace 7 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años