Respuestas
Respuesta:
El trabajo social es una profesión y ciencia social basada en la práctica y una disciplina académica que promueve el cambio y el desarrollo social, la cohesión social, el fortalecimiento y la liberación de las personas. Los principios de la justicia social, los derechos humanos, la responsabilidad colectiva y el respeto a la diversidad son fundamentales para el trabajo social. Respaldada por las teorías del trabajo social, las ciencias sociales, las humanidades y los conocimientos indígenas, el trabajo social involucra a las personas y las estructuras para hacer frente a desafíos de la vida y aumentar el bienestar.1
Tras un periodo largo de revisión, esta definición pone fin a la adoptada en el año 2000 y que ha sido la utilizada hasta el momento. La nueva definición, además de subrayar el compromiso de la profesión con la justicia social y los derechos humanos, intenta adaptarse a la situación actual del trabajo social en el mundo, ampliándola a nivel nacional y/o regional.
Espero que te sirva