Explique trabajo social, y su importancia en la sociedad​

Respuestas

Respuesta dada por: marianautri
2

Respuesta:

El Trabajo social es una profesión y una ciencia humana, que tiene como objetivo  ayudar a las comunidades  y mejorar el estándar de vida, es una profesión que busca favorecer el desarrollo de vínculos humanos saludables y fomentar cambios sociales.  La importancia de tal trabajo es fundamental para la sociedad, ya que actúan preventivamente ante posibles situaciones que pueden terminar en problemas, promover y luchar por el compromiso gubernamental y social en políticas  sociales que resulten eficaces y justas, etc.  

Explicación:

Espero que te ayude :3

Preguntas similares