Respuestas
Respuesta dada por:
2
Respuesta:
El Trabajo social es una profesión y una ciencia humana, que tiene como objetivo ayudar a las comunidades y mejorar el estándar de vida, es una profesión que busca favorecer el desarrollo de vínculos humanos saludables y fomentar cambios sociales. La importancia de tal trabajo es fundamental para la sociedad, ya que actúan preventivamente ante posibles situaciones que pueden terminar en problemas, promover y luchar por el compromiso gubernamental y social en políticas sociales que resulten eficaces y justas, etc.
Explicación:
Espero que te ayude :3
Preguntas similares
hace 3 años
hace 6 años
hace 6 años
hace 8 años
hace 8 años